作者:李如
链接:https://www.zhihu.com/question/398114261/answer/1253942032
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

GPT-3依旧延续自己的单向语言模型训练方式,只不过这次把模型尺寸增大到了1750亿,并且使用45TB数据进行训练。同时,GPT-3主要聚焦于更通用的NLP模型,解决当前BERT类模型的两个缺点:

  1. 对领域内有标签数据的过分依赖:虽然有了预训练+精调的两段式框架,但还是少不了一定量的领域标注数据,否则很难取得不错的效果,而标注数据的成本又是很高的。
  2. 对于领域数据分布的过拟合:在精调阶段,因为领域数据有限,模型只能拟合训练数据分布,如果数据较少的话就可能造成过拟合,致使模型的泛华能力下降,更加无法应用到其他领域。

因此GPT-3的主要目标是用更少的领域数据、且不经过精调步骤去解决问题

为了达到上述目的,作者们用预训练好的GPT-3探索了不同输入形式下的推理效果:

这里的Zero-shot、One-shot、Few-shot都是完全不需要精调的,因为GPT-3是单向transformer,在预测新的token时会对之前的examples进行编码。

作者们训练了以下几种尺寸的模型进行对比:

实验证明Few-shot下GPT-3有很好的表现:

最重要的是,GPT-3的few-shot还在部分NLU任务上超越了当前SOTA。该论文长达72页(Google T5是53页),第10页之后都是长长的实验结果与分析。

显然,GPT-3的模型参数、训练数据和工作量都是惊人的,论文署名多达31个作者,所有实验做下来肯定也耗费了不少时间。虽然一直都存在对于大模型的质疑声音,但我们确确实实从T5、GPT-3这样的模型上看到了NLP领域的进步,众多业务也开始受益于离线或者线上的BERT。事物的发展都是由量变到质变的过程,感谢科研工作者们的不懈努力和大厂们的巨额投入,奥利给。

GPT-3诞生,Finetune也不再必要了!NLP领域又一核弹!​mp.weixin.qq.com图标

 

编辑于 05-30

 

 

 

作者:李渔
链接:https://www.zhihu.com/question/398114261/answer/1275545519
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

这是一件值得我们在战略上重视的事。

抛开 GPT-3 这项工作的具体发现不谈,简单说一说这项工作给我带来的担忧:

1、AI 领域的科研垄断似乎正在形成

刚听说了 OpenAI 出了 1700 亿参数的 GPT-3 时,给我的感受就好像是,我们还在琢磨怎么用好 100 nm 工艺线研发芯片时,别人已经宣布跑通 9 nm 工艺线了。这种震惊相信芯片领域的同学有切身的感受。 保守估计,GPT-3 的训练费用在数百万美金到千万美金之间,显然这样的花销国内很难有团队可以承受。那么在算力这个层面,科研垄断已经形成了。

再回到芯片领域,由于长期缺乏足够的资金支持同时很少接触到先进的工艺线,国内很多研究人员(既包括高校,也包括企业)长期只能做电路的理论分析和仿真研究,长期处在低水平的探索中,导致很难在芯片领域做出突破性的成果。

记得五年前,我在知乎上分享了一项有关世界上第一款光电混合CPU的研究,这个工作由 UC Berkeley, MIT & University of Colorado Boulder 研究人员共同完成,在当年的 Nature 上进行了报道。简而言之,他们第一次在微电子标准 CMOS 工艺下,利用IBM商用的 45 nm 工艺线实现了光电混合集成的 CPU。然而,五年过去,依然没有听到国内有哪家单位在做。而对方已经创业,开始尝试将这一技术应用到数据中心中。

如果接下来几年类似 GPT-3 这样的超大规模模型依然只是被少数几家强 AI 机构垄断,那么芯片领域的当下局面很有可能出现在 AI 领域。

2、长期的算力垄断很有可能带来系统性的AI技术垄断

可能有一些同学会说,上面说的未免有点杞人忧天,毕竟这么重的 GPT-3 在实际中连拿来 inference 都不太可能。 但是我们看 GPT-3 的文章会发现,这是一项系统工程。前面

@王星

答主也提到,单是作者贡献就单独列了一页。显然,GPT-3 是一项很有挑战的工程项目。一项有挑战的工程项目的完成,不论本身是否具有重要用途,在完成挑战过程中所突破的种种技术问题,就是一笔巨大的财富。比如,在训练过程中,如何在集群上实现超大规模参数的高效更新,如何处理梯度传播等等。

用阿波罗登月计划做一个不完全恰当的类比。抛开阿波罗登月计划对于美国在冷战期间的政治意义不谈,单就整个项目期间,研究人员在空间通信、材料科学、自动控制、集成电路、计算机科学方面所取得的种种技术突破,对后来美国多个民用领域的发展都起到了很大的推动作用。

GPT-3 仅仅只是一个开始,随着这类工作的常态化开展,类似 OpenAI 的机构很可能形成系统性的AI技术垄断。

 

一不留神多说了几句,总之,我们至少应该在战略上重视这个工作。

发布于 06-10

 

 

作者:袁进辉
链接:https://www.zhihu.com/question/398114261/answer/1254296176
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

英伟达副总裁 Bryan Catanzaro :computation power make human ingenuity the limiting factor for AI research & development

中文:计算力 让人工智能研究 只有想不到,没有做不到

原版

 

 

 

编辑于 05-30

 

 

 

简单说三点和技术关系不大的:

  1. GPT-3可能还是无法帮助OpenAI盈利,也无法直接上线显著造福网民,但是从中积累的大模型训练经验是OpenAI和他背后的微软Azure一笔巨大的财富。这就像,人类登上火星/月球可能并不能带来直接的资源收益,但是从中积累的科学技术却可以推动人类社会的发展。
  2. 我个人很喜欢大力出奇迹的工作,现在的NLP预训练如同中国的古话“熟读唐诗三百首,不会作诗也会吟”。我希望大家不要“看不上”这样的工作,并觉得给我卡我上我也行。NLP大规模预训练至少面临着:模型大了容易训崩(虽然我也不知道为什么,但是大Transformer就是会在某一个点突然模型Loss骤增)、模型并行容易有坑、训着训着机器坏了的容错问题。
  3. 我的回答一直强调,NLP的同学们,尤其是年轻的同学们,要去大厂、有资源的地方。虽然有了资源不一定行,但是没有资源现在肯定是不行了。

发布于 05-30



作者:Dr.Wu
链接:https://www.zhihu.com/question/398114261/answer/1254692810
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

 

 

 

作者:王星
链接:https://www.zhihu.com/question/398114261/answer/1253480720
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

第一次看挂这么多名字的论文详细地写Author contributions

Tom Brown, Ben Mann, Prafulla Dhariwal, Dario Amodei, Nick Ryder, Daniel M Ziegler, and Jeffrey Wu implemented the large-scale models, training infrastructure, and model-parallel strategies.

Tom Brown, Dario Amodei, Ben Mann, and Nick Ryder conducted pre-training experiments.

Ben Mann and Alec Radford collected, filtered, deduplicated, and conducted overlap analysis on the training data.

Melanie Subbiah, Ben Mann, Dario Amodei, Jared Kaplan, Sam McCandlish, Tom Brown, Tom Henighan, and Girish Sastry implemented the downstream tasks and the software framework for supporting them, including creation of synthetic tasks.

Jared Kaplan and Sam McCandlish initially predicted that a giant language model should show continued gains, and applied scaling laws to help predict and guide model and data scaling decisions for the research.

Ben Mann implemented sampling without replacement during training.

Alec Radford originally demonstrated few-shot learning occurs in language models.

Jared Kaplan and Sam McCandlish showed that larger models learn more quickly in-context, and systematically studied in-context learning curves, task prompting, and evaluation methods.

Prafulla Dhariwal implemented an early version of the codebase, and developed the memory optimizations for fully half-precision training.

Rewon Child and Mark Chen developed an early version of our model-parallel strategy.

Rewon Child and Scott Gray contributed the sparse transformer.

Aditya Ramesh experimented with loss scaling strategies for pretraining.

Melanie Subbiah and Arvind Neelakantan implemented, experimented with, and tested beam search.

Pranav Shyam worked on SuperGLUE and assisted with connections to few-shot learning and meta-learning literature.

Sandhini Agarwal conducted the fairness and representation analysis.

Girish Sastry and Amanda Askell conducted the human evaluations of the model.

Ariel Herbert-Voss conducted the threat analysis of malicious use.

Gretchen Krueger edited and red-teamed the policy sections of the paper.

Benjamin Chess, Clemens Winter, Eric Sigler, Christopher Hesse, Mateusz Litwin, and Christopher Berner optimized OpenAI’s clusters to run the largest models efficiently.

Scott Gray developed fast GPU kernels used during training.

Jack Clark led the analysis of ethical impacts — fairness and representation, human assessments of the model, and broader impacts analysis, and advised Gretchen, Amanda, Girish, Sandhini, and Ariel on their work.

Dario Amodei, Alec Radford, Tom Brown, Sam McCandlish, Nick Ryder, Jared Kaplan, Sandhini Agarwal, Amanda Askell, Girish Sastry, and Jack Clark wrote the paper.

Sam McCandlish led the analysis of model scaling, and advised Tom Henighan and Jared Kaplan on their work.

Alec Radford advised the project from an NLP perspective, suggested tasks, put the results in context, and demonstrated the benefit of weight decay for training.

Ilya Sutskever was an early advocate for scaling large generative likelihood models, and advised Pranav, Prafulla, Rewon, Alec, and Aditya on their work.

Dario Amodei designed and led the research.

发布于 05-29

 

 

作者:量子超感
链接:https://www.zhihu.com/question/398114261/answer/1253410132
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

1. 炼丹师们以后连自黑调参侠也不敢了。

GPT-2 (参数15 亿)、Megatron-BERT(80 亿参数)、Turing NLG(170 亿参数),而GPT-3直接1700亿个参数。

当然,GPT-3不需要fine-tune,就能具有非常好的效果。

2. 当下入坑DL建议:穷搞理论,富搞预训练。(雾)

Google的T5论文的一页实验烧了几百万美元,当时看起来已经是壕无人性了,但背靠MS的OpenAI的GPT-3需要的GPU算力是BERT的近2000倍,训练成本保守估计一千万美元,以至于训练出了一个bug也无能无力,论文只能拿出一部分篇幅研究了这个bug会有多大影响。

Unfortunately, a bug in the filtering caused us to ignore some overlaps, and due to the cost of training it was not feasible to retrain the model.
不幸的是,过滤中的一个bug导致我们忽略了一些(训练集与测试集的)重叠,由于训练的成本的原因,重新训练模型是不可行的。

 

3. GPT-3对NLP和DL的意义还是非常重大的。

NLP可以说是实现AGI的最大难题,NLP的突破需要一个效果很好且通用的模型,GPT-3依凭借巨大的参数与算力已经极力接近这样的性质,在许多任务上(如翻译、QA和文本填空任务)拥有出色的性能甚至取得了SOTA。

然而,GPT-3还是存在一些局限,论文作者给出了未来有前景的方向:

  • 建立GPT-3尺度的双向模型。
  • 使双向模型能在少样本、零样本学习上工作。

4. 数据、模型、算力,三大要素,缺一不可,但算力还是王道:

畅想一下:几十年后,算力暴涨,如同今天的入门DL的本科生训练MNIST一样,那时的本科生深度学习第一章课后作业:复现一下T5和GPT-3。

NVIDIA YES!

编辑于 06-04

 

 

 

作者:二元倒回改造架构
链接:https://www.zhihu.com/question/398114261/answer/1264613526
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

看了些GPT3的文本生成样例,还挺有意思的。不过生成的东西还是漏洞频频,没有大家想象的那么强。

https://raw.githubusercontent.com/openai/gpt-3/master/175b_samples.jsonl​raw.githubusercontent.com

 

GPT-3总体上来说,写的故事还是不错了。看起来比较真实,读起来也很有感觉。以下我仔细分析了GPT-3的几篇文章。第一篇讲中国的文章中,拿中国治安很好和美国枪支泛滥做对比,读起来好像作者真的是美国人似的。第三篇的推特爱情故事,真实地展现了Brandon Flowers几天的推文。虽然日期有些杂乱,但是大体上的内容非常真实。除了情情爱爱的套话之外,还刻画了邀请朋友来婚礼等生活细节,看起来饶有趣味。

GPT-3写的一个文章最大优点是都紧扣了主题。之前GPT-2的文章有时候写着写着就讲到另外一件事去了,而GPT-3改善了很多,至少在我看的几篇文章中都没有出现这种情况。

模型的好坏还和我们的评判标准有关。假如我们把GPT-3看成是一个小孩子,那么它能写出如此流畅、真实的文章,已经是令人惊喜了。但是,联想到其1000万美元的训练价格,我还是想严苛那么一下下,仔细找些文章挑出骨头来。

以下是文章展示和挑刺环节。其中我认为有问题的部分用黑体标出:

  1. GPT-3也是个“中吹”

GPT-3讲述了一个外国人对中国人的喜爱和夸赞:

Trixie Textured - My cat licked my thumb.
Join Date: Nov 2006 Posts: 4,592
I have not been to China, though I have been to Japan and love it.
I have friends in China who have also been to Japan, and they both love it, and neither of them think of it as a \"poor\" country. In fact, a lot of people who have been there say that China is much nicer.
China is not a poor country. They have tons of money and resources. Their problem is that they do not spend enough on infrastructure and don't value education as highly as they could. So their people do not make as much money as they could. And they don't have nice things. It is much nicer than India, but not as good as Japan. I would like to visit it, because I do not think I would be disappointed, but I don't expect it to be better than Japan.
They have a different mindset than us, and do things differently. Their government is not a democracy. It is a communist government. I think that is not a bad thing, and has it's benefits. They have much fewer guns and gun crime than we do. They are, for the most part, more honest than we are. Their infrastructure, while not as nice as ours, is very good. They spend more on infrastructure than we do. They have much more public transportation, and better public transportation. They are working on their environmental problems, and they have made more progress than we have. They have fewer social problems, and less crime than we do. They have a very good education system, especially compared to India.
They spend more money on schools and education, and invest more in their future, than we do.
China is a country that is far more well developed than many people in the US would think.
The fact that they have fewer guns, and better education and fewer social problems is probably why they have fewer school shootings than we do. I think we have way too many guns in this country, and that is a big part of the problem.
Just my thoughts.

乍一看挺流畅的,不过仔细琢磨还是能看出不少前后不一致的地方。例如一开始讲到中国和日本两个国家时,指代有些杂乱。第一次讲"poor country"指代日本,第二次讲的时候不知怎么又拿来指代中国了。后面讲到infrastructure和education,前面一顿贬,后面竟然又自相矛盾地跨起来了。说明GPT-3虽然有一千多亿参数,但是文字功底还是只停留在符号层面,逻辑基础比较差。

 

2. GPT-3也会Arduino

GPT-3写了一篇Arduino教程:

Arduino
The Arduino is a small microcontroller, the key component for any hardware project. It allows you to interact with the real world with the help of sensors.
As you might know, the Arduino doesn’t come alone, it needs a small piece of hardware called the USB/serial converter to be able to interact with your computer and communicate with the Arduino.
By default the Arduino only comes with an Atmega328. This is a pretty good chip, as it can run up to 20MHz, has lots of RAM (32kB), lots of IO pins (20) and lots of serial ports (4).
We can still upgrade the Arduino with a more powerful chip, like the Atmega2560 (60MHz, lots of RAM, lots of IO pins and serial ports), the Atmega1280 (80MHz, lots of RAM, lots of IO pins and serial ports) or the Atmega2561 (62.5MHz, lots of RAM, lots of IO pins and serial ports).
As you can see, the difference between these chips is the speed (Mhz) and the amount of RAM.
The choice between the other 3 chips depends on the project you’re going to use the Arduino for. If you need a high speed for something like an audio or video streaming application, you should go for the Atmega2560 or Atmega2561. If you need a lot of IO pins for some digital inputs and outputs, you should go for the Atmega1280.
The first Arduino board I have made has a Mega2560 on it, so that’s what we’re going to be using. The pins can be easily set in a manner that suits the hardware project, and there are lots of examples and examples on the internet for lots of projects.
I2C, SPI
If you plan to use the Arduino to connect your hardware projects to a PC, you will need an extra cable. One that has the 2 signals to use with the Arduino (I2C or SPI) and another one to use with your PC (serial). This is what I will be using for this project, and I highly recommend it to anyone else who plans to do the same.
Here is an example of such a cable.
That’s it for today, stay tuned for the next part in which I will be adding code to control the LEDs and adding more control buttons.

这篇讲得头头是道的,我原来以为应该不会错吧,毕竟训练数据里有关Arduino的资料肯定不少。但是仔细一查,发现Atmega328的IO口数量没写对,Atmega2560/1280/2561的频率都写错了。不过毕竟GPT-2也没有上网查资料,这些还是值得原谅的。

但是写出“lots of examples and examples”这种赘余的文字就不应该了(我专门去谷歌搜了一下,并没有examples and examples这种写法)。这也是语言模型的一个通病了吧,之前用GPT-2的时候。跑出来的结果中出现通篇重复文字的概率不小(即相同的一个或几个单词无限循环输出)。GPT-3也有少量通篇重复的,我这里就不放出来了。

3. GPT-3也会虐狗

GPT-3讲述了一段推特爱情故事:

There’s nothing more adorable than a real life couple who gush over one another on social media and share the same love story. What’s even more adorable is when you know that they found each other through social media.
Take Brandon Flowers and his wife, Tana. The two met on Twitter and now, they’re celebrating their five year anniversary. If you follow either of their social media accounts, you may have noticed some cute posts from them about their relationship. We want to thank them for allowing us to have a look into their love story, because they’re too cute!
As fans of The Killers, we love hearing about their adventures.
They’re pretty cute!
There’s nothing more adorable than a real life couple who gush over one another on social media and share the same love story. What’s even more adorable is when you know that they found each other through social media.
Take Brandon Flowers and his wife, Tana. The two met on Twitter and now, they’re celebrating their five year anniversary. If you follow either of their social media accounts, you may have noticed some cute posts from them about their relationship. We want to thank them for allowing us to have a look into their love story, because they’re too cute!
As fans of The Killers, we love hearing about their adventures.
They’re pretty cute!
I'd just like to say that my wife is everything. — Brandon Flowers (@flowerboy) August 5, 2017
Wedding Day. Not on social media. So I don't know what people think. I know my wife is everything. That's all I need. — Brandon Flowers (@flowerboy) August 5, 2017
On the last night of a tour, getting some wife-y kisses. And in case anyone was wondering. This is how we roll. pic.twitter.com/zSXlfUgKXd — Brandon Flowers (@flowerboy) August 7, 2017
Oh yeah. Still be on tour, still be making music. Not yet a father, but that's coming. Still have some things left to do. https://t.co/CJ1vOs8lYA — Brandon Flowers (@flowerboy) August 7, 2017
Yes. It's true. I am getting married. And I'm marrying my best friend. And my favorite person. https://t.co/uOe3DjtMtQ — Brandon Flowers (@flowerboy) August 5, 2017
The next night, he admitted that he has not yet become a father, but he is working on it.
Didn't say I was a father yet. Wasn't pregnant before. Wasn't even married. But I love my wife and my future kids. pic.twitter.com/uVEXZHScGz — Brandon Flowers (@flowerboy) August 6, 2017
Yep. Only day two and already love you so much more than I did yesterday. No, that's not enough. Still not enough. pic.twitter.com/cItd8b8HxY — Brandon Flowers (@flowerboy) August 8, 2017
You are a goddamn genius. No one can make me laugh like you. — Brandon Flowers (@flowerboy) August 8, 2017
The next day, Brandon shared the first picture of the newlyweds.
Tana and I on our wedding day. pic.twitter.com/6R5xT0P5zT — Brandon Flowers (@flowerboy) August 7, 2017
I can't wait to see you two together at our wedding. — Brandon Flowers (@flowerboy) August 7, 2017
I love my wife and I'm going to spend the rest of my life loving her. https://t.co/2h7LXqHxjC — Brandon Flowers (@flowerboy) August 7, 2017
Brandon gave a shout out to his brother and the rest of the band for not spoiling their special day.
This is how much I love my wife. I would've wanted to come here tonight. But I didn't. https://t.co/ox7XY3sPGO — Brandon Flowers (@flowerboy) August 8, 2017
Just a normal day. A normal day with my wife. She is my favorite person in the world. We have no plans. pic.twitter.com/vNNkIOCcUQ — Brandon Flowers (@flowerboy) August 8, 2017
Curious to see the rest of their love story?
Happy 5 years to the love of my life, my best friend and my favorite person. I still feel like I'm the luckiest"..............

这篇文章一开头就把同样的文字重复了两遍,不知道是不是因为训练语料没洗干净,也有相同的情况。后面的推文也没有按照时间顺序排,出现了8月7日-8月5日-8月6日这样的奇怪顺序。"Wasn't pregnant before. Wasn't even married."这两句也很奇怪。怎么会讨论一个大男人怀不怀孕呢,而且不是已经结婚了吗?

综上,预训练模型其实还有很大的空间。这次OpenAI用了那么多数据和参数量,训练出来的模型仍然不完美。希望能有天才的研究者从另一个角度找到更好的答案吧。

编辑于 06-07

 

 

作者:pymars
链接:https://www.zhihu.com/question/398114261/answer/1261498248
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

评价就是:

1、这下彻底玩儿不起了,以前的bert虽然很大,一般人训练不起,但用别人预训练好的模型来应用于自身任务还是可以的,而gpt-3的大模型基本上是用都用不起了。

2、openAI一致在gpt的架构上一条道走到黑,还能每次都出一些新东西,也是很佩服

3、论文第4页的这个图充分说明了量变引起的质变

4、不知道多少人关注到论文29页的这个部分:

翻译一下大概是这样:

我想上面的例子一定程度上说明:GPT-3初步具备了“理解”的能力,之前的各种大模型虽然在各种任务上效果好,但更多的还是偏向“记忆”,而如何让模型具备理解的能力一直是很多前沿NLP研究者在思考的问题。在这之前,多数的想法还是从算法和模型层面去思考可能性,如果上面截图不是特例,GPT-3真的初步具备这种理解能力,我想对于NLP的发展而言,这可能就是一个里程碑式的拐点,就像imagenet数据集对图像处理领域的意义一样。

编辑于 06-03

 

 

作者:我的土歪客
链接:https://www.zhihu.com/question/398114261/answer/1294202280
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

两年下来,GPT已经不仅仅只是个模型了。我想试着从心态、技术和商业三个角度谈谈它的影响。

这是一个极度容易让人“心态爆炸”的模型

CloseAI(不好意思打错了,我是说OpenAI)不久前“释出”(之所以打引号是因为目前我们只能看不能用)了GPT-3模型。在language model竞赛中,它也就“又大了一点点”吧:1750亿参数、31位作者、72页论文,训练下来大约花了1200万刀[1]。(望向脚边机箱里的2080Ti:“要认清自己的能力,不要总还想着在NLP上搞个大新闻,EPIC Games每周限免他不香吗?”

Epic Games Store | Official Site​www.epicgames.com图标

这是一个对“大力出奇迹”有着坚定信心的技术实践

调侃完毕,我们来简单梳理下GPT贯穿始终的目的和其从1到3一路走来的发展脉络:

总体上看,GPT的目的一直非常明确,就是想证明“大力出奇迹”的猜想。即在大的数据集上做无监督训练,是不是当数据大到一定程度时,就不需要在具体且繁多的下游任务上做监督、微调之类的事情了?

具体来看:

  • 2018年6月 GPT-1:大量数据(约5GB文本)上无监督训练,然后针对具体任务在小的有监督数据集上做微调;关键词:“scalable, task-agnostic system”;8个GPU上训练一个月;预训练模型(1.1亿参数)可下载;

Improving Language Understanding with Unsupervised Learning​openai.com图标

  • 2019年2月 GPT-2:大量数据(约40GB文本)上无监督训练,然后针对具体任务在小的有监督数据集上做微调,尝试在一些任务上不微调(即使结果离SOTA还远);关键词“without task-specific training”;据说在256个Google Cloud TPU v3上训练,256刀每小时,训练时长未知[2];预训练模型(15亿参数)最终公开可下载;

https://openai.com/blog/better-language-models/​openai.com

 

  • 2020年5月 GPT-3:大量数据(499B tokens)上无监督训练,不微调就超越SOTA;关键词“zero-shot, one-shot, few-shot”;训练据说话费1200万刀;1750亿参数,将会开放付费API。

72页论文我既没精力也没心力读下来,因此推荐这篇总结博文:

GPT-3, a Giant Step for Deep Learning and NLP​anotherdatum.com图标

简单来讲,GPT-3一定程度上证明了大力真的可以出奇迹,无需fine-tuning就能在下游任务中“大显神威”。GPT-3的关注点在zero-shot、one-shot和few-shot学习,它证明了一个足够大的模型在训练时可以获得更宽泛的NLP“技能”和模式识别的能力,这些能力使它在推断时可以迅速地适应或识别出下游任务。

说点感性上的感受:词嵌入、语义等的核心我认为是context,context可以翻译成“上下文”,这个翻译用来理解word2vec或language modeling等都非常直观。当然context也可以翻译为“语境”,语境是一个更宏大的词,是一种对更宽泛环境的理解能力。对于人来说,能感知并理解语境需要强大的能力,往往基于广泛的阅读,但人的阅读能力总是有极限的。GPT想证明的事情,像是人类对基于广泛阅读的语境理解能力的极限探索。

比起技术的成熟,它在商业上还是个“萌新”

还好GPT-3也不是样样都行,至少它在商业上还是个“萌新”,这多多少少给我们早已“爆炸”的心态带来了些许安慰。

先看OpenAI几个商业上的时间点:

  • 2015年10月 创立;非盈利
  • 2018年2月 Musk退出董事会
  • 2019年3月 成立OpenAI LP[3],他们自己所谓的“a hybrid of a for-profit and nonprofit”,这不重要,重要的是他们开始需要为投资人的钱负责了
  • 2019年7月 微软投资10亿刀[4]

拿这个时间线对照GPT时间线,或许有助于我们从另一个方向理解GPT的一些选择:

比如GPT-2刚官宣时的争议。众所周知,GPT-2的完整模型一开始是没有被公开的,官方博客的解释是:

Due to our concerns about malicious applications of the technology, we are not releasing the trained model.[5]

因为怕这个强大的模型被滥用,官方决定公布一个较小的模型。(CloseAI的外号就是这么来的。)

我们看下GPT-2推出的时间,2019年2月。OpenAI 一个月后就改变架构、成立以盈利为目的OpenAI LP,5个月后获得微软投资。

我们有理由相信GPT-2公布时、甚至训练时OpenAI非盈利的组织架构就已经快玩儿不转了。不公布模型,一方面是作为非营利组织心系天下、有社会责任感的“最后的倔强”;另一方面也为下一步作为需要盈利的公司给投资人有个交代、争取商业合作、获得融资等提供了想象空间。(毕竟,因为如果直接开源,GPT-2的商业价值就极其有限了。)

到了GPT-3的时代,OpenAI选择将其作为一个付费API(或者说一种服务)来让大家使用,这是OpenAI LP获得微软投资后的一步重要商业化实践。背靠微软这棵大树,用Azure云计算技术训练模型,基于Azure提供API服务,甚至连注册API的线上问卷也用的是Microsoft Forms。

个人认为商业化是非常好的事情,对AI真正落地会产生积极影响。如果把金钱看作全球普遍接受的、有统一标准的评价方法,那GPT-3在NLP任务上斩获无数SOTA后,下一关,就是看它在盈利上是否同样可以获得SOTA了。

BTW,目前这个API服务还未上线,感兴趣的朋友可以通过填写这个线上问卷加入OpenAI API Waitlist。

OpenAI API Waitlist​forms.office.com

 

 

参考

  1. ^https://venturebeat.com/2020/06/01/ai-machine-learning-openai-gpt-3-size-isnt-everything/
  2. ^https://www.theregister.com/2019/02/14/open_ai_language_bot/
  3. ^https://openai.com/blog/openai-lp/
  4. ^https://openai.com/blog/microsoft/
  5. ^https://openai.com/blog/better-language-models/

编辑于 06-22

 

 

作者:饭饭
链接:https://www.zhihu.com/question/398114261/answer/1364185395
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

GPT-3我还没申请到试用。最近PR一把火了。其实GPT-2已经算是Few-shot learner了,GPT-3把这个再次扩展到极致。效果方面我不多做赘述,但我想说说这里面,设计Few-shot learner,或者Meta Learner的路线之争,也就是

Recurrence Based Meta Learning 和 Gradient Based Meta Learning的路线之争

Gradient Based Meta Learning,以MAML[1]为代表, 指的是,针对不同的任务,它的Adaption过程,是通过少量样本的梯度迭代, 实现对新任务的适配

Recurrence Based Meta Learning, 以SNAIL[2] 为代表, 它针对不同的任务,不需要梯度迭代,只需要Forward, 或者将样本Encoding进去就能学习。

 

也许有的朋友说,我没看到 GPT-3做了什么Meta Learning的事情啊?它就是个Language Model啊?

不了解的朋友可以先看下Recurrence based Meta Learning的鼻祖。它就是一个LSTM,把 [公式] 就这么一个个Encode进去,它就是一个Meta Learner了

神奇不?

 

过去一段时间,MAML一直牢牢占据Meta Learning的主流,因为Recurrence based一直效果不好

如果GPT-3和BERT刚好代表Recurrence based和Gradient based两种方法

那GPT-3证明了,只要模型够大,Recurrence based meta learning也是可以的

 

最后,我广告下这篇文章,在18年开始我就很看好recurrence based meta learning

饭饭:我们离真正的通用人工智能(AGI)到底还缺少了什么?还差多久?​zhuanlan.zhihu.com图标

 

[1]Finn, Chelsea, Pieter Abbeel, and Sergey Levine. "Model-agnostic meta-learning for fast adaptation of deep networks."arXiv preprint arXiv:1703.03400(2017).

[2] Mishra, Nikhil, et al. "A simple neural attentive meta-learner."arXiv preprint arXiv:1707.03141(2017).

发布于 1 小时前

 

 

 

作者:某霁
链接:https://www.zhihu.com/question/398114261/answer/1257553154
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

小白幻想中,以下为胡扯。

所有人都喜欢 / 希望deep learning学会真正的“知识”,希望deep learning可解释。

然而,deep learning一直希望看齐的人脑不也是一团混沌?人脑可解释了吗?人脑无数神经元一团乱麻,只能非常heuristic地解释一下(其实deep learning也可以非常heuristic地解释),这就算是可解释了吗?人脑也没有像deep learning学者一直希望的那样,具有某种特殊的结构来“学习知识”,人脑就不能学习知识了吗?

会不会其实高参数量、高算力的暴力流就是最贴近人脑的,也是最合适的出路?有没有可能,我们不是应该“设计一个可解释的模型”,而是训练一个“可以解释自己的模型”?(毕竟人脑也是这样的东西)

Update:感觉上述没说清楚,贴一下我在评论区的解释:

大家对待deep learning的态度和对待大脑的态度很不一样;大家都在研究大脑,尊重大脑能够work并研究它如何work;但对于deep learning,大家或者希望人为地“设计”一个易于解释的模型,或者希望对已有模型进行分析、解释其中参数的含义、解释其推理的逻辑,否则就不愿意信任模型,认为模型“其实就是记住了pattern,什么都没学到”。我觉得这是很不公平的,deep learning model类似大脑、有非常大的参数量和冗余连接关系,很有可能就是不可解释的,或者无法像大家期待的那样、像解释传统方法一样解释。

编辑于 06-02

 

 

 

查看全文
如若内容造成侵权/违法违规/事实不符,请联系编程学习网邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

相关文章

  1. 「走过」微软、优步,老工程师告诉你哪些数据结构和算法最重要

    数据结构和基础算法作为计算机科学的必学课程,近几年却关注度越来越少。但程序员真的不再需要这两门基础知识了吗?一位在 Uber 等科技公司工作过的开发者分享了他的一手经验,告诉你实际工作中会用到哪些数据结构和算法。作者:Gergely Orosz,机器之心编译,参与:小舟、杜伟…...

    2024/4/30 12:02:43
  2. 2020熔化焊接与热切割考试软件及熔化焊接与热切割作业模拟考试

    题库来源:安全生产模拟考试一点通公众号小程序2020熔化焊接与热切割考试软件及熔化焊接与热切割作业模拟考试,包含熔化焊接与热切割考试软件答案解析及熔化焊接与热切割作业模拟考试练习。由安全生产模拟考试一点通公众号结合国家熔化焊接与热切割考试最新大纲及熔化焊接与热…...

    2024/4/25 22:08:26
  3. 1、OPenGL ES - 简介、iOS中GLKit简单应用

    OPenGL ES - 简介、iOS中GLKit简单应用一、OPenGL ES1、简介:OpenGL ES 是以手持和嵌入式为目标的高级的3D图形应用程序编程接口(API),OpenGL ES 是目前智能手机中占据统治地位的图形API,支持的平台有iOS、Andriod,BlackBerry,bada,Linux,Windows。 OpenGL 和 OpenGL…...

    2024/4/27 1:10:06
  4. 青岛新媒体运营教程:7种私域流量,组合逻辑,分别是怎么玩的

    2020年底才能看到新一轮私域流量玩法大迭代,但到年初时,借着疫情危机带来的推力,升级和迭代比想象中来的更快,新玩法和新组合层出不穷。这些最新打法进行梳理,发现企业在危机面前,至少玩出了7种不同的、行之有效的私域流量新打法。 借助包括私域流量在内的各项工具,无数…...

    2024/4/24 2:58:29
  5. 自动驾驶什么时候才会凉凉,估计还要多久?

    作者:哆啦胖丁 链接:https://www.zhihu.com/question/404870865/answer/1364318345 来源:知乎 著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。我会觉得在自动驾驶这一块,大家都有这么一个共识:我开车出事,没事。要是我朋友开我车出事,等着瞧吧相…...

    2024/4/22 18:14:52
  6. 网络—网络层协议(IP协议)

    一、IP协议:IP协议是TCP/IP协议族中最核心的协议。所有的TCP、UDP、ICMP、IGMP数据都以IP数据报的格式传输;二、IP协议头格式:4位版本协议:ipv4和ipv6; 4位首部长度:ip协议不定长,最长60字节,最短20字节;(40字节的选项数据) 8位协议类型(TOS):3位优先权(弃用),…...

    2024/5/1 14:41:25
  7. C3P0连接池

    C3P0连接池 C3P0连接池是一种主流连接池,C3P0连接池需要一些jar包还有一些配置文件。这里面我提供给大家一个下载地址:C3P0支持 大家把三个jar包构建到lib中,把xml配置文件放在src文件夹下面 如果大家忘记怎么引入jar包了请看我写的这一篇博客IDE引入jar包 C3P0应用 正常你在…...

    2024/4/27 17:52:11
  8. 书籍推荐(2016-2020)--统计数学计算机为主,心理学为辅

    不定期更新文章目录前言数学/统计学/计算机金融心理学英语法律其他前言有些书是我看过的觉得不错的; 有些是老师和小伙伴推荐的,但是我还没来得及看。 我没读过的书,就不写感想,也不放购买链接了。数学/统计学/计算机数学之美完整书名:《数学之美》-- 吴军 《数学之美》是人…...

    2024/4/22 6:35:06
  9. nisp一级练习题及答案

    第一套 1 我国的( )主要规定了关于数据电文、电子签名与认证及相关的法律责任 A.《中华人民共和国宪法》;B.《中华人民共和国网络空间安全法》;C.《中华人民共和国电子签名法》;D.《商用密码管理条例》 正确答案是:C2 传输层用于控制数据流量,以确保通信顺利,该层次的…...

    2024/4/24 4:00:45
  10. 贪心——「一本通 1.1 例 5」智力大冲浪

    「一本通 1.1 例 5」智力大冲浪 一、题目描述 题目链接 二、解题思路 用官方的词语解释:这是一个带期限和罚款的单位时间任务调度的问题,需要使用贪心。 其实带期限和罚款的单位时间任务调度问题是有时间期限和罚款(奖励),的一类问题,要求解的是在区间时间段内所能够达到…...

    2024/4/25 23:05:03
  11. LeetCode32 最长有效括号

    原题目代码分析 方法一:栈1 可以将能匹配的左右括号设为1,不能匹配设为0,找连续匹配的括号即可,即连续的1 class Solution { public:int longestValidParentheses(string s) {stack<int>st;//存储左括号下标vector<int>vec(s.size(),0);//将不能匹配的括号置为0,能…...

    2024/4/29 1:20:17
  12. C语言 实验8-1-3 拆分实数的整数与小数部分 (15分)

    用一个强制类型转换即可 void splitfloat (float x, int *intpart, float *fracpart) {*intpart = (int)x;*fracpart = x - (int)x; }...

    2024/4/23 5:29:35
  13. Linux服务管理-haproxy部署

    haproxy部署环境 主机名 主机 IP地址centos7 localhost1 服务端 192.168.88.128centos7 localhost2 客户端 192.168.88.129centos7 localhost3 客户端 192.168.88.1301. 服务端安装haproxy //下载haproxy安装包并解压 [root@localhost1 ~]# wget http://www.haproxy.org/downlo…...

    2024/4/26 4:41:22
  14. 神出鬼没的this

    神出鬼没的this上一篇挖了个坑,今天给补上你是不是也曾像我一样:编写了个函数明明可以正常工作,但是一做为事件回调函数就报undefind了在编写React组件时,看到在构造函数中还得对每个方法bind一下 :this.funOne = this.funOne.bind(this); this.funTwo = this.funTow.bind…...

    2024/4/25 14:51:27
  15. shell函数与数组的详解走起

    文章目录一:shell函数1.1:函数定义的简化写法1.2:函数的作用范围1.3:递归函数二:shell数组2.1:应用场景包括2.2:数组的描述2.3:数组定义方法2.31:创建1到100数组2.32:创建1到100奇数组2.33:创建任意数字及长度,根据客户需求加入元素2.4:数组操作2.41:获取数组长度2…...

    2024/4/26 0:24:49
  16. 莓茶的功效与作用-莓茶网MQEWIPl5my

    莓茶的功效与作用-详见莓茶网官方网站-meicha8.comMQEWIPl5my...

    2024/4/26 3:04:30
  17. Hadoop HA自动故障转移搭建

    1. 所需知识:Hadoop Zookeeper2. 目前Hadoop集群存在的问题: 2.1 如果NameNode故障后,应该怎么办? Prior to Hadoop 2.0.0, the NameNode was a single point of failure (SPOF) in an HDFS cluster. Each cluster had a single NameNode, and if that machine or process b…...

    2024/4/27 15:31:58
  18. 087node-系统模块 fs文件操作模块

    node运行环境提供的api,因为这些api都是以模块化的方式进行开发,所以我们又称node运行环境提供的api为系统模块 文件读取// 系统模块fs文件操作 // file 文件 systom系统 文件操作系统 const fs = require(fs); // 读取上一级css目录下中的base.css fs.readFile(./1.js, utf-…...

    2024/4/27 10:41:11
  19. Python 的可视化库 Altair推荐下载

    Python 的可视化库 Altair推荐下载 将数据转化成更直观的图片,对于挖掘并了解数据背后的信息很有帮助。我们在朋友圈或者知乎等渠道都会看到相关的python推荐学习的广告。如果你有这方面的需求,而且还在使用Python,那么我推荐你可以了解并试一试Altair。 其一原因 Altair是一…...

    2024/4/27 0:46:35
  20. 莓茶的功效与作用-莓茶网iyE6nSj9wT

    莓茶的功效与作用-详见莓茶网官方网站-meicha8.comiyE6nSj9wT...

    2024/4/25 15:07:19

最新文章

  1. 共享旅游卡行业的5大套路

    旅游卡行业近期热度持续攀升&#xff0c;吸引了众多互联网从业者的关注。同时&#xff0c;一些对互联网了解不深或完全陌生的人也在四处积极搜集相关信息。 一个行业&#xff0c;一旦进入风口浪尖&#xff0c;必然伴随着一些行业内的“伪劣者”。因此&#xff0c;我希望每一位阅…...

    2024/5/3 1:03:24
  2. 梯度消失和梯度爆炸的一些处理方法

    在这里是记录一下梯度消失或梯度爆炸的一些处理技巧。全当学习总结了如有错误还请留言&#xff0c;在此感激不尽。 权重和梯度的更新公式如下&#xff1a; w w − η ⋅ ∇ w w w - \eta \cdot \nabla w ww−η⋅∇w 个人通俗的理解梯度消失就是网络模型在反向求导的时候出…...

    2024/3/20 10:50:27
  3. OpenHarmony开发-连接开发板调试应用

    在 OpenHarmony 开发过程中&#xff0c;连接开发板进行应用调试是一个关键步骤&#xff0c;只有在真实的硬件环境下&#xff0c;我们才能测试出应用更多的潜在问题&#xff0c;以便后续我们进行优化。本文详细介绍了连接开发板调试 OpenHarmony 应用的操作步骤。 首先&#xf…...

    2024/5/1 13:12:16
  4. 论文阅读AI工具链

    文献检索 可以利用智谱清言来生成合适的文献检索式&#xff0c;并根据需要不断调整。 谷歌学术 在Google Scholar中进行检索时&#xff0c;您可以使用类似的逻辑来构建您的搜索式&#xff0c;但是语法会有所不同。Google Scholar的搜索框接受普通的文本搜索&#xff0c;但是…...

    2024/5/1 13:38:40
  5. 416. 分割等和子集问题(动态规划)

    题目 题解 class Solution:def canPartition(self, nums: List[int]) -> bool:# badcaseif not nums:return True# 不能被2整除if sum(nums) % 2 ! 0:return False# 状态定义&#xff1a;dp[i][j]表示当背包容量为j&#xff0c;用前i个物品是否正好可以将背包填满&#xff…...

    2024/5/2 11:19:01
  6. 【Java】ExcelWriter自适应宽度工具类(支持中文)

    工具类 import org.apache.poi.ss.usermodel.Cell; import org.apache.poi.ss.usermodel.CellType; import org.apache.poi.ss.usermodel.Row; import org.apache.poi.ss.usermodel.Sheet;/*** Excel工具类** author xiaoming* date 2023/11/17 10:40*/ public class ExcelUti…...

    2024/5/2 16:04:58
  7. Spring cloud负载均衡@LoadBalanced LoadBalancerClient

    LoadBalance vs Ribbon 由于Spring cloud2020之后移除了Ribbon&#xff0c;直接使用Spring Cloud LoadBalancer作为客户端负载均衡组件&#xff0c;我们讨论Spring负载均衡以Spring Cloud2020之后版本为主&#xff0c;学习Spring Cloud LoadBalance&#xff0c;暂不讨论Ribbon…...

    2024/5/2 23:55:17
  8. TSINGSEE青犀AI智能分析+视频监控工业园区周界安全防范方案

    一、背景需求分析 在工业产业园、化工园或生产制造园区中&#xff0c;周界防范意义重大&#xff0c;对园区的安全起到重要的作用。常规的安防方式是采用人员巡查&#xff0c;人力投入成本大而且效率低。周界一旦被破坏或入侵&#xff0c;会影响园区人员和资产安全&#xff0c;…...

    2024/5/2 9:47:31
  9. VB.net WebBrowser网页元素抓取分析方法

    在用WebBrowser编程实现网页操作自动化时&#xff0c;常要分析网页Html&#xff0c;例如网页在加载数据时&#xff0c;常会显示“系统处理中&#xff0c;请稍候..”&#xff0c;我们需要在数据加载完成后才能继续下一步操作&#xff0c;如何抓取这个信息的网页html元素变化&…...

    2024/5/2 9:47:31
  10. 【Objective-C】Objective-C汇总

    方法定义 参考&#xff1a;https://www.yiibai.com/objective_c/objective_c_functions.html Objective-C编程语言中方法定义的一般形式如下 - (return_type) method_name:( argumentType1 )argumentName1 joiningArgument2:( argumentType2 )argumentName2 ... joiningArgu…...

    2024/5/2 6:03:07
  11. 【洛谷算法题】P5713-洛谷团队系统【入门2分支结构】

    &#x1f468;‍&#x1f4bb;博客主页&#xff1a;花无缺 欢迎 点赞&#x1f44d; 收藏⭐ 留言&#x1f4dd; 加关注✅! 本文由 花无缺 原创 收录于专栏 【洛谷算法题】 文章目录 【洛谷算法题】P5713-洛谷团队系统【入门2分支结构】&#x1f30f;题目描述&#x1f30f;输入格…...

    2024/5/2 9:47:30
  12. 【ES6.0】- 扩展运算符(...)

    【ES6.0】- 扩展运算符... 文章目录 【ES6.0】- 扩展运算符...一、概述二、拷贝数组对象三、合并操作四、参数传递五、数组去重六、字符串转字符数组七、NodeList转数组八、解构变量九、打印日志十、总结 一、概述 **扩展运算符(...)**允许一个表达式在期望多个参数&#xff0…...

    2024/5/2 23:47:43
  13. 摩根看好的前智能硬件头部品牌双11交易数据极度异常!——是模式创新还是饮鸩止渴?

    文 | 螳螂观察 作者 | 李燃 双11狂欢已落下帷幕&#xff0c;各大品牌纷纷晒出优异的成绩单&#xff0c;摩根士丹利投资的智能硬件头部品牌凯迪仕也不例外。然而有爆料称&#xff0c;在自媒体平台发布霸榜各大榜单喜讯的凯迪仕智能锁&#xff0c;多个平台数据都表现出极度异常…...

    2024/5/2 5:31:39
  14. Go语言常用命令详解(二)

    文章目录 前言常用命令go bug示例参数说明 go doc示例参数说明 go env示例 go fix示例 go fmt示例 go generate示例 总结写在最后 前言 接着上一篇继续介绍Go语言的常用命令 常用命令 以下是一些常用的Go命令&#xff0c;这些命令可以帮助您在Go开发中进行编译、测试、运行和…...

    2024/5/1 20:22:59
  15. 用欧拉路径判断图同构推出reverse合法性:1116T4

    http://cplusoj.com/d/senior/p/SS231116D 假设我们要把 a a a 变成 b b b&#xff0c;我们在 a i a_i ai​ 和 a i 1 a_{i1} ai1​ 之间连边&#xff0c; b b b 同理&#xff0c;则 a a a 能变成 b b b 的充要条件是两图 A , B A,B A,B 同构。 必要性显然&#xff0…...

    2024/5/2 9:47:28
  16. 【NGINX--1】基础知识

    1、在 Debian/Ubuntu 上安装 NGINX 在 Debian 或 Ubuntu 机器上安装 NGINX 开源版。 更新已配置源的软件包信息&#xff0c;并安装一些有助于配置官方 NGINX 软件包仓库的软件包&#xff1a; apt-get update apt install -y curl gnupg2 ca-certificates lsb-release debian-…...

    2024/5/2 9:47:27
  17. Hive默认分割符、存储格式与数据压缩

    目录 1、Hive默认分割符2、Hive存储格式3、Hive数据压缩 1、Hive默认分割符 Hive创建表时指定的行受限&#xff08;ROW FORMAT&#xff09;配置标准HQL为&#xff1a; ... ROW FORMAT DELIMITED FIELDS TERMINATED BY \u0001 COLLECTION ITEMS TERMINATED BY , MAP KEYS TERMI…...

    2024/5/2 0:07:22
  18. 【论文阅读】MAG:一种用于航天器遥测数据中有效异常检测的新方法

    文章目录 摘要1 引言2 问题描述3 拟议框架4 所提出方法的细节A.数据预处理B.变量相关分析C.MAG模型D.异常分数 5 实验A.数据集和性能指标B.实验设置与平台C.结果和比较 6 结论 摘要 异常检测是保证航天器稳定性的关键。在航天器运行过程中&#xff0c;传感器和控制器产生大量周…...

    2024/5/2 8:37:00
  19. --max-old-space-size=8192报错

    vue项目运行时&#xff0c;如果经常运行慢&#xff0c;崩溃停止服务&#xff0c;报如下错误 FATAL ERROR: CALL_AND_RETRY_LAST Allocation failed - JavaScript heap out of memory 因为在 Node 中&#xff0c;通过JavaScript使用内存时只能使用部分内存&#xff08;64位系统&…...

    2024/5/2 9:47:26
  20. 基于深度学习的恶意软件检测

    恶意软件是指恶意软件犯罪者用来感染个人计算机或整个组织的网络的软件。 它利用目标系统漏洞&#xff0c;例如可以被劫持的合法软件&#xff08;例如浏览器或 Web 应用程序插件&#xff09;中的错误。 恶意软件渗透可能会造成灾难性的后果&#xff0c;包括数据被盗、勒索或网…...

    2024/5/2 9:47:25
  21. JS原型对象prototype

    让我简单的为大家介绍一下原型对象prototype吧&#xff01; 使用原型实现方法共享 1.构造函数通过原型分配的函数是所有对象所 共享的。 2.JavaScript 规定&#xff0c;每一个构造函数都有一个 prototype 属性&#xff0c;指向另一个对象&#xff0c;所以我们也称为原型对象…...

    2024/5/2 23:47:16
  22. C++中只能有一个实例的单例类

    C中只能有一个实例的单例类 前面讨论的 President 类很不错&#xff0c;但存在一个缺陷&#xff1a;无法禁止通过实例化多个对象来创建多名总统&#xff1a; President One, Two, Three; 由于复制构造函数是私有的&#xff0c;其中每个对象都是不可复制的&#xff0c;但您的目…...

    2024/5/2 18:46:52
  23. python django 小程序图书借阅源码

    开发工具&#xff1a; PyCharm&#xff0c;mysql5.7&#xff0c;微信开发者工具 技术说明&#xff1a; python django html 小程序 功能介绍&#xff1a; 用户端&#xff1a; 登录注册&#xff08;含授权登录&#xff09; 首页显示搜索图书&#xff0c;轮播图&#xff0…...

    2024/5/2 7:30:11
  24. 电子学会C/C++编程等级考试2022年03月(一级)真题解析

    C/C++等级考试(1~8级)全部真题・点这里 第1题:双精度浮点数的输入输出 输入一个双精度浮点数,保留8位小数,输出这个浮点数。 时间限制:1000 内存限制:65536输入 只有一行,一个双精度浮点数。输出 一行,保留8位小数的浮点数。样例输入 3.1415926535798932样例输出 3.1…...

    2024/5/1 20:56:20
  25. 配置失败还原请勿关闭计算机,电脑开机屏幕上面显示,配置失败还原更改 请勿关闭计算机 开不了机 这个问题怎么办...

    解析如下&#xff1a;1、长按电脑电源键直至关机&#xff0c;然后再按一次电源健重启电脑&#xff0c;按F8健进入安全模式2、安全模式下进入Windows系统桌面后&#xff0c;按住“winR”打开运行窗口&#xff0c;输入“services.msc”打开服务设置3、在服务界面&#xff0c;选中…...

    2022/11/19 21:17:18
  26. 错误使用 reshape要执行 RESHAPE,请勿更改元素数目。

    %读入6幅图像&#xff08;每一幅图像的大小是564*564&#xff09; f1 imread(WashingtonDC_Band1_564.tif); subplot(3,2,1),imshow(f1); f2 imread(WashingtonDC_Band2_564.tif); subplot(3,2,2),imshow(f2); f3 imread(WashingtonDC_Band3_564.tif); subplot(3,2,3),imsho…...

    2022/11/19 21:17:16
  27. 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机...

    win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”问题的解决方法在win7系统关机时如果有升级系统的或者其他需要会直接进入一个 等待界面&#xff0c;在等待界面中我们需要等待操作结束才能关机&#xff0c;虽然这比较麻烦&#xff0c;但是对系统进行配置和升级…...

    2022/11/19 21:17:15
  28. 台式电脑显示配置100%请勿关闭计算机,“准备配置windows 请勿关闭计算机”的解决方法...

    有不少用户在重装Win7系统或更新系统后会遇到“准备配置windows&#xff0c;请勿关闭计算机”的提示&#xff0c;要过很久才能进入系统&#xff0c;有的用户甚至几个小时也无法进入&#xff0c;下面就教大家这个问题的解决方法。第一种方法&#xff1a;我们首先在左下角的“开始…...

    2022/11/19 21:17:14
  29. win7 正在配置 请勿关闭计算机,怎么办Win7开机显示正在配置Windows Update请勿关机...

    置信有很多用户都跟小编一样遇到过这样的问题&#xff0c;电脑时发现开机屏幕显现“正在配置Windows Update&#xff0c;请勿关机”(如下图所示)&#xff0c;而且还需求等大约5分钟才干进入系统。这是怎样回事呢&#xff1f;一切都是正常操作的&#xff0c;为什么开时机呈现“正…...

    2022/11/19 21:17:13
  30. 准备配置windows 请勿关闭计算机 蓝屏,Win7开机总是出现提示“配置Windows请勿关机”...

    Win7系统开机启动时总是出现“配置Windows请勿关机”的提示&#xff0c;没过几秒后电脑自动重启&#xff0c;每次开机都这样无法进入系统&#xff0c;此时碰到这种现象的用户就可以使用以下5种方法解决问题。方法一&#xff1a;开机按下F8&#xff0c;在出现的Windows高级启动选…...

    2022/11/19 21:17:12
  31. 准备windows请勿关闭计算机要多久,windows10系统提示正在准备windows请勿关闭计算机怎么办...

    有不少windows10系统用户反映说碰到这样一个情况&#xff0c;就是电脑提示正在准备windows请勿关闭计算机&#xff0c;碰到这样的问题该怎么解决呢&#xff0c;现在小编就给大家分享一下windows10系统提示正在准备windows请勿关闭计算机的具体第一种方法&#xff1a;1、2、依次…...

    2022/11/19 21:17:11
  32. 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”的解决方法...

    今天和大家分享一下win7系统重装了Win7旗舰版系统后&#xff0c;每次关机的时候桌面上都会显示一个“配置Windows Update的界面&#xff0c;提示请勿关闭计算机”&#xff0c;每次停留好几分钟才能正常关机&#xff0c;导致什么情况引起的呢&#xff1f;出现配置Windows Update…...

    2022/11/19 21:17:10
  33. 电脑桌面一直是清理请关闭计算机,windows7一直卡在清理 请勿关闭计算机-win7清理请勿关机,win7配置更新35%不动...

    只能是等着&#xff0c;别无他法。说是卡着如果你看硬盘灯应该在读写。如果从 Win 10 无法正常回滚&#xff0c;只能是考虑备份数据后重装系统了。解决来方案一&#xff1a;管理员运行cmd&#xff1a;net stop WuAuServcd %windir%ren SoftwareDistribution SDoldnet start WuA…...

    2022/11/19 21:17:09
  34. 计算机配置更新不起,电脑提示“配置Windows Update请勿关闭计算机”怎么办?

    原标题&#xff1a;电脑提示“配置Windows Update请勿关闭计算机”怎么办&#xff1f;win7系统中在开机与关闭的时候总是显示“配置windows update请勿关闭计算机”相信有不少朋友都曾遇到过一次两次还能忍但经常遇到就叫人感到心烦了遇到这种问题怎么办呢&#xff1f;一般的方…...

    2022/11/19 21:17:08
  35. 计算机正在配置无法关机,关机提示 windows7 正在配置windows 请勿关闭计算机 ,然后等了一晚上也没有关掉。现在电脑无法正常关机...

    关机提示 windows7 正在配置windows 请勿关闭计算机 &#xff0c;然后等了一晚上也没有关掉。现在电脑无法正常关机以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容&#xff0c;让我们赶快一起来看一下吧&#xff01;关机提示 windows7 正在配…...

    2022/11/19 21:17:05
  36. 钉钉提示请勿通过开发者调试模式_钉钉请勿通过开发者调试模式是真的吗好不好用...

    钉钉请勿通过开发者调试模式是真的吗好不好用 更新时间:2020-04-20 22:24:19 浏览次数:729次 区域: 南阳 > 卧龙 列举网提醒您:为保障您的权益,请不要提前支付任何费用! 虚拟位置外设器!!轨迹模拟&虚拟位置外设神器 专业用于:钉钉,外勤365,红圈通,企业微信和…...

    2022/11/19 21:17:05
  37. 配置失败还原请勿关闭计算机怎么办,win7系统出现“配置windows update失败 还原更改 请勿关闭计算机”,长时间没反应,无法进入系统的解决方案...

    前几天班里有位学生电脑(windows 7系统)出问题了&#xff0c;具体表现是开机时一直停留在“配置windows update失败 还原更改 请勿关闭计算机”这个界面&#xff0c;长时间没反应&#xff0c;无法进入系统。这个问题原来帮其他同学也解决过&#xff0c;网上搜了不少资料&#x…...

    2022/11/19 21:17:04
  38. 一个电脑无法关闭计算机你应该怎么办,电脑显示“清理请勿关闭计算机”怎么办?...

    本文为你提供了3个有效解决电脑显示“清理请勿关闭计算机”问题的方法&#xff0c;并在最后教给你1种保护系统安全的好方法&#xff0c;一起来看看&#xff01;电脑出现“清理请勿关闭计算机”在Windows 7(SP1)和Windows Server 2008 R2 SP1中&#xff0c;添加了1个新功能在“磁…...

    2022/11/19 21:17:03
  39. 请勿关闭计算机还原更改要多久,电脑显示:配置windows更新失败,正在还原更改,请勿关闭计算机怎么办...

    许多用户在长期不使用电脑的时候&#xff0c;开启电脑发现电脑显示&#xff1a;配置windows更新失败&#xff0c;正在还原更改&#xff0c;请勿关闭计算机。。.这要怎么办呢&#xff1f;下面小编就带着大家一起看看吧&#xff01;如果能够正常进入系统&#xff0c;建议您暂时移…...

    2022/11/19 21:17:02
  40. 还原更改请勿关闭计算机 要多久,配置windows update失败 还原更改 请勿关闭计算机,电脑开机后一直显示以...

    配置windows update失败 还原更改 请勿关闭计算机&#xff0c;电脑开机后一直显示以以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容&#xff0c;让我们赶快一起来看一下吧&#xff01;配置windows update失败 还原更改 请勿关闭计算机&#x…...

    2022/11/19 21:17:01
  41. 电脑配置中请勿关闭计算机怎么办,准备配置windows请勿关闭计算机一直显示怎么办【图解】...

    不知道大家有没有遇到过这样的一个问题&#xff0c;就是我们的win7系统在关机的时候&#xff0c;总是喜欢显示“准备配置windows&#xff0c;请勿关机”这样的一个页面&#xff0c;没有什么大碍&#xff0c;但是如果一直等着的话就要两个小时甚至更久都关不了机&#xff0c;非常…...

    2022/11/19 21:17:00
  42. 正在准备配置请勿关闭计算机,正在准备配置windows请勿关闭计算机时间长了解决教程...

    当电脑出现正在准备配置windows请勿关闭计算机时&#xff0c;一般是您正对windows进行升级&#xff0c;但是这个要是长时间没有反应&#xff0c;我们不能再傻等下去了。可能是电脑出了别的问题了&#xff0c;来看看教程的说法。正在准备配置windows请勿关闭计算机时间长了方法一…...

    2022/11/19 21:16:59
  43. 配置失败还原请勿关闭计算机,配置Windows Update失败,还原更改请勿关闭计算机...

    我们使用电脑的过程中有时会遇到这种情况&#xff0c;当我们打开电脑之后&#xff0c;发现一直停留在一个界面&#xff1a;“配置Windows Update失败&#xff0c;还原更改请勿关闭计算机”&#xff0c;等了许久还是无法进入系统。如果我们遇到此类问题应该如何解决呢&#xff0…...

    2022/11/19 21:16:58
  44. 如何在iPhone上关闭“请勿打扰”

    Apple’s “Do Not Disturb While Driving” is a potentially lifesaving iPhone feature, but it doesn’t always turn on automatically at the appropriate time. For example, you might be a passenger in a moving car, but your iPhone may think you’re the one dri…...

    2022/11/19 21:16:57