距离发布GPT-4不到半个月,人工智能(AI)世界再次“不平静”!

3月29日,非盈利组织未来生命研究所(Future of Life Institute)发布了一封标题为“暂停研发更强AI”(Pause Giant AI Experiment)的联署公开信。

公开信的讯息很直截了当——呼吁暂停训练与开发比GPT-4更强大的AI系统,暂停期至少6个月,直到此类设计的共享安全协议由独立专家制定、实施和审核。

超过上千名AI专家与行业高层签署了这封公开信,当中最瞩目的名字,当属ChatGPT研发者OpenAI的前共同创始人Elon Musk。其他掷地有声的签名,还包括了苹果联合创始人Steve Wozniak、Stability AI首席执行员Emad Mostaque、图灵奖得主Yoshua Bengio、纽约大学教授Gary Marcus、人工智能大师Stuart Russell、《人类简史》作者Yuval Noah Harari等等。

在整理文稿资料时,笔者到未来生命研究所网站查了一下,签名人数已达1826人。

AI对社会与人类造成潜在风险】

联署公开信的发布,不免引发了连串舆论。

第一,能够集齐超过一千名重量级人物的签名,想必这份联署信已经准备多时了。也就是说,在OpenAI如火如荼进行训练、改良、升级自家GPT的同时,专家们也开始坐不住了,得做点什么来缓一缓。

第二,既然ChatGPT以及GPT-4都表现亮眼,干嘛要喊停?公开信表示,大量的研究显示,得到顶级AI实验室认可,具有人类竞争智能的AI系统,可能会为社会和人类构成深远的风险。

可不是吗,ChatGPT的发布,让全球的AI实验室几乎失控,为了不落人后,它们疯狂地展开AI竞赛,开发和部署更强大的AI。然而,在疯狂竞争的背后,隐藏了无限危机,因为没人可以理解、预测和控制这些AI,连它们的创造者也不能。

人们的担忧不是空穴来风,欧洲刑警组织(Europol)就曾经警告,ChatGPT等先进AI系统,可能会被滥用于网络钓鱼、传播虚假消息和网络犯罪的企图。尽管在自家品牌汽车的自动系统中使用了AI,Tesla的创始人Elon Musk也直言不讳地表示他对AI的担忧。

【专家警告:AI真的可能消灭人类】

值得一提的是,OpenAI的首席执行员Sam Altman并没有签署这封信。然而,耐人寻味的是,Sam Altman在一个公开访谈中表示,GPT系列为何会出现推理能力,就连Open AI的研究者也搞不明白。他们只知道,在不断的测试中,他们发现从GPT系列开始出现了推理能力。

除了Sam Altman,人工智能教父Geoffrey Hinton、Bill Gates、纽约大学教授Gary Marcus最近都跳出来提醒:“别太大意,AI真的可能会消灭人类。”

【反应两极,网友期待GPT-5面世】

人们对联署公开信的反应两极,支持者会认为高频率训练,导致AI水平每天都在膨胀,因此对AI的恐慌是合理的。另一方面,反对者则认为这不过是莫名其妙的指控,是别有用心的实力在误导不明真相的群众。

尽管业界专家透过联署公开信表明了担忧,但有别于他们的谨慎,一众网友在体验了性能超强的GPT-4以后,已经迫不及待等着GPT-5的面世了。

GPT-5,会否因为这封信而必须紧急刹车,或是很快会再掀起另一波轰动,就让我们拭目以待吧!

 

(资料整理自互联网)

照片来源:

未来生命研究所官网

https://pixabay.com/illustrations/artificial-intelligence-network-web-5866644/