OpenAI研究人员在Sam Altman下台前曾警告董事会:“一项AI新突破或威胁人类”

 邮箱网  0条评论  722次浏览  2023年11月23日 星期四 09:52

分享到: 更多
11月23日消息,据路透社报道,知情人士表示,在OpenAI首席执行官Sam Altman此前被解雇的四天之前,几名研究人员向董事会发出了一封信,警告称一项强大的人工智能发现可能威胁到人类。这封此前未被报道的信件和人工智能算法是董事会罢免Sam Altman之前的一个关键进展,因为在此信发出的一天后,董事会解雇了Altman,这封信是导致Sam Altman被解雇的董事会诸多不满之一。

消息人士透露,长期担任该公司高管的Mira Murati周三向员工提到了这个名为Q*的项目,并表示在本周末的活动之前,已经向董事会发了一封信。OpenAI在Q*(发音为Q- star)上取得了进展,一些内部人士认为,这可能是OpenAI在超级智能(也被称为人工通用智能(AGI))领域的突破。OpenAI将AGI定义为比人类更聪明的人工智能系统。鉴于庞大的计算资源,新模型能够解决某些数学问题。虽然Q*的数学成绩只是小学生的水平,但在这样的测试中取得优异成绩让研究人员对它未来的成功非常乐观。研究人员在给董事会的信中指出了人工智能的能力和潜在危险,但没有具体说明信中提到的具体安全问题。一天后,董事会解雇了Altman。

研究人员认为数学是生成式人工智能发展的前沿。目前,生成式人工智能擅长通过统计预测下一个单词来进行写作和语言翻译,而同一问题的答案可能会有很大差异。但征服数学能力意味着人工智能将拥有类似于人类智能的更强推理能力。与只能解决有限数量运算的计算器不同,AGI可以概括、学习和理解。在此背景下,Altman努力使ChatGPT成为历史上增长最快的软件应用程序之一,并从微软吸引了必要的投资和计算资源,以更接近超级智能(AGI)。

标签:OpenAISamAltman

我的评论:

请  后发表评论。