上千名科技专家呼吁,暂停大型AI研究

2023-03-29 梅斯医学整理 梅斯医学整理

霍金曾警告,人工智能比第三次世界大战要可怕。

当全世界都在为AI的进化而欢呼雀跃时,3月22日,据生命未来研究所官网报道,生命未来研究所(Future of Life)向全社会发布了一封《暂停大型人工智能研究》的公开信,呼吁所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练,暂停时间至少为6个月。信中写道,“只有在我们确信它们的效果是积极的,风险是可控的情况下,才应该开发强大的人工智能系统。”

此前,马斯克曾多次表达对人工智能的担忧,认为人工智能是未来人类文明最大的风险之一,威胁程度远高于车祸、飞机失事、毒品泛滥等甚至比核武器都危险得多。另外,OpenAI CEO奥特曼在与MIT研究科学家Lex Fridman的最新对话中指出,AI已经出现其无法解释的推理能力,同时承认“AI杀死人类”有一定可能性。

根据澎湃新闻报道,生命未来研究所(Future of Life)的这封公开信已有1079人签署。这封公开信内容具体写到,广泛的研究表明,具有与人类竞争智能的人工智能系统可能对社会和人类构成深远的风险,这一观点得到了顶级人工智能实验室的承认。正如广泛认可的“阿西洛马人工智能原则(Asilomar AI Principles,阿西莫夫的机器人三大法则的扩展版本,于2017年由近千名人工智能和机器人专家签署)中所述,高级AI可能代表地球生命史上的深刻变化,应该以相应的关照和资源进行规划和管理。不幸的是,这种级别的规划和管理并没有发生,尽管最近几个月人工智能实验室陷入了一场失控的竞赛,以开发和部署更强大的数字思维,没有人——甚至他们的创造者——能理解、预测或可靠地控制。

这封信呼吁,所有人工智能实验室立即暂停训练比GPT-4更强大的人工智能系统至少6个月。这种暂停应该是公开的和可验证的,并且包括所有关键参与者。如果不能迅速实施这种暂停,政府应介入并实行暂停。人工智能实验室和独立专家应该利用这次暂停,共同开发和实施一套用于高级人工智能设计和开发的共享安全协议,并由独立的外部专家进行严格审计和监督。这些协议应确保遵守它们的系统是安全的,并且无可置疑。这并不意味着总体上暂停AI开发,只是紧急从奔向不可预测的大型黑盒模型的危险竞赛中收回脚步。

与此同时,信中指出,AI开发人员必须与政策制定者合作,以显著加快开发强大的AI治理系统。至少应包括:建立专门负责AI的有能力的新监管机构;监督和跟踪高性能人工智能系统和大量计算能力;推出标明来源系统和水印系统,以帮助区分真实与合成,并跟踪模型泄漏;强大的审计和认证生态系统;界定人工智能造成的伤害的责任;为人工智能技术安全研究提供强大的公共资金;以资源充足的机构来应对人工智能将造成的巨大经济和政治破坏(尤其是对民主的破坏)。

最后这封公开信强调,“人类可以享受人工智能带来的繁荣未来。成功创建强大的AI系统后,我们现在可以享受‘AI之夏’,收获回报,设计这些系统以造福所有人,并为社会提供适应的机会。社会已经暂停其他可能对社会造成灾难性影响的技术。 我们可以在这个领域也这样做。让我们享受一个漫长的AI之夏,而不是毫无准备地陷入秋天。”

马云曾公开表示,ChatGPT这一技术只是AI时代的开始,我们要用人工智能去解决问题,而不是被人工智能所控制,虽然人的体力,脑力比不过机器,但机器只有“芯”,而人有“心”,工业时代是知识驱动,知识的竞争;数字时代,是智慧驱动,是创造力和想象力的竞争,是领导力,担当力、责任的晶振,是独立思考的竞争。

对此,有专家评论,真正发挥ChatGPT这类人工智能工具的威力,取决于对业务的深刻理解和技术积累,然后借助ChatGPT这种工具,可以一当十,一当百的提高生产效率,并能快速扩张业务边界。3月27日,高盛分析师发布研究报告表示,最近出现的生成式人工智能将降低劳动力成本和提高生产率。尽管AI的潜力存在很大的不确定性,但它可以生成与人类创造成果无法区分的内容,并能打破人机沟通障碍,反映出具有潜在巨大宏观经济影响的重大进步。AI不仅节省劳动力成本,还能创造新的就业机会以及提高在岗工人的生产率。AI的革命性就像早期通用技术(如发电机和个人计算机)一样能为社会带来繁荣。

同时,研究报告也指出,在很多人为AI提升工作效率感到振奋的同时,也有声音担忧人工智能成为犯罪的工具。欧洲刑警组织警告说,生成式AI的快速发展可能会使其成为“未来的主要犯罪商业模式”。例如,AI被用来创建极具欺骗性的“深度造假内容”,比如制造出未发生事件的虚假图像或视频。同时,聊天机器人也可能欺骗毫无戒心的人泄露个人信息。



版权声明:
本网站所有注明“来源:梅斯医学”或“来源:MedSci原创”的文字、图片和音视频资料,版权均属于梅斯医学所有。非经授权,任何媒体、网站或个人不得转载,授权转载时须注明“来源:梅斯医学”。其它来源的文章系转载文章,本网所有转载文章系出于传递更多信息之目的,转载内容不代表本站立场。不希望被转载的媒体或个人可与我们联系,我们将立即进行删除处理。
在此留言
评论区 (1)
#插入话题
  1. 2023-03-29 侠胆医心

    #GPT-5#,GPT-6,GPT-7可能会驱动现在普通机器人干出坏事的!目前的#人工智能#分为两类,一是硬件为主导的,如#波士顿机器人#,二是软件为主导的,如#chatGPT#,二者是分开的,相对危险性不大。如果下一步将二者打通的话,可能就面临威胁了。如果波士顿机器人一旦拥有自主意识,自主判断,以及自我决策的话,而且当它拥有武器,那可能是较为可怕的事情。因为人工智能进化的速度是惊人的。 目前人工智能能够自我制造#机器人#,即相当于自我复制的第一步。如果下一步自己会设计新型机器人,会写新型的算法,就可能会产生更为强大的,人类难以控制的机器人,这就是真正的#硅基生命#,而且相当危险。 科技向前发展,是不可能逆转的!现在明显是科技是近百年来,又遇到新的临界点。 上一个临界点是二十世纪初,相对论,#量子力学#的出现,改变了人类100年。而如今现在又到了二十一世纪的#奇点#时刻,我们有幸见到科技飞跃的时代。

    0

相关资讯

有关人工智能的未来的调研

有关人工智能的未来的调研

European Radiology:乳腺癌DBT的人工智能筛查

现阶段,使用人工智能(AI)解释钼靶检查已显示出良好的效果,无论是作为阅读放射科医生的决策支持工具还是作为独立的阅读者来说都是如此。

这几天人工智能全面飞起来,惊呆一众!

“AI 的 「iPhone 时刻」已经到来”,在英伟达 GTC 2023 大会上,英伟达 CEO 黄仁勋把这个观点反复说了 3 遍。

AADOCR&CADR 2023:人工智能模型可通过口腔感染指标可预测心血管疾病

本研究表明,人工智能可以更好地预测心血管疾病。未来,随着人工智能的发展,临床上疾病风险预测将有很大的提升。

arXiv:80%的工作会受到GPT-4的影响,20%可能会被完全取代

这篇在arXiv网站预发布的论文得出结论认为,80%的美国劳动力至少有10%的任务会受到类似于GPT-4这样的大语言模型影响,此外有大约19%的美国员工被AI取代的可能性较高,意味着其至少50%的日常

Yann LeCun提出自动机器智能,有望超越GPT-4

最近,图灵奖得主 Yann LeCun 给一场辩论做了个特别的开场。LeCun认为,「从现在起 5 年内,没有哪个头脑正常的人会使用自回归模型。」。而他口中的自回归,正是当前爆红的 GPT 家族模型所