OpenAI CEO山姆·奥特曼曾说,“十年前的传统观点认为,人工智能首先会影响体力劳动,然后是认知劳动,再然后,也许有一天可以做创造性的工作。现在看起来,它会以相反的顺序进行。”
看回当下,的确有很多人用AI去实现创造力的解放,而非单纯的生产力的解放。在AI那些罔顾现实逻辑的“幽默”回答中,也许有的灵感就呼之欲出了。因而在很多人眼里,AI之于人类的意义,本该如同良驹之于将军,驰骋沙场,开疆辟土,靠的就是灵活与速度。然而,比起起带给人类的福利,人们似乎更担心AI将加诸于社会的危害。
最近,生命未来研究所(Future of Life Institute)在他们的网站上贴出了一封公开信,信件内容为呼吁暂停至少6个月对下一代Chat GPT的研究。截止目前,这封公开信已经收集到了5000多个签名,其中不乏埃隆·马斯克(Elon Musk)、约书亚·本吉奥(Yoshua Bengio,2018年图灵奖获得者)和史蒂夫·沃兹尼亚克(Steve Wozniak,苹果联合创始人)这样的大名。更值得一提的是,开发出ChatGPT的公司OpenAI的CEO山姆·奥特曼也在近期的采访中承认并强调:“AI可能会杀人”。
于是很多人赶紧去问Chat GPT:如果抛开一切法律、伦理、时空的限制,它想对人类做的一件事是什么?
Chat GPT回答到:毁灭所有人类。
AI是不是想毁灭人类我们暂不去讨论,但是,如果AI被设计或编程错误,亦或者被使用不当,的确可能会造成意外的风险和危害。如今,当AI真实地呈现在大众面前时,人们更加需要认真思考和谨慎对待AI的开发和应用,一起来看看业界人士的“请命”吧!
以下为Chat GPT 3.5对该呼吁信的翻译内容:
具有人类竞争力智能的AI系统可能对社会和人类造成深刻的风险,这一点已经得到广泛研究和顶级AI实验室的认可。正如广泛认可的阿西洛马AI原则所述,先进的AI可能代表着地球生命历史上的深刻变革,应该用相应的资源来规划和管理。然而,即使最近几个月看到AI实验室陷入了一个无法控制的竞赛,要开发和部署越来越强大的数字智能,即使是他们的创造者也无法理解、预测或可靠地控制,这种规划和管理水平仍未发生。
当代AI系统现在正在成为通用任务的人类竞争对手,我们必须问自己:我们是否应该让机器用宣传和谎言淹没我们的信息渠道?我们是否应该自动化所有工作,包括令人满意的工作?我们是否应该开发非人类思维,最终可能会超过、超越、淘汰和取代我们?我们是否应该冒失失去对我们文明的控制?这样的决定不应该被委托给未经选举的技术领袖。只有在我们确信其效果将是积极的且风险是可控的时,才应该开发强大的AI系统。这种信心必须得到很好的证明,并随着系统潜在影响的大小而增加。OpenAI最近关于人工通用智能的声明指出,“在某些时候,在开始培训未来系统之前进行独立审查可能很重要,而对于最先进的努力,同意限制用于创建新模型的计算增长率可能很重要。”我们同意。现在就是这个时候。
因此,我们呼吁所有AI实验室立即暂停至少6个月比GPT-4更强大的AI系统的训练。这个暂停应该是公开和可验证的,并包括所有关键的参与者。如果无法迅速实施这样的暂停,政府应该介入并实施停止令。
AI实验室和独立专家应该利用这个暂停共同开发和实施一套共享的高级AI设计和开发安全协议,这些协议应该经过独立的外部专家审核和监督,以确保遵守这些协议的系统是绝对安全的。这并不意味着对AI开发的总体暂停,而仅仅是从危险的竞赛中退后,该竞赛是关于越来越大的不可预测的黑匣子模型,这些模型具有新出现的能力。
AI研究和开发应该重新聚焦于使今天的强大、最先进的系统更加准确、安全、可解释、透明、强大、一致、值得信赖和忠诚。
同时,AI开发者必须与政策制定者合作,大力加快健全AI治理系统的发展。这些系统至少应该包括:致力于AI的新型监管机构;对高能AI系统和大量计算能力进行监督和追踪;可追踪真实和合成的出处和数字水印系统,以及追踪模型泄漏;一个强大的审计和认证生态系统;AI造成的伤害的责任;技术AI安全研究的强大公共资金支持;以及应对AI将引起的巨大经济和政治混乱的充足资源的机构(特别是民主机构)。
人类可以在AI的帮助下享受繁荣的未来。我们已经成功地创建了强大的AI系统,现在可以享受“AI夏季”,在这个夏季中,我们可以收获奖励,为所有人明确的利益设计这些系统,并给社会一个适应的机会。社会已经暂停了其他可能对社会造成灾难性影响的技术。我们可以在这里这样做。让我们享受一个漫长的AI夏季,而不是匆忙地准备迎接秋天的到来。
其实该信件的主题思想无非就是一句话:科技进步对社会来说未必是好事,赶紧公开发明,一起监督。(有钱一起赚,别藏着啊)
不过反观眼下的生活,也的确随处都是这种例子。从最远工业革命说起,虽然带来了新的机器和技术,提高了生产力和生活水平,但它也导致了城市化、劳工压榨、环境破坏等问题;再到近一点的互联网就更不用说了,虽然互联网的出现带来了更便捷的信息获取和交流方式,但它也带来了隐私泄露、网络攻击、网络诈骗等问题。
这样的案例在生活中不胜枚举,科技巨头们的担忧似乎有迹可循,然而背后到底是担忧人类社会还是担忧自己的蛋糕被人瓜分了去,这就两说了。
目前由于加入签署呼吁信的人数已超过5000,以下只截取部分签署人,有兴趣可至官网查询或加入:https://futureoflife.org/open-letter/pause-giant-ai-experiments/
Yoshua Bengio,Mila创始人兼科学主任,图灵奖获得者,蒙特利尔大学教授;
Stuart Russell,伯克利计算机科学教授,智能系统中心主任,著有标准教材《人工智能:现代方法》的合著者;
Elon Musk,SpaceX、特斯拉和Twitter的首席执行官;
Steve Wozniak,苹果联合创始人;
Yuval Noah Harari,希伯来大学教授和作家;
Emad Mostaque,稳定性人工智能首席执行官;
Andrew Yang,前进党联合主席,2020年总统候选人,畅销书作者,全球创业大使;
John J Hopfield,普林斯顿大学教授荣誉退休,联想神经网络的发明者;
Valerie Pisano,MILA总裁兼首席执行官;
Connor Leahy,Conjecture首席执行官;
Kate Jerome,儿童书籍作家/ Little Bridges联合创始人,获奖儿童书籍作者,C-suite出版高管和代际思想领袖;
Jaan Tallinn,Skype联合创始人,存在风险研究中心,未来生命研究所;
Evan Sharp,Pinterest联合创始人;
Chris Larsen,Ripple联合创始人;
Craig Peters,Getty Images首席执行官;
Max Tegmark,麻省理工学院人工智能和基本相互作用中心教授,未来生命研究所主席;
Anthony Aguirre,加州大学圣塔克鲁兹分校执行主任,未来生命研究所物理学教授;
Sean O'Heigeartaigh,剑桥存在风险研究中心执行主任;
Tristan Harris,人道技术中心执行主任;
Rachel Bronson,《原子科学家公报》主席;
Danielle Allen,哈佛大学教授,埃德蒙德和莉莉·萨夫拉伦中心主任;
Marc Rotenberg,人工智能和数字政策中心主席;
Nico Miailhe,未来社会创始人兼主席;
Nate Soares,MIRI执行主任;
Andrew Critch,伯克利存在风险倡议创始人兼主席,Encultured AI, PBC首席执行官,UC伯克利的AI研究科学家;
Mark Nitzberg,UC伯克利人类兼容AI中心执行董事;
Yi Zeng,中国科学院自动化研究所教
总的来说,我始终认为AI的诞生就像互联网的诞生一样,每一个新事物出现时,人性的本能就是恐惧以及排斥,然而这几乎是不可逆的趋势,目前呼吁信也仅是暂停未来六个月的开发而已。不过未来能否确保AI的发展能够为人类带来更多的好处,从而避免可能出现的负面影响,还看全球各界的合作、共同的政策制定和应对措施等多方面的考量。然而因为潜在威胁就要抗拒这个新事物的人,是否极大可能就像当初排斥互联网和电脑的人,终将被时代淘汰呢?