技术领袖再次警告:AI风险与核战争相当

2023-05-31 富美财经 浏览量:

行业专家和技术领袖在一封公开信中表示,人工智能可能导致人类灭绝,减少与之相关的风险应该是全球优先事项。ChatGPT母公司OpenAI的首席执行官Sam Altman,以及谷歌人工智能部门DeepMind和微软的高管都支持并签署了这份公开信声明。公开信中写道,“减轻人工智能带来的灭绝风险应该是一个全球优先事项,与其他影响全社会的风险一样,如大流行病和核战争。”技术领袖再次警告:AI风险与核战争相当去年11月,聊天机器人ChatGPT发布并供公众使用。随后,生成式人工智能在短短几个月内走红。发布后短短两个月,ChatGPT的用户数量就达到了1亿。ChatGPT能够对用户给出的提示产生类似人类的反应,这种能力让研究人员和公众感到惊讶,甚至担心未来人工智能可以模仿和取代人类。ChatGPT引发了更多对人工智能的认识和采用,世界各地的公司都在竞相开发类似的产品和能力。周二的公开信也指出,关于“人工智能带来重要和紧迫风险”的讨论越来越多。公开信中还说,可能“很难对先进人工智能最严重的风险表达担忧”,因此其目的是要克服这一障碍,鼓励开放性的讨论。Altman曾在3月承认,他对人工智能“有点害怕”,因为他担心技术被用于不良目的。其他科技领袖,如特斯拉CEO马斯克和前谷歌首席执行官埃里克·施密特都对人工智能给社会带来的风险提出了警告。上周,施密特就曾警告说,随着技术的发展,人工智能对人类带来“生存风险”。在3月份的一封公开信中,马斯克、苹果公司联合创始人史蒂夫·沃兹尼亚克和一些科技领袖敦促人工智能实验室停止训练比GPT-4更强大的系统,呼吁将这种高级研发暂停六个月。信中说:“当前的人工智能系统在一般任务上变得能与人类竞争……我们是否应该把所有的工作都自动化,包括那些有成就感的工作?我们是否应该开发非人类的大脑,哪怕最终可能会在数量上超过我们,胜过我们的智慧,淘汰和取代我们?我们是否应该冒着失去对控制人类文明的风险?”

为你推荐