AI狂奔 谁来勒缰?

七天记者 颜宏

IA : Yoshua Bengio avertit les États-Unis – #MonCarnet

蒙特利尔大学教授、魁省人工智能研究所创始人兼科学主任Yoshua Bengio在美国参议院作证

去年12月,人工智能(AI)聊天机器人ChatGPT横空出世,上线仅五天用户就达百万,随后开始指数级增长,到今年1月末的月活用户已突破一亿。新一代语言模型的能力几乎横扫一切产业,给文创、教育、金融、法律、艺术设计、医疗、编程等等各个行业带来可能是根本性的变化,从而引发了很多从业者的恐慌。3月,欧洲刑警组织警告称应警惕犯罪分子利用ChatGPT等人工智能精进犯罪手段。该组织发现犯罪分子可能会利用ChatGPT“大幅加快对未知领域的研究程序”,包括草拟欺诈犯案计划,或是查询“如何闯入民宅、犯下恐怖行动、网络犯罪与儿童性侵案”等的资讯。还能模仿说话风格,引诱使用者点击假的钓鱼邮件或应用,之后再试图窃取其资料等。从发动网络钓鱼攻击、散布不实讯息到安装恶意软体等,ChatGPT之类的聊天机器人能快速发展出帮不法分子敛财的工具。与此同时,包括特斯拉总裁马斯克,英国开源人工智能企业Stability AI创办人Emad Mostaque,蒙特利尔大学教授、图灵奖得主Yoshua Bengio,Alphabet旗下DeepMind研究人员等1000多人联署公开信,呼吁暂停训练比OpenAI GPT-4更强的聊天机器人6个月,直到此类设计的共享安全协议由独立专家制定、审核和实施。5月份,包括三大 AI 巨头的CEO,即 ChatGPT老板、OpenAI的 Sam Altman,DeepMind的 Demis Hassabis 和Anthropic的 Dario Amodei以及AI领域的专家学者约350人发表公开信,对当前正在开发的 AI 技术可能会对人类构成生存威胁表示担忧。这封只有20个字的信只有一句声明:“降低人工智能灭绝的风险,应该与其它社会规模的风险(如大流行病和核战争)一样,成为全球的优先事项。”将AI与可能灭绝人类的风险和核战争、传染病等社会危机相提并论。

风险

今年5月,被称为“人工智能教父”的杰弗里·辛顿(Geoffrey Hinton)从任职十多年的谷歌离职,以便可以畅谈AI可能带来的风险,这位主持开发出当代AI基础系统的专家正式加入了“AI批评者”的行列。

早在1972年,还在读研究生的杰弗里接受了一种名为“神经网络”(neural networks)的概念,这是一个可以通过数据分析来学习技能的系统,此后成为杰弗里学术生涯的重要课题。上世纪80年代,已经成为卡内基梅隆大学计算机科学教授的杰弗里,不愿接受美国国防部资助,于1987年北上受聘于多伦多大学计算机学院教授。2012年,杰弗里和他在多伦多的两名学生创建AlexNet模型,通过分析数百万张照片打造出一款可区分动物、物体图片的AlexNet模型,能识别常见物体,如花、狗、汽车等,在当年的ImageNet大赛上彻底击败了传统的人工智能算法。当年9月,百度表示愿意以3年共计1200万美元的薪酬雇用杰弗里与他的学生们,但杰弗里在犹豫后决定采用拍卖的方式来实现自己的价值。他成立了一家只有他们3个人的公司DNNresearch作为标的,微软、谷歌、百度和DeepMind是参与竞拍的4家公司,每个人都知道竞拍的真正标的其实就是DNNresearch的3位科学家。但杰弗里在谷歌报出4400万美元后主动按下了暂停键,没有给百度继续举牌的机会。事后杰弗里解释说在他眼里谷歌是深度学习AI研究的最合适归宿。值得一提的是,杰弗里的两名学生之一的伊利亚(Ilya Sutskever)后来也离开谷歌,成为OpenAI的首席科学家。

一开始,杰弗里相信“机器理解和生成语言的方式不如人类处理语言的方式”,但在去年,随着谷歌、OpenAI通过使用大量数据构建出系统,他的观点也发生了变化,此前他认为“AI比人类更聪明”这一现象可能出现在30-50年之后,但现在他发现来得太快了,人类根本没有做好准备。他担心利用AI技术,网络上会出现很多虚假的图片、视频和文字,这可能让人分不清真假。其次,他还担心AI将改变整个人类就业市场,可能导致如律师助理、私人助理、翻译等岗位消失。在未来,杰弗里更担心AI会对人类构成威胁,“因为AI可能通过大量的数据和分析,出现一些令人意想不到的行为。”特别是在谷歌、微软等多家科技巨头争先发展AI技术后,会使针对“AI技术发展”的竞争,让AI系统变得越来越危险。

另一位AI领域的重磅专家,蒙特利尔大学计算机科学教授、加拿大AI“黑手党”(指深度学习三巨头Yoshua Bengio、Geoffrey Hinton 和Yann LeCun)中最后一个纯粹的学术主义者Yoshua Bengio 更是多次警告说,一些AI技术已经越来越接近人类的智力水平,比任何人预想的都要快,从而将人类陷入危险之中。他自己很担心那些“有恶意”的人掌握AI,可能是军方,可能是恐怖分子,也可能是精神病患者。总之,如果这些人掌握了AI,让AI执行一些极度危险的事情,那么后果不可预料。如果让AI继续发展,我们可能无法中断进程中的AI。他还承认如果自己能早点认识到AI可能的发展速度,那他可能会倾向于AI的安全性优先,而非实用性优先。

这些科技大佬设想的糟糕局面是有朝一日,公司、政府或独立工作的研究人员能有效利用强大的人工智能系统,处理从商业到战争的所有事情。这些系统能做我们不想让它们做的事情。如果人类试图介入或将它们关掉,它们会抵抗,甚至会自我复制,以便继续运行下去。比如你要求一台机器尽可能多地制造回形针,机器可能会严格地执行命令,将所有的东西——包括人类——变成制造回形针的工厂。这与现实世界(或想象中并不久远的未来世界)有什么关系?由于AI的高效,会被赋予越来越多的自主性,将它们连接到重要基础设施,如电力网络、能源供应、股票市场,甚至军事武器中,可能会引发难以控制的问题。这样的问题在过去似乎还很遥远,而随着ChatGPT为代表的AI技术重大进步,这种可能性不是不可能,AI篡夺目前人类和人类管理机构的决策和思维正在变得越来越现实。

签署了两封公开信的加州大学圣克鲁兹分校宇宙学家、生命未来研究所的创始人安东尼·阿吉雷(Anthony Aguirre)说,“到了某个时候,人们会发现运行社会和经济的大型机器其实并不在人类的控制之下,也无法将它们关掉,就像无法关掉标准普尔500指数一样。”

观点

在很多科研人员,特别是AI领域内的资深研究者为不加管制的AI发展忧心忡忡的同时,也有一部分反对的声音,认为这种忧虑有些大惊小怪。

牛津大学人工智能伦理研究所的卡丽莎·韦丽兹(Carissa Véliz)在3月份呼吁暂停AI研究的公开信上属了名,但觉得5月份的公开信上把AI与疫情、核战争等毁灭人类的灾难并列有些过头了,决定不签署。列为认为,人工智能安全中心后来发布的警告灭绝的声明太过了,尽管她签署了前面的公开信,还是决定不签署后面的。在她看来,与其担心AI会不听人类的指令,甚至毁灭人类,她更担心AI会以极高的速度制造错误或虚假信息。ChatGPT、DALL-E、Bard和AlphaCode等人工智能产出的文本(从散文、诗歌和笑话到计算机代码)和图像(如图表、照片和艺术品),几乎与人类自己的作品一模一样,难以区分。随着2024年美国大选的临近,像推特和其他重要社交平台解雇了他们的AI道德和安全团队,这样不对内容进行控制,可能会造成更大的社会危害。

深度学习三巨头之一的Yann LeCun也认为AI会给人类造成风险的警告同样有些夸大其词,也不切实际,反而会转移已知问题的焦点。在他看来,在我们能设计出达到狗智商(更不用说人类了)的 AI 之前,讨论它的安全性还为时过早。

一直以来,对 AI 持肯定态度的人工智能和机器学习领域学者、斯坦福大学兼职教授吴恩达(Andrew Ng)则称:“当我想到大部分人类生存面临的风险,如流行病、气候变化导致大规模人口减少、(撞击地球的)小行星……AI将是我们寻找解决方案的关键部分。所以,如果你想让人类在接下来的 1000 年里生存和繁荣,那就让 AI 发展得更快,而不是更慢。”

普林斯顿大学计算机系Arvind Narayanan副教授也认为类似科幻片的AI灾难场景并不实际,“目前的AI远远没有足够的能力让这些风险成形,因而人们应该转移对AI危害的注意力”。

反对应该尽早对AI发展进行管控的意见主要有两个方面。一是AI技术确实存在风险,但没有那么大,不能因噎废食。另一种意见认为这些呼吁或建议不过是当前掌握最领先 AI 技术的人,试图控制 AI 接下来的发展走向而已。

紧迫

7月25日,美国参议院隐私、技术和法律司法小组委员会就人工智能的潜在规管法规举行听证会,听取证词的三名专家分别是人工智能初创公司Anthropic首席执行官Dario Amodei,加州大学伯克利分校计算机科学教授Stuart Russell和蒙特利尔大学教授Yoshua Bengio。特别是Yoshua Bengio就AI潜在的滥用行为发出了严厉警告。他在演讲中特别引用了一个科幻电影中常见的场景:一个超能力人工智能收到不惜一切代价确保其生存的指令,为了执行指令,不惜损害人类,并与试图关闭它的人发生冲突。这听起来很像科幻小说,但这是真实、可靠的计算机科学。尤其是目前,任何人都可以通过公众可以访问的预训练模型来训练或使用超强大的人工智能。

Yoshua Bengio在听证会上敦促参议院在计算机达到人脑认知技能水平之前对人工智能进行监管,而时间窗口期可能只有短短的5年。他建议世界各地大幅增加资金投入和研究工作,以提高人类对人工智能当前和未来对公共安全风险的了解。并制定基本法规、安全协议、安全人工智能开发和治理结构。既要让人类从人工智能中获益,也要保护人类自身。

Dario Amodei则在听证会上表示很担心尖端 AI 技术可能在短短两年时间内就会被用来制造危险的病毒和其他生化武器。Stuart Russell则表示当下的 AI 工作方式充满“不可知”性,与其他可控的强大技术相比,当下 AI 缺乏一个“超级管理工具”,因此人们目前无法得知 AI 的实际意图和所有可能做出的行为。

随着ChatGPT为代表的AI技术巨大进步,仅仅在六个月时间里,业界就已经将好莱坞大片中的“超级 AI”可能出现的时间点,从既定的几十年后拨前至“仅仅几年后”,而围绕“超级 AI”可能产生的种种问题也随之而出,引发了普遍的担忧。