AI狂奔 谁来勒缰?
七天记者 颜宏 蒙特利尔大学教授、魁省人工智能研究所创始人兼科学主任Yoshua Bengio在美国参议院作证 去年12月,人工智能(AI)聊天机器人ChatGPT横空出世,上线仅五天用户就达百万,随后开始指数级增长,到今年1月末的月活用户已突破一亿。新一代语言模型的能力几乎横扫一切产业,给文创、教育、金融、法律、艺术设计、医疗、编程等等各个行业带来可能是根本性的变化,从而引发了很多从业者的恐慌。3月,欧洲刑警组织警告称应警惕犯罪分子利用ChatGPT等人工智能精进犯罪手段。该组织发现犯罪分子可能会利用ChatGPT“大幅加快对未知领域的研究程序”,包括草拟欺诈犯案计划,或是查询“如何闯入民宅、犯下恐怖行动、网络犯罪与儿童性侵案”等的资讯。还能模仿说话风格,引诱使用者点击假的钓鱼邮件或应用,之后再试图窃取其资料等。从发动网络钓鱼攻击、散布不实讯息到安装恶意软体等,ChatGPT之类的聊天机器人能快速发展出帮不法分子敛财的工具。与此同时,包括特斯拉总裁马斯克,英国开源人工智能企业Stability AI创办人Emad Mostaque,蒙特利尔大学教授、图灵奖得主Yoshua Bengio,Alphabet旗下DeepMind研究人员等1000多人联署公开信,呼吁暂停训练比OpenAI GPT-4更强的聊天机器人6个月,直到此类设计的共享安全协议由独立专家制定、审核和实施。5月份,包括三大 AI 巨头的CEO,即 ChatGPT老板、OpenAI的 Sam Altman,DeepMind的 Demis Hassabis 和Anthropic的 Dario Amodei以及AI领域的专家学者约350人发表公开信,对当前正在开发的 AI 技术可能会对人类构成生存威胁表示担忧。这封只有20个字的信只有一句声明:“降低人工智能灭绝的风险,应该与其它社会规模的风险(如大流行病和核战争)一样,成为全球的优先事项。”将AI与可能灭绝人类的风险和核战争、传染病等社会危机相提并论。 风险 今年5月,被称为“人工智能教父”的杰弗里·辛顿(Geoffrey Hinton)从任职十多年的谷歌离职,以便可以畅谈AI可能带来的风险,这位主持开发出当代AI基础系统的专家正式加入了“AI批评者”的行列。 早在1972年,还在读研究生的杰弗里接受了一种名为“神经网络”(neural networks)的概念,这是一个可以通过数据分析来学习技能的系统,此后成为杰弗里学术生涯的重要课题。上世纪80年代,已经成为卡内基梅隆大学计算机科学教授的杰弗里,不愿接受美国国防部资助,于1987年北上受聘于多伦多大学计算机学院教授。2012年,杰弗里和他在多伦多的两名学生创建AlexNet模型,通过分析数百万张照片打造出一款可区分动物、物体图片的AlexNet模型,能识别常见物体,如花、狗、汽车等,在当年的ImageNet大赛上彻底击败了传统的人工智能算法。当年9月,百度表示愿意以3年共计1200万美元的薪酬雇用杰弗里与他的学生们,但杰弗里在犹豫后决定采用拍卖的方式来实现自己的价值。他成立了一家只有他们3个人的公司DNNresearch作为标的,微软、谷歌、百度和DeepMind是参与竞拍的4家公司,每个人都知道竞拍的真正标的其实就是DNNresearch的3位科学家。但杰弗里在谷歌报出4400万美元后主动按下了暂停键,没有给百度继续举牌的机会。事后杰弗里解释说在他眼里谷歌是深度学习AI研究的最合适归宿。值得一提的是,杰弗里的两名学生之一的伊利亚(Ilya Sutskever)后来也离开谷歌,成为OpenAI的首席科学家。 一开始,杰弗里相信“机器理解和生成语言的方式不如人类处理语言的方式”,但在去年,随着谷歌、OpenAI通过使用大量数据构建出系统,他的观点也发生了变化,此前他认为“AI比人类更聪明”这一现象可能出现在30-50年之后,但现在他发现来得太快了,人类根本没有做好准备。他担心利用AI技术,网络上会出现很多虚假的图片、视频和文字,这可能让人分不清真假。其次,他还担心AI将改变整个人类就业市场,可能导致如律师助理、私人助理、翻译等岗位消失。在未来,杰弗里更担心AI会对人类构成威胁,“因为AI可能通过大量的数据和分析,出现一些令人意想不到的行为。”特别是在谷歌、微软等多家科技巨头争先发展AI技术后,会使针对“AI技术发展”的竞争,让AI系统变得越来越危险。 另一位AI领域的重磅专家,蒙特利尔大学计算机科学教授、加拿大AI“黑手党”(指深度学习三巨头Yoshua Bengio、Geoffrey Hinton 和Yann LeCun)中最后一个纯粹的学术主义者Yoshua Bengio 更是多次警告说,一些AI技术已经越来越接近人类的智力水平,比任何人预想的都要快,从而将人类陷入危险之中。他自己很担心那些“有恶意”的人掌握AI,可能是军方,可能是恐怖分子,也可能是精神病患者。总之,如果这些人掌握了AI,让AI执行一些极度危险的事情,那么后果不可预料。如果让AI继续发展,我们可能无法中断进程中的AI。他还承认如果自己能早点认识到AI可能的发展速度,那他可能会倾向于AI的安全性优先,而非实用性优先。 这些科技大佬设想的糟糕局面是有朝一日,公司、政府或独立工作的研究人员能有效利用强大的人工智能系统,处理从商业到战争的所有事情。这些系统能做我们不想让它们做的事情。如果人类试图介入或将它们关掉,它们会抵抗,甚至会自我复制,以便继续运行下去。比如你要求一台机器尽可能多地制造回形针,机器可能会严格地执行命令,将所有的东西——包括人类——变成制造回形针的工厂。这与现实世界(或想象中并不久远的未来世界)有什么关系?由于AI的高效,会被赋予越来越多的自主性,将它们连接到重要基础设施,如电力网络、能源供应、股票市场,甚至军事武器中,可能会引发难以控制的问题。这样的问题在过去似乎还很遥远,而随着ChatGPT为代表的AI技术重大进步,这种可能性不是不可能,AI篡夺目前人类和人类管理机构的决策和思维正在变得越来越现实。 签署了两封公开信的加州大学圣克鲁兹分校宇宙学家、生命未来研究所的创始人安东尼·阿吉雷(Anthony Aguirre)说,“到了某个时候,人们会发现运行社会和经济的大型机器其实并不在人类的控制之下,也无法将它们关掉,就像无法关掉标准普尔500指数一样。” 观点 在很多科研人员,特别是AI领域内的资深研究者为不加管制的AI发展忧心忡忡的同时,也有一部分反对的声音,认为这种忧虑有些大惊小怪。 牛津大学人工智能伦理研究所的卡丽莎·韦丽兹(Carissa Véliz)在3月份呼吁暂停AI研究的公开信上属了名,但觉得5月份的公开信上把AI与疫情、核战争等毁灭人类的灾难并列有些过头了,决定不签署。列为认为,人工智能安全中心后来发布的警告灭绝的声明太过了,尽管她签署了前面的公开信,还是决定不签署后面的。在她看来,与其担心AI会不听人类的指令,甚至毁灭人类,她更担心AI会以极高的速度制造错误或虚假信息。ChatGPT、DALL-E、Bard和AlphaCode等人工智能产出的文本(从散文、诗歌和笑话到计算机代码)和图像(如图表、照片和艺术品),几乎与人类自己的作品一模一样,难以区分。随着2024年美国大选的临近,像推特和其他重要社交平台解雇了他们的AI道德和安全团队,这样不对内容进行控制,可能会造成更大的社会危害。 深度学习三巨头之一的Yann LeCun也认为AI会给人类造成风险的警告同样有些夸大其词,也不切实际,反而会转移已知问题的焦点。在他看来,在我们能设计出达到狗智商(更不用说人类了)的 AI 之前,讨论它的安全性还为时过早。 一直以来,对 AI 持肯定态度的人工智能和机器学习领域学者、斯坦福大学兼职教授吴恩达(Andrew Ng)则称:“当我想到大部分人类生存面临的风险,如流行病、气候变化导致大规模人口减少、(撞击地球的)小行星……AI将是我们寻找解决方案的关键部分。所以,如果你想让人类在接下来的 1000 年里生存和繁荣,那就让 AI 发展得更快,而不是更慢。” 普林斯顿大学计算机系Arvind … Read more