探究基础AI模型潜在社会风险,斯坦福成立基础模型研究中心

机器学习的“黑箱”问题愈发引发学界的关注。
北京时间8月25日结束的美国斯坦福大学基础模型研究中心(Center for Research on Foundation Models, 简称CRFM)研讨会上,来自不同学科领域的知名研究者讨论了“基础模型”在种族/宗教歧视,社会不平等和信息安全等多种层面上可能带来的威胁以及需要研究的问题。
近几年,得益于多种AI模型的完善,人工智能开始能够对人类引以为豪的语言能力进行学习和模仿,于是根据描述进行绘画、帮程序员自动补全修改代码等等应用开始成为现实,人工智能渗透入生活的方方面面。
这些强大的人工智能模型包括BERT(Bidirectional Encoder Representations from Transformers,一个预训练的语言表征模型), GPT-3(Generative Pre-Training,生成式预训练),CLIP(Contrastive Language–Image Pre-training,对比语言-图像预训练), DALL-E(命名是艺术家萨尔瓦多·达利Salvador Dalí和皮克斯Pixar机器人WALL·E名称的结合)等。
这些模型往往基于不同的技术模块,但它们现在都有了一个共同的名字——“基础模型”(foundation models)。基础模型对当下社会的影响越来越深远,然而人们对其如何发生作用、产生了哪些结果实际上缺乏清晰了解。
这也造成了所谓的“黑箱”问题:机器学习中会出现无法解释、不够安全可信可靠的情形。基于以上考量,斯坦福大学在8月18日宣布成立基础模型研究中心(下简称CRFM),专职于基础模型的研究。
基础模型研究中心由不同领域的研究者组成(如哲学、社会学、计算机科学等),研究中心主任是知名人工智能研究者、斯坦福大学教授Percy Liang。CRFM隶属于斯坦福“以人为本人工智能研究院”(Human-centered AI Research,HAI),在其官网的主页上,CRFM称他们的使命是“在基础模型的研究、开发和部署上”作出贡献。
据斯坦福大学介绍,作为一个不同领域研究者共同存在的机构,CRFM的研究将不仅仅局限于传统的科学研究,HAI的联席主任John Etchemendy表示“这个新的机构的任务是贯彻‘以人为本’的理念,通过交叉领域的学术研究以促进基础模型在广泛的人类关心的议题上产生影响”。(This new center embodies the spirit of HAI by fostering interdisciplinary scholarship on foundation models with a focus on the range of human-centered issues that these models entail.)
斯坦福大学基础模型研究中心的这些学者们的最新力作是《基础模型的机遇和风险》(On the Opportunities and Risks of Foundation Models)。这是一篇拥有超百名作者,长达两百多页的综述。在这篇论文中,BERT, GPT-3, CLIP, Codex、DALL-E等强大的人工智能模型首次以一个共同的名字——“基础模型”(foundation models)出现。
知名华人人工智能学者李飞飞、Percy Liang等均在论文的作者列表中。论文指出,基础模型的出现虽然带来了机遇,但也带来了风险,提出了基础模型中的现有挑战、跨学科合作的必要性以及为什么行业内应该有严重的紧迫感。“基础模型…是构建 AI 系统的新兴范式,可导致前所未有的同质化水平:单一模型作为众多下游应用的基础,带来广泛的同质化的影响,” Percy Liang在一次采访中说。
论文综述了此类模型的各种能力(如语言、视觉、机器人、推理、人机交互以)及模型对其应用(如法律、医疗保健、教育等方面)的社会影响,如不公平、滥用、影响环境、法律和道德等。论文中表示,“我们目前对基础模型如何工作、何时失败及由于它们的紧急特性而具有的能力缺乏清晰的了解”,“黑盒”特性也使这些强大的模型要想真正被用于造福人类依然有很多亟待解决的问题。
 

骚鸭资讯全部来源于网络,请注意识别,谨防上当受骗。


骚鸭AV,关注天下事(saoyaav.com)