“人工智能已经成为一种多功能工具。美国及其盟友需要做更多的工作来建立规范,确保人工智能的使用不会损害人权”。

DALL-E 2,一个图像生成的人工智能(Al)以对哥斯拉吃东京的惊人描绘和宇航员在太空中骑马的逼真图像吸引了公众的注意力。该模型是文本到图像算法的最新迭代,是一种可以根据文本描述生成图像的Al模型,DALL-E 2背后的公司OpenAI使用语言模型GPT-3和计算机视觉模型CLIP。尽管DALL-E 2取得了令人印象深刻的成就,但该模型在如何描绘人以及如何从其训练的数据中获得偏见方面存在着重大问题。

DALLE 2存在的问题

早期经常有警告说,DALL-E 2将产生种族主义和性别歧视的图像。OpenAI的“红队”是一组负责测试模型安全性和完整性的专家团队,他们发现DALL-E 2的设计中反复出现了偏差。红队的早期测试表明,该模型不成比例地生成了男性形象、过度性感的女性形象,并扮演了种族刻板印象。当给出“空乘”或“助理”等词汇时,模特只会给出女性的形象,而给出“CEO”和“建筑工人”等词汇时,模特会给出男性的形象。因此,一半的红队研究人员主张向公众发布DALL-E 2,但不具备创建人脸的功能。

歧视性Al模型的问题在DALL-E 2的开发之前就存在了。研究人员在用于形成DALL-E 2的模型中发现了隐性偏见和刻板印象问题,并且CLIP和GPT-3都产生了不敏感的文本和图像。DALL-E 2、GPT-3和CLIP等模型构建有害刻板印象,其中一个主要原因是用于训练这些大型模型的数据集本质上是有偏见的,因为它们是建立在从反映社会或历史不平等的人类决策中收集的数据之上的。

人工智能和伦理问题

来自私营企业和政府的社会组织机构公布了加剧美国现有社会和系统问题的模型。例如,COMPAS是美国刑事司法系统中使用的一种机器学习算法,它被训练来预测被告成为惯犯的可能性。COMPAS将黑人被告错误地归类为高风险的再犯者,其比率几乎是白人被告的两倍。AI工具的使用充满了无意伤害的风险,但一些国家现在正在将AI武器化,以基于历史偏见针对或排除某些人,或加强镇压运动。

建立国际规范

像OpenAI这样的初创公司正在通过预处理数据集以消除有害数据,在减少AI偏见的技术方面发挥领导作用,大型的科技公司已经公布了AI开发和应用的道德准则。然而,私营部门的自我克制是不够的,美国政府需要一个关于如何监管算法偏见的广泛倡议,同时需要与国际盟友合作,为发展负责任的AI建立规范。

目前,国家人工智能研究资源工作组、欧洲人工智能联盟、经济合作与发展组织都提出了合理使用人工智能、规范人工智能伦理等相关议题。美国也加入了七国集团的人工智能倡议,旨在对抗中国。

AI的研究和开发主要在欧洲、中国和美国,这意味着未来使用的许多AI应用将反映少数大国的文化偏见。包括澳大利亚、印度、日本和美国在内的“四方安全对话”( Quadrilateral Security Dialogue)等现有组织应在AI发展方面进一步合作。毫无疑问,研究人员可以通过其他方式减少人工智能的偏见,但国际社会层面需要建立旨在减少人工智能偏见的组织和规范,同时鼓励更多国家的人工智能研究将大大有助于消除人工智能领域遇到的一些问题。

原文链接:

https://www.cfr.org/blog/importance-international-norms-artificial-intelligence-ethics

Last modified: 2022年 8月 29日
Close