双子座有缺陷的人工智能种族形象被视为科技巨头力量的警告

2024-09-18 17:00来源:

在这个引领潮流的科技节上,谷歌(Google)的双子座(Gemini)聊天机器人制作出黑人和亚洲纳粹士兵的照片后爆发的丑闻,被视为对人工智能可以赋予科技巨头力量的一个警告。

上个月,谷歌首席执行官桑达尔·皮查伊猛烈抨击其公司的双子座人工智能应用程序“完全不可接受”的错误,此前出现了种族多样化的纳粹军队图像等失误,迫使该应用程序暂时阻止用户创建人物照片。

社交媒体用户嘲笑和批评谷歌历史上不准确的图片,比如19世纪美国黑人女参议员的图片——当时第一位黑人参议员直到1992年才当选。

谷歌联合创始人谢尔盖·布林(Sergey Brin)在最近的一次人工智能“黑客马拉松”(hackathon)上表示:“我们在图像生成方面肯定搞砸了。”他补充说,谷歌应该对Gemini进行更彻底的测试。

在奥斯汀举行的广受欢迎的西南偏南艺术和科技节上接受采访的人士表示,双子座的遭遇突显出,少数几家公司对人工智能平台拥有巨大的影响力,而人工智能平台正准备改变人们的生活和工作方式。

“从本质上讲,它太‘醒了’,”律师兼科技企业家约书亚·韦弗(Joshua Weaver)说。他的意思是,谷歌在展现包容性和多样性方面做得太过火了。

德克萨斯州Valkyrie应用科学实验室的首席执行官查理·伯戈因(Charlie Burgoyne)说,谷歌很快纠正了错误,但根本问题依然存在。

他把谷歌对Gemini的修复等同于在枪伤上贴了创可贴。

韦弗指出,虽然谷歌长期以来一直有充裕的时间来完善自己的产品,但它现在正与微软、OpenAI、Anthropic等公司展开人工智能竞赛,并补充说:“它们的发展速度比自己知道如何发展的速度要快。”

为了文化敏感性而犯的错误是引爆点,尤其是考虑到美国紧张的政治分歧,埃隆·马斯克(Elon Musk)的X平台(前身为Twitter)加剧了这种情况。

“推特上的人们非常高兴地庆祝科技领域发生的任何令人尴尬的事情,”韦弗说,并补充说,对纳粹失言的反应“被夸大了”。

然而,他坚持认为,这起事故确实引发了人们对使用人工智能工具的人对信息的控制程度的质疑。

韦弗说,在未来十年,人工智能创造的信息或错误信息的数量可能会使人类产生的信息数量相形见绌,这意味着那些控制人工智能安全措施的人将对世界产生巨大影响。

互动电影有限公司(Interactive Films Ltd.)获奖的混合现实(mix -reality)创作者凯伦·帕尔默(Karen Palmer)说,她可以想象未来有人坐进一辆机器人出租车,“如果人工智能扫描你,认为你有任何明显的违规行为……你会被带到当地警察局,而不是你的目的地。

人工智能在海量数据的基础上进行训练,可以用于越来越多的任务,从图像或音频生成到决定谁可以获得贷款,或者医疗扫描是否可以检测到癌症。

但这些数据来自一个充斥着文化偏见、虚假信息和社会不平等的世界——更不用说在线内容可能包括朋友之间的随意聊天或故意夸大和挑衅的帖子——而人工智能模型可能会回应这些缺陷。

对于Gemini,谷歌的工程师们试图重新平衡算法,以提供更好地反映人类多样性的结果。

这一努力适得其反。

为科技公司服务的Promise Legal律师事务所的管理合伙人、科技律师亚历克斯·沙赫雷斯塔尼(Alex Shahrestani)说:“要弄清楚偏见在哪里,以及它是如何被包括在内的,真的很棘手、很微妙、很微妙。”

他和其他人相信,即使是参与人工智能训练的善意工程师,也会情不自禁地将自己的生活经验和潜意识的偏见带到这个过程中。

Valkyrie的Burgoyne还谴责了大型科技公司将生成式人工智能的内部工作隐藏在“黑盒子”中,因此用户无法发现任何隐藏的偏见。

他说:“产出的能力远远超出了我们对方法的理解。”

专家和活动人士呼吁,创造人工智能及相关工具的团队应更加多样化,并提高其工作方式的透明度——尤其是在算法改写用户请求以“改善”结果的情况下。

土著未来资源中心(Indigenous Futures Resource Center)及相关团体的杰森·刘易斯(Jason Lewis)在这里表示,一个挑战是如何恰当地建立世界上许多不同社区的视角。

在Indigenous AI, Jason与遥远的土著社区合作,设计算法,以合乎道德的方式使用他们的数据,同时反映他们对世界的看法,这是他在大型科技领导者的“傲慢”中并不总是看到的。

他对一群人说,他自己的工作“与硅谷的说辞形成了鲜明对比,硅谷的说辞是自上而下的‘哦,我们这么做是因为我们要造福全人类’,对吧?”

他的听众笑了。

juj-gc / bbk

叶儿吧资讯声明:未经许可,不得转载。