人们更喜欢被人工智能“统治”而不是人类:研究

CN
Decrypt
关注
9个月前

一项新研究揭示了人与机器之争中的一个意外转折:人们更喜欢人工智能做出的裁决,至少在涉及金钱问题时是如此。但在把我们的财务交给机器之前,一些严重的红旗正在飘扬。

玛丽娜·楚古诺娃(Marina Chugunova)和沃尔夫冈·J·卢汉(Wolfgang J. Luhan)的研究,于周二宣布,题为“Ruled by Robots”。科学家们发现,超过60%的参与者更喜欢人工智能决策者重新分配收入。为什么?这不是为了避免人类偏见,人们只是认为机器公平。

“实验创造了一个选择,要么选择一个公平的算法—基于数百人持有的公平原则—要么选择一个被要求做出公平决定的人类[决策者],”研究称。“在没有关于群体成员身份的信息的情况下,63.25%的选择中更倾向于算法。”

即使引入了偏见的可能性,这种偏好也保持稳定。

但问题在于:尽管人们喜欢人工智能来做决定,他们更喜欢人类做出的决定。

“人们对算法决策的满意度较低,他们认为这些决定比人类决定更不公平,”研究称。

这项研究的设置很巧妙。参与者在分配来自运气、努力和基于才能的任务的收入时,可以选择人类或人工智能决策者。即使每个群体的成员都被揭示出来,可能打开歧视之门,人们仍然更倾向于选择人工智能。

“许多公司已经在招聘决策和薪酬规划中使用人工智能,公共机构也在警务和假释策略中使用人工智能,”卢汉在一份新闻稿中说。“我们的发现表明,随着算法一致性的改进,公众可能会越来越支持算法决策者,即使在道德上重要的领域。”

这不仅仅是学术的奇想。随着人工智能渗透到生活的更多领域—从人力资源约会—我们如何看待其公平性可能决定公众对以人工智能为驱动的政策的支持与否。

然而,人工智能在公平性方面的记录相当不尽人意。

最近的调查和研究揭示了人工智能系统中存在的偏见问题。早在2022年,英国信息专员办公室展开了一项关于人工智能驱动的歧视案件的调查,并研究人员证明最受欢迎的LLM具有明显的政治偏见。埃隆·马斯克的x.AI的Grok被特别指示避免给出“觉醒”的答案

更糟糕的是,牛津大学、斯坦福大学和芝加哥大学的研究人员进行的一项研究发现,人工智能模型更有可能建议对说非裔美国英语的被告执行死刑。

求职申请人工智能?研究人员发现人工智能模型排斥听起来像黑人的名字,偏爱亚裔女性。“与其他种族和民族相关的名字相比,具有黑人特色的简历最不可能被评为金融分析师职位的首选候选人”,彭博科技报道。

卡斯·R·桑斯坦对他所定义的人工智能“选择引擎”的研究描绘了类似的情景,他认为,虽然人工智能可能会增强决策能力,但也可能放大现有的偏见或被既得利益操纵。“无论是父权主义还是否,人工智能可能会受到自身行为偏见的影响。有证据表明LLM表现出了一些人类的偏见”,他说。

然而,一些研究人员,如博·考吉尔和凯瑟琳·塔克,认为人工智能被视为各方的中立领域,这巩固了其在决策时作为公平参与者的形象。他们在一篇研究论文中指出,“算法偏见可能比人类偏见更容易衡量和解决”。

换句话说,一旦部署,人工智能似乎更容易控制和逻辑化,如果它偏离其所设定的目标,也更容易进行条件化。这种完全无视中间人的理念是智能合约背后哲学的关键:自动执行的合约可以在不需要法官、第三方担保或人类评估者的情况下自主运行。

一些加速主义者将人工智能政府视为全球社会公平和效率的可行途径。然而,这可能导致一种新形式的“深层国家”——不是由神秘的寡头控制,而是由这些人工智能系统的设计者和培训者控制。

瑞安·奥扎瓦编辑。

免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。

OKX:注册返20%
链接:https://www.okx.com/zh-hans/join/aicoin20
广告
分享至:
APP下载

X

Telegram

Facebook

Reddit

复制链接