微软的人工智能编辑器发布了有关其种族主义错误的报道

发布时间:2022年05月31日

       微软用人工智能取代人工编辑的改革面临着第一个重大尴尬和失误。 5 月底, 微软决定解雇 MSN 新闻的人类编辑, 并用人工智能取代他们。本周早些时候, 出现了有关 LittleMix 成员 Jade Thirlwall 遭到种族虐待的新闻报道。这个故事可能看起来平淡无奇, 但请注意, 微软的人工智能将两名混血乐队成员的姓名和照片混为一谈, Thirlwall 很快指出了这个错误。在 Instagram 帖子中, Thirlwall 写道:如果您要从其他准确媒体复制粘贴文章, 您可能需要确保使用正确的图像。她补充说:“这一直发生在我和@leighannepinnock 身上, 这已经成为一个笑话......你不能告诉四个成员中的两个有色人种女性这让我更生气!据报道, 微软的人类编辑被告知然后人工智能可能会发布有关其种族主义错误的故事并手动删除这些故事。MSN 工作人员还被告知要等待卫报的文章发表, 并试图手动从网站上删除文章, 作为微软的机器人编辑, 接手他们的工作, 很可能认为这篇文章是错误的。MSN 读者有兴趣。JimWaterson (@jimwaterson) 2020 年 6 月 9 日 Microsoft 的新闻应用程序取代了人类梦想最终因事件的报道而破灭, 很明显, 剩下的人工编辑无法足够快地与自动编辑器抗衡。
        JimWaterson (@jimwaterson) 2020 年 6 月 9 日 据 Watson 称, 一名最近被解雇的 MSN 员工已被告知停止向他报告 AI 正在做什么。这不是微软的人工智能解决方案第一次因种族主义而受到抨击。 2016 年, 由微软开发的臭名昭著的 Twitter 聊天机器人 Tay 在 Twitter 上吐出了种族主义和厌恶女性的尖酸刻薄。
       显然, 聊天机器人的设计初衷并不是为了成为一个如此令人讨厌的角色,

但出于某种原因, 微软认为让互联网居民训练它是一个好主意。在我们生活的日益严峻的世界中, 最紧迫的问题之一是大规模监控和面部识别。尽管 IBM 本周宣布不再使用该技术, 但微软仍然是关键参与者。算法正义联盟去年的一项实验发现, 基于性别和肤色的面部识别算法的性能存在严重差异。微软的算法实际上在所有测试中表现最好, 在检测浅肤色男性方面达到了 100% 的准确率。
       然而, 当应用于肤色较深的女性时, 该算法的准确率仅为 79.2%。如果将此版本的微软面部识别系统用于监视,

几乎十分之二的黑皮肤女性可能会被贴错标签。在繁忙的地区, 这可能意味着每天有数十万人面临自动匹配。虽然理想情况下算法不会存在偏见或问题, 但所有这些事件都准确地说明了为什么许多人几乎总是参与最终决定。这样, 当出现问题时,

至少有一个特定的人负责, 而不是仅仅归咎于一个 AI 错误。

返回到上一页>>

友情链接:

Copyright © 2003 鲁南制药股份有限公司 lunanzhiyaogufenyouxiangongsi ,All Rights Reserved (www.lincolnsmog.com)