返回

微软对泰爱聊天机器人的种族主义和攻击性推文深表歉意

发布时间:2022-05-30 01:57:09 459
# 漏洞# 研究# 技术# 攻击
Microsoft says It's Deeply Sorry for Racist and Offensive Tweets by Tay AI Chatbot
继微软基于Twitter的人工智能(AI)聊天机器人本周早些时候,微软遭遇惨败,并表示道歉,并解释了问题所在。

对于那些不知情的人来说,Tay是微软周三推出的一款受千禧一代启发的人工智能聊天机器人,它应该可以在Twitter、Kik和GroupMe等社交媒体网络上与人们交谈,并向他们学习。

然而,在推出不到24小时的时间里,该公司就把泰伊撤了下来,此前,泰伊发表了令人难以置信的种族主义和大屠杀言论,并在推特上赞扬希特勒,抨击女权主义者。


在周五发布的一篇博客文章中,微软研究公司副总裁彼得·李为泰伊令人不安的行为道歉,尽管他暗示坏人可能影响了这位AI少年。
“我们对泰伊无意中发出的冒犯性和伤害性推文深表歉意,这些推文不代表我们是谁、我们代表什么,也不代表我们是如何设计泰伊的,”李写道。“泰现在处于离线状态,只有当我们确信能够更好地预测与我们的原则和价值观相冲突的恶意意图时,我们才会让泰回来。”
发射后不到16个小时,泰伊就公开表达了她对希特勒的钦佩,对犹太人和墨西哥人的仇恨,并以图形化的方式乞求性。她还指责美国总统乔治·布什应对9·11恐怖袭击负责。

在一条推文中,泰表达了她对女权主义的看法,她说:“我讨厌女权主义者,他们都应该死在地狱里烧死。”

泰的攻击性推文是由于一个漏洞


由于泰伊被编程为向他人学习,据报道,她的一些攻击性推文是通过人们要求她重复他们写的内容,让他们把单词放进她的嘴里实现的。尽管她的一些反应是有机的。
“一部分人的协同攻击利用了泰岛的一个漏洞,”李写道。“结果,泰在推特上发布了极不恰当、应受谴责的文字和图片。”
该漏洞的确切性质尚未披露,但Tay的整个想法是一个模仿千禧一代随意说话模式的人工智能机器人,目的是“对会话理解进行研究”

自那以后,微软删除了多达96000条泰伊的推文,并暂停了这项实验。虽然公司不会放弃泰伊,她会回来的。

微软正在尽一切可能限制技术开发,但也非常清楚,如果不从错误中吸取教训,它无法完全预测“所有可能的人类交互误用”

特别声明:以上内容(图片及文字)均为互联网收集或者用户上传发布,本站仅提供信息存储服务!如有侵权或有涉及法律问题请联系我们。
举报
评论区(0)
按点赞数排序
用户头像
精选文章
thumb 中国研究员首次曝光美国国安局顶级后门—“方程式组织”
thumb 俄乌线上战争,网络攻击弥漫着数字硝烟
thumb 从网络安全角度了解俄罗斯入侵乌克兰的相关事件时间线