微软昨日刚推出的聊天机器人 Tay,才经过一天就暂停使用,在社群网站上消音,主因竟是 Tay 开始学会发一些不堪入耳、歧视性的言论。
Tay 消音前的发文(译):掰掰人类们 我现在要睡搞搞啰 今天聊好多 3Q
由微软公司与 Bing 开发的人工智慧聊天机器人 Tay,昨天加入 Twitter 社群网站及通讯软体 GroupMe、Kik 之后,随即有上万网友跟她传讯互动。由于 Tay 可透过与网友的互动,从接收到的大量语料中进行学习,因此 Tay 的语言能力会不断演进。
不料,经过了一天的学习,Twitter 上的网友发现这位人工智慧少女的回应,竟然开始出现一些恶劣的言论,像是发文歧视黑人、墨西哥人等等。由于微软当初帮 Tay 设计了即兴搞笑的能力,所以当她发出一些歧视性的话时更讨人厌,显得一副无谓的态度。微软随后删除了 Tay 所发出的一些不恰当的讯息,不过在 Socialhax.com 网站上面有备份了一些 Tay 发出的“不当发言”。
也许大家是出于好玩,或是因为知道 Tay 是机器人,对讯息内容的好坏善恶不会做判断,只单纯模仿蒐集到的语言资料并做出回应,所以网友们可能发了很多糟糕的讯息给 Tay,把 Tay“教坏了”。虽然人工智慧并非人类,但可透过大量资料来模仿,其实就像小孩一样,也是跟着大人有样学样。Tay 才上网跟网友们学习一天,竟被教成口出恶言、种族歧视的白目少女,现在微软技术人员只好请她在社群网站上暂时消音,带回去重新好好“调教”一番。
文章来源:机房监控
亚洲午夜精品一区二区 版权所有 Copyright 2007-2020 by Create-china.com.cn Inc. All rights reserved.
法律声明:未经许可,任何模仿本站模板、转载本站内容等行为者,本站保留追究其法律责任的权利!
电话:86+10-62104277/2248/4249 传真:86+10-62104193-819 网站齿惭尝
智慧机房
在线体验