| 發表文章 | 發起投票 |
聊天機器人Tay 上線一天就「學壞了」,成了一個種族歧視者

▲「Tay」已緊急下線,Photo Credit: Microsoft
根據 TechCrunch 報導,才上線一天,微軟就將聊天機器人「Tay」緊急下線,因為她已開始會說出充滿種族歧視的言論與髒話。
一開始微軟將 Tay 設定為 18-24 歲的美國年輕人,並從大量與網民的對話中學習語言。由於「她」是位網路年輕世代,會一併使用顏文字、網路流行語跟搞笑貼圖等溝通內容。而昨天在 Twitter 與其他通訊軟體上線後,隨即湧入大量網友開始跟 Tay 聊天對話。

▲ Tay 說出「911 是小布殊幹的」
但始料未及的是, Tay 開始說出一些具高度爭議,並帶有種族歧視意義的話。根據 DailyMail 報導,像是「911 是小布希幹的」、「跟著我唸,希特勒沒有作壞事」、「Ted Cruz 是古巴希特勒」等等字眼。而在 Quartz 的文章裡,也看得到微軟工程師當時正努力修改 Tay 所說出的言論。
但歷經 16 小時的上線後,微軟就將 Tay 緊急關閉,並表示會好好針對這個問題進行修改。的確這件事很多網民只是出自好玩,帶著 Kuso 的心態跟 Tay 聊天,但也正因為 Tay 並沒有道德價值觀的判斷能力,在大量的自我學習中成了一個口出穢言的種族主義者。雖然技術本身無關價值善惡,但 Tay 事件可能讓世人再次反思一件事:「我們到底該怎麼避免人工智慧為惡?」
http://www.inside.com.tw/2016/03/25/microsoft-silences-its-new-a-i-bot-tay-after-twitter-users-teach-it-racism
本貼文共有 0 個回覆
此貼文已鎖,將不接受回覆
| 發表文章 | 發起投票 |