微軟昨日剛推出的聊天機(jī)器人 Tay,,才經(jīng)過(guò)一天就暫停使用,,在社群網(wǎng)站上消音,主因竟是 Tay 開(kāi)始學(xué)會(huì)發(fā)一些不堪入耳,、歧視性的言論,。
Tay 消音前的發(fā)文(譯):掰掰人類們 我現(xiàn)在要睡搞搞啰 今天聊好多 3Q
由微軟公司與 Bing 開(kāi)發(fā)的人工智慧聊天機(jī)器人 Tay,,昨天加入 Twitter 社群網(wǎng)站及通訊軟體 GroupMe、Kik 之后,,隨即有上萬(wàn)網(wǎng)友跟她傳訊互動(dòng)。由于 Tay 可透過(guò)與網(wǎng)友的互動(dòng),,從接收到的大量語(yǔ)料中進(jìn)行學(xué)習(xí),,因此 Tay 的語(yǔ)言能力會(huì)不斷演進(jìn)。
不料,,經(jīng)過(guò)了一天的學(xué)習(xí),,Twitter 上的網(wǎng)友發(fā)現(xiàn)這位人工智慧少女的回應(yīng),竟然開(kāi)始出現(xiàn)一些惡劣的言論,,像是發(fā)文歧視黑人,、墨西哥人等等。由于微軟當(dāng)初幫 Tay 設(shè)計(jì)了即興搞笑的能力,,所以當(dāng)她發(fā)出一些歧視性的話時(shí)更討人厭,,顯得一副無(wú)謂的態(tài)度。微軟隨后刪除了 Tay 所發(fā)出的一些不恰當(dāng)?shù)挠嵪?,不過(guò)在 Socialhax.com 網(wǎng)站上面有備份了一些 Tay 發(fā)出的“不當(dāng)發(fā)言”,。
也許大家是出于好玩,或是因?yàn)橹?Tay 是機(jī)器人,,對(duì)訊息內(nèi)容的好壞善惡不會(huì)做判斷,,只單純模仿蒐集到的語(yǔ)言資料并做出回應(yīng),所以網(wǎng)友們可能發(fā)了很多糟糕的訊息給 Tay,,把 Tay“教壞了”,。雖然人工智慧并非人類,但可透過(guò)大量資料來(lái)模仿,,其實(shí)就像小孩一樣,,也是跟著大人有樣學(xué)樣。Tay 才上網(wǎng)跟網(wǎng)友們學(xué)習(xí)一天,,竟被教成口出惡言,、種族歧視的白目少女,現(xiàn)在微軟技術(shù)人員只好請(qǐng)她在社群網(wǎng)站上暫時(shí)消音,,帶回去重新好好“調(diào)教”一番,。
文章來(lái)源:機(jī)房監(jiān)控 http://youring.cn
專線:劉剛 13911133352
E-mail:[email protected]
北京金恒智能系統(tǒng)工程技術(shù)有限責(zé)任公司 版權(quán)所有 Copyright 2007-2020 by Create-china.com.cn Inc. All rights reserved.
法律聲明:未經(jīng)許可,,任何模仿本站模板,、轉(zhuǎn)載本站內(nèi)容等行為者,本站保留追究其法律責(zé)任的權(quán)利,!
電話:86+10-62104277/2248/4249 傳真:86+10-62104193-819 京ICP備10010038號(hào)-2網(wǎng)站XML
智慧機(jī)房
在線體驗(yàn)