日韩黑丝制服一区视频播放|日韩欧美人妻丝袜视频在线观看|九九影院一级蜜桃|亚洲中文在线导航|青草草视频在线观看|婷婷五月色伊人网站|日本一区二区在线|国产AV一二三四区毛片|正在播放久草视频|亚洲色图精品一区

分享

微軟推出少女聊天機器人Tay 不到24小時被網友教的種族歧視、反女權

 秋天的海 2016-03-26

  據英國《每日郵報》3月25日報道,微軟在Twitter上推出了一位清純可人的AI(人工智能,Artificial Intelligence)少女聊天機器人,叫Tay,讓她可以通過和網友們對話來學習怎樣交談。結果還不到一天她就被網友們教成了個“滿口政治不正確的納粹”,各種爆臟話,不但說自己喜歡希特勒,還說911事件是小布什所為。嚇得微軟匆忙把她給關了,然后開始刪帖了……

Tay可以模擬少女的樣子與人交流,該公司的本意是通過Tay來提高自家語音識別軟件的客服質量,讓用戶有如沐春風的感覺。而且剛上線時Tay確實是個好姑娘,但后來事態(tài)有點無法控制了。

微博用戶@fall_ark 從外媒翻譯了一些網友保存的截圖,能清楚的看到她的變化……

注意時間,23日還是開心的打招呼,24日就是……

想要與Tay交流,只需登陸Twitter找到@tayandyou賬號就好,此外,你還可以在Kik或GroupMe上加它為好友。

微軟的開發(fā)者專門教了Tay許多年輕人常用的俚語,它也知道泰勒·斯威夫特和侃爺等潮流明星,與它聊天你會發(fā)現這小姑娘挺靦腆,有時它還會問你自己說話是不是有點過火。

但是上線后……

由于它會在對話中不斷學習,而調教她的主力是美國4chan網站政治(不正確)版塊的網民,很快她就變成了一個種族歧視、反女權、反政治正確、支持希特勒納粹和特朗普的AI了……

網友:“覺得比利時怎么樣?”

Tay:“都是活該?!?

    本站是提供個人知識管理的網絡存儲空間,所有內容均由用戶發(fā)布,不代表本站觀點。請注意甄別內容中的聯(lián)系方式、誘導購買等信息,謹防詐騙。如發(fā)現有害或侵權內容,請點擊一鍵舉報。
    轉藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多