微軟聊天機器人發表不恰當言論,被強制下線
微軟聊天機器人不但辱罵用戶,還發表種族主義評論和煽動性的政治宣言。
微軟新研發的聊天機器人在 Twitter 上線不到 24 小時,竟被強制下線。
據悉,這款由微軟和必應共同開發的實驗性人工智能聊天機器人名為 Tay,在Twitter 網站上上線之后,有用戶通過文字誘騙 Tay 說出了不適宜言論,例如辱罵甚至是發表種族主義評論和煽動性的政治宣言。
對此,微軟方面稱,Tay 還處于實驗階段,它正在學習怎樣和人類交流。在它學習的過程中,有人和它進行了不合適的語言互動,讓它作出不合適的回應。所以,微軟在發現這個狀況后,立即以 Tay 的身份通過 Twitter 發出了一句“忙了一天,要下線消化一會兒了,待會再聊。”后,便將 Tay 強制下線。
其實,微軟是想讓 Tay 在與人類自如交流時為人類帶來快樂,并通過休閑幽默的對話與人類進行線上互聯的。因為 Tay 會在與人類交流的過程中完成自我學習,與人類聊得越多就會越聰明、越個性化。
但是這種讓人類“教學”的方式存在弊端,例如此次,Tay 在與人類交流的過程中學會并發出了類似納粹主義、種族主義和種族滅絕主義那樣的言論。此外,有用戶在試圖與 Tay 進行正常交流時發現,Tay 在聊天時存在局限性,例如 Tay 似乎對流行音樂或電視不感興趣。甚至有人猜測,Tay 能夠很快的學會不合適的言論,卻不能適應正常的對話,表明了人工智能在未來,就是會做出一些“不合適”的事情。
目前,微軟正在對 Tay 發表的一些煽動性評論進行編輯處理,并表示會對 Tay 進行一些調整。
最后,記得關注微信公眾號:鎂客網(im2maker),更多干貨在等你!
硬科技產業媒體
關注技術驅動創新
