霍金又來“危言聳聽”了:人工智能將利用核武器來摧毀人類
除了表示擔憂,霍金這次也帶來了如何應對的建議。
自人工智能技術受到關注以來,關于“人工智能威脅論”的爭論就一直沒有停歇過,其中,尤以世界著名的物理學家霍金以及特斯拉CEO馬斯克最為活躍,數次發表關于“人工智能威脅論”的觀點。這不,就在最近,在接受外媒采訪的時候,霍金又再次發表言論,表達了自己對于人工智能技術的擔憂。
在采訪中,霍金表示,人工智能進一步發展便可能會通過核戰爭或生物戰爭摧毀人類。他認為,人類需要利用邏輯和理性去控制未來可能出現的威脅。對此,霍金還提出了相關建議,他提議人類可以組成某種形式的“世界政府”來防范人工智能可能帶來的威脅。他表示:“世界政府可能會成為暴政,所有這一切聽上去好像人類在街難逃,但我是一個樂觀主義者。我認為,人類終將會崛起,解決這些挑戰。”
據了解,這并不是霍金第一次發表對人工智能應該抱有警惕的看法,也不是第一次提出人類必須團結起來、攜手共進對抗人工智能。早在此前,霍金就曾預言,人類在地球上智能再生活1000年,因此必須尋找另一顆宜居的星球。
盡管霍金又再次強調了人工智能在未來將帶給人們的威脅,但目前我們并不需要擔心,畢竟以當前的技術而言,讓人工智能“擁有意識”并不是一件簡單的事情,距離這個目標的實現還有很長的一段路要走。
最后,記得關注微信公眾號:鎂客網(im2maker),更多干貨在等你!
硬科技產業媒體
關注技術驅動創新
