人工智能技術

人工智能可能危險的真正原因

El 人工智能的主要危險

一些專家已經警告過這種可能性 人工智能的真正危險。 斯圖爾特·拉塞爾警告del 主要 人工智能的危險.

加州大學伯克利分校教授, 斯圖爾特·拉塞爾, 是該作品的作者 與人類兼容:人工智能和控制問題 他是人工智能機器學習進展方面的專家,他解釋了他為何如此擔心的原因 人工智能可能很危險。

人工智能的主要危險,人工智能的危險
citia.com

他在新書中解釋說,我們應該關心的不是具有人工智能的機器人意識到並反抗人類。 相反,機器在完成我們分配給它們的目標方面變得如此有效,並表明我們可能會在不經意間被消滅。 作為? 以錯誤和/或錯誤的方式製定任務。

根據教授的說法,人們對 人工智能的危險 由於好萊塢電影的影響,這是完全錯誤的。 這些通常總是由機器變得有自我意識,然後開始憎恨人類並最終反抗他們組成。 這位教授反駁了這種觀點,因為他解釋說,機器人沒有人類的感情,所以擔心這樣的事情發生是錯誤的。

羅素解釋說,引起關注的原因並不是良心不安,而是 人工智能的危險 我們真正關心的是它是否有能力實現一個表述不明確或具體的目標。

這種有效性的一個例子

這位專家藉此機會向媒體解釋了他所揭露的情況的一個例子。

如果我們有一個非常強大的系統 IA 它有能力控制地球的氣候,我們希望向您提供指示,以返回我們大氣中的二氧化碳(二氧化碳)水平。

AI的危險,人工智能的危險
pixabay

人工智能確定並得出結論,要做到這一點,人類應該被淘汰,因為他們是大量產生二氧化碳的主要原因。

拉塞爾明確表示,現在重要的是人類重新獲得控制權。

我們創造了非常能夠在千分之一秒內執行任務的人工智能。 人工智能能夠自我優化和自我學習。 只要我們意識到它的危險並指導這些公用事業執行道德任務,就不會有問題。 但…

我們能否讓它走上正確的軌道?

而你,你認為它是什麼? 人工智能的主要危險?

您可能也有興趣:

發表回覆

您的電子郵件地址將不會被發表。 必填字段標有 *

本網站使用Akismet來減少垃圾郵件。 了解您的評論數據是如何處理的.