傑弗里·辛頓(圖片來源:Eviatar Bach/wikimedia/CC BY 3.0)
【看中國2023年5月3日訊】報導,一位常常被稱為「人工智慧教父」的計算機科學家已經辭去了他在谷歌的工作,並且公開談論這項技術的危險。
為人工智慧系統創建基礎技術的傑弗里·辛頓(Geoffrey Hinton)告訴《紐約時報》(The New York Times),該領域取得的進展「對社會和人類構成了深刻的風險」。
「看看五年前的情況以及現在的情況,」他被援引在週一發表的文章中說道。
「如果將這些差異向前繼續傳播。這太可怕了。」
辛頓表示,科技巨頭之間的競爭正在推動公司以危險的速度發布新的人工智慧技術,冒著失去工作和傳播錯誤信息的風險。
「很難看出如何能夠防止壞人將其用於做壞事,」他對《紐約時報》說。
2022 年,谷歌和 OpenAI--流行的人工智慧聊天機器人 ChatGPT 背後的初創公司--開始使用比以前大得多的數據開始構建系統。
辛頓告訴《紐約時報》,他認為這些系統在某些方面正在使得人類智能黯然失色,因為它們能夠分析大量的數據。
「也許這些系統中發生的事情,實際上比大腦中發生的事情要好得多,」他告訴該報。
雖然人工智慧已被用於支持人類的工作,但像ChatGPT這樣的聊天機器人的快速擴張可能會使工作面臨風險。
人工智慧「帶走了苦差事」,但「可能會帶走的不止這些,」他對《紐約時報》說。
這位科學家還警告說,人工智慧創造的錯誤信息可能會被傳播,他告訴《紐約時報》,普通人將「無法再知道什麼是真實的」。
據《紐約時報》報導,辛頓上個月通知了谷歌他將辭職的決定。
谷歌人工智慧首席科學家傑夫·迪恩(Jeff Dean)在給美國媒體的一份聲明中感謝了辛頓。
「作為首批發布人工智慧原則的公司之一,我們仍然致力於對人工智慧採取負責任的方法,」聲明補充說。
「我們不斷學習、瞭解新出現的風險,同時也大膽地創新。 」
今年三月,科技億萬富翁埃隆·馬斯克(Elon Musk)和一系列專家呼籲,暫停人工智慧系統的開發,以便有時間確保它們的安全。
一封公開信,有1000多人簽名,其中包括馬斯克和蘋果公司(Apple)的聯合創始人史蒂夫·沃茲尼亞克(Steve Wozniak)。GPT-4的發布是這封公開信的導火索,而GPT-4是ChatGPT使用的更強大的技術版本。
辛頓當時沒有簽署這封信,但告訴《紐約時報》,科學家們不應該「在瞭解他們是否能夠控制它之前進一步擴大規模」。