圖片來源:達志影像
一些人工智慧專家5月30日發出可怕警告,認為人工智慧模型可能很快就會比人類更聰明、更強大,現在是施加限制以確保它們不會控制人類或毀滅世界的時候了。
一群科學家和科技行業領袖,在AI安全中心網站(Center for AI Safety)發表公開信,強調「減輕AI滅絕的風險,應該與疫情和核子戰爭等其他社會規模的風險,共同成為全球優先事項。」
超過350人簽署了這一聲明,簽署者表示,他們希望就AI最嚴重的風險展開討論。值得注意的是,開發ChatGPT的OpenAI執行長Sam Altman和其技術長Mira Murati都簽署了這份聲明。
其他簽署者包括微軟技術長Kevin Scott,Google AI高管Lila Ibrahim和Marian Rogers,以及前聯合國裁軍事務高級代表Angela Kane等人。
呼籲必須對AI進行監管
自OpenAI去年發布ChatGPT以來,批評人士加大了對AI進行監管的呼籲,認為這一技術對人類構成了無法估計的威脅。
在3月發表的一份獨立聲明中,技術高管和研究人員呼籲暫停訓練更強大的AI系統至少6個月,這一聲明現已有3萬多人簽署。
近幾個月來,隨著投資者押注他們認為的新計算時代,人工智慧概念股大幅上漲。特別是,開發AI技術的半導體公司NVIDIA成為首家估值達到1兆美元的晶片製造商。
拜登政府近幾個月表示,人工智慧對公共安全、隱私和民主構成威脅,但政府對其監管的權力有限。
本文獲「鉅亨網」授權轉載,原文:將AI的「滅絕風險」與核戰類比OpenAI創辦人領銜簽署聯名信呼籲監管
延伸閱讀
AI超夯,資金行情造成股價與基本面脫鉤...你該小心什麼事?
AI的榮景正要展開?ChatGPT浪潮席捲,哪些產業具投資潛力?
小檔案_鉅亨網
anue鉅亨網1999年創立至今,不只是間財經新聞媒體,也是一間協助投資人決策的科技公司,我們陪伴許多台灣投資人成長,一直深受投資人信任。