【霍金:我們需要“世界性政府”阻止危險(xiǎn)AI崛起】最近接受采訪時(shí),霍金說:“我們需要以更快的速度識別這類威脅,并在它們失控前采取行動。這可能意味著,我們需要組建某種形式上的世界性政府?!笨墒腔艚鹨簿娣Q,這種方法有可能催生“暴政”。
    背景信息:@自股億來著名物理學(xué)家史蒂芬·霍金(Stephen Hawking)是人工智能(AI)技術(shù)的支持者,但他對AI帶來的潛在挑戰(zhàn)也感到擔(dān)憂?;艚鹗冀K關(guān)注著在社會中扮演越來越重要角色的AI,并建議組建“世界性政府”幫助監(jiān)管和控制AI的快速擴(kuò)張。許多人對霍金的建議給出不同反應(yīng)。