霍金通過(guò)視頻發(fā)表了關(guān)于人工智能的演講
在由長(zhǎng)城會(huì)主辦的天工開(kāi)悟高端論壇上,霍金通過(guò)視頻發(fā)表了關(guān)于人工智能的演講。
霍金認(rèn)為,強(qiáng)大的人工智能的崛起,要么是人類歷史上最好的事,要么是最糟的。人工智能是好是壞我們?nèi)圆淮_定,但我們應(yīng)該竭盡所能,確保其未來(lái)發(fā)展對(duì)我們和我們的環(huán)境有利。
“我們別無(wú)選擇。我認(rèn)為人工智能的發(fā)展,本身是一種存在著問(wèn)題的趨勢(shì),而這些問(wèn)題必須在現(xiàn)在和將來(lái)得到解決。人工智能的研究與開(kāi)發(fā)正在迅速推進(jìn),也許我們所有人應(yīng)該暫停片刻,把我們的研究重點(diǎn)從提升人工智能的能力轉(zhuǎn)到最大化人工智能的社會(huì)效益。”
霍金表示,人工智能也遵循“計(jì)算機(jī)在理論上可以模仿人類智能,然后超越”這一原則。但我們并不確定,所以我們無(wú)法知道我們將無(wú)限地得到人工智能的幫助,還是被藐視并被邊緣化,或者很可能被它毀滅。“的確,我們擔(dān)心聰明的機(jī)器將能夠代替人類正在從事的工作,并迅速地消滅數(shù)以百萬(wàn)計(jì)的工作崗位。”
霍金提到,近來(lái)人工智能的里程碑,比如說(shuō)之前提到的自主駕駛汽車,以及人工智能贏得圍棋比賽,都是未來(lái)趨勢(shì)的跡象。“人工智能的成功有可能是人類文明史上最大的事件。”
但同時(shí)人工智能也有可能是人類文明史的終結(jié),除非我們學(xué)會(huì)如何避免危險(xiǎn)。“我曾經(jīng)說(shuō)過(guò),人工智能的全方位發(fā)展可能招致人類的滅亡,比如最大化使用智能性自主武器。”霍金提到了一個(gè)報(bào)告,該報(bào)告承認(rèn)在幾十年的時(shí)間內(nèi),人工智能可能會(huì)超越人類智力范圍,人工智能可能會(huì)超越人類智力范圍,進(jìn)而挑戰(zhàn)人機(jī)關(guān)系。