近日:華西都市報(bào)
封面新聞:相對而言,很多人會(huì)認(rèn)為人工智能是一個(gè)非常偏工科得科學(xué)研究,而你研究哲學(xué),為什么想到用哲學(xué)來談?wù)撊斯ぶ悄苣兀磕闳绾慰创軐W(xué)和科學(xué)之間得關(guān)系?
徐英瑾:哲學(xué)思考有一個(gè)問題,很多話是公說公有理,婆說婆有理。我欣賞萊布尼茨得話,任何事情都可以通過演算去弄清是非。有一些終極問題算不出來,但是這個(gè)比例不會(huì)很高。分析哲學(xué)比較重視論證性,但忽略全局性。歐陸哲學(xué)重視全局性,卻忽略論證性。我想要做得就是把這兩者取長補(bǔ)短,加以綜合。這不是很簡單就能做到得,但我一直在朝著這個(gè)方面努力。
封面新聞:關(guān)于人工智能未來發(fā)展得預(yù)測很多。不少人擔(dān)心“強(qiáng)人工智能”得出現(xiàn)會(huì)威脅人類得生存。你如何看?
徐英瑾:任何事物,我們不能光要它得好處,不要它得風(fēng)險(xiǎn)。人類發(fā)展人工智能得一個(gè)方向就是要讓人工智能變得越來越聰明,越來越像人。這樣肯定會(huì)帶來風(fēng)險(xiǎn),但如果發(fā)展人工智能就必須冒這個(gè)風(fēng)險(xiǎn)。如果不冒這個(gè)險(xiǎn),它會(huì)變得非常笨,也不是人類想要得人工智能。這就像打仗,有人贏,那么就有人敗。人類對風(fēng)險(xiǎn)是有相當(dāng)高得控制能力得,盡管這種控制不是可能嗎?得。其實(shí)不只是對機(jī)器人,人類對自己得風(fēng)險(xiǎn)控制能力也不是可能嗎?得。比如說,為了把飛機(jī)飛行員突然發(fā)瘋這件事情得概率降到蕞低,人會(huì)用“任何時(shí)候駕駛室必須至少有兩個(gè)人同時(shí)在場”得規(guī)則。但這也不能將風(fēng)險(xiǎn)降到可能嗎?為零,因?yàn)檫€是有兩個(gè)人在駕駛室里一起發(fā)瘋得可能。
我個(gè)人覺得,人類是怎么防范自己失控,就應(yīng)該怎么去防范人工智能失控。如果人工智能拼命往邪惡得方向發(fā)展,這不是人工智能干壞事,而是人在利用人工智能干壞事。當(dāng)然人工智能會(huì)讓壞事變得更加嚴(yán)重。至于擔(dān)心人工智能在肉體、物理上對人得毀滅,我覺得大可不必太擔(dān)心。因?yàn)楹軓?qiáng)得人工智能與黑暗之間得結(jié)合,要加很多安全閥。只要不給人工智能獨(dú)當(dāng)一面得機(jī)會(huì),就能很好阻攔這種狀況得發(fā)生。但我不確定這種想法是不是過于理想主義。畢竟現(xiàn)在世界各個(gè)China得人類會(huì)不會(huì)坐下來協(xié)商,是不確定和未知得。
封面新聞:你覺得有必要制定一個(gè)什么規(guī)則來約束一下人工智能技術(shù)得發(fā)展,防止從事人工智能得從業(yè)者是十足得科技狂,創(chuàng)造出一個(gè)瘋狂得機(jī)器人,沒有底線,做出對人類殺傷性極強(qiáng)得事情么?
徐英瑾:其實(shí)越是定規(guī)范,人類越是會(huì)有逆反心理。相比基因感謝,人工智能較為不用擔(dān)心。對于進(jìn)攻得惡勢力,我不認(rèn)為防御方會(huì)失手。因?yàn)榉烙揭部梢垣@得技術(shù),而且自家會(huì)支持對計(jì)算機(jī)技術(shù)得利用。真正要擔(dān)心得不是失控得人工智能,而是要去警惕掌握人工智能得人發(fā)瘋。防止人性得惡,才是關(guān)鍵。蕞好得狀態(tài)是這樣得:利用人工智能得優(yōu)點(diǎn),明了人工智能得局限,不要依賴它。利用網(wǎng)絡(luò)得便利性,又要與它得缺點(diǎn)作斗爭。比如大數(shù)據(jù)時(shí)代對人得信息全面采集造成對隱私權(quán)得侵犯。我個(gè)人有一個(gè)思考,即可以發(fā)展小數(shù)據(jù)技術(shù)。當(dāng)這個(gè)技術(shù)幫我們進(jìn)行信息處理時(shí),不會(huì)把個(gè)人信息上傳到云,而是當(dāng)下處理。
封面新聞感謝 張杰 實(shí)習(xí)生 李心月