新聞資(zī)訊

吳世忠:對新一(yī)代人工(gōng)智能發展與安全問題的思考
發布時間:2018-05-30


      曆史上每一(yī)次工(gōng)業革命都會助推強國崛起,引發國力轉變,重塑世界格局。人工(gōng)智能(AI)技術的發展應用同樣正在孕育着一(yī)場革命,爲我(wǒ)(wǒ)國提供了重大(dà)曆史機遇。“搶抓機遇,乘勢而上”已成官商(shāng)學界的高度共識。而世界大(dà)國對人工(gōng)智能安全問題的擔憂則要比過去(qù)曆次科技革命的利害權衡都更爲深入、廣泛和尖銳。在發展人工(gōng)智能的全球競争中(zhōng)能否成爲這一(yī)新興技術的引領者,很大(dà)程度上取決于對“發展與安全”問題的了解、認識和應對。

一(yī)、充分(fēn)了解人工(gōng)智能技術隐含的安全風險

      人工(gōng)智能是典型的軍民兩用技術,利弊并存,其智能化程度越高,雙刃劍特征就越突出。已故的英國科學家斯蒂芬·霍金教授認爲人工(gōng)智能可能會毀滅人類,直接将“能否掌握對人工(gōng)智能的控制權”這一(yī)拷問,提到人類戰略的高度。目前,世界各國在競相發展人工(gōng)智能的同時,都高度重視其安全風險。政界、軍界、産業界和智庫密集讨論其對國家安全和國際秩序的威脅與挑戰。歸結而言,人工(gōng)智能技術應用的安全風險突出體(tǐ)現在三個方面:

一(yī)是國家安全風險。人工(gōng)智能技術使機器擁有越來越高級的智能,力圖突破人力的局限,甚至改變人類與技術的深層聯系,給國家發展帶來深層變革,其“威力之大(dà),堪比核武”,被公認是“對國家安全帶來深刻變化的颠覆性技術”。如果管控不當,将直接影響政治、政權、經濟、金融、網絡、文化等國家重要行業和核心領域的安全與穩定。各主要大(dà)國在國家安全戰略和科技發展戰略等重要文件中(zhōng)均特别強調對人工(gōng)智能危及國家安全的擔憂:一(yī)是擔心對這一(yī)新興戰略能力的缺失。普遍認爲,新一(yī)代人工(gōng)智能會成爲重要的戰略威懾力量,類似于“擁核自重”。不在人工(gōng)智能上占據制高點,就難以在未來的國際舞台上掌握主動權、擁有話(huà)語權。2018年4月,蘭德公司發布報告《人工(gōng)智能對核戰争風險的影響》指出,到2040年人工(gōng)智能有可能颠覆核威懾戰略的基礎。二是擔心對人工(gōng)智能技術濫用的失控。人工(gōng)智能這種賦能極強的技術手段獲得容易,管控極難,濫用門檻極低,容易落入極端個人或犯罪團夥之手,會給政權安全和社會穩定帶來重大(dà)威脅。三是擔心對人工(gōng)智能應用中(zhōng)重大(dà)安全風險的失察。人工(gōng)智能技術應用推廣隐含着諸多不确定性,近年在西方政治中(zhōng)出現的利用大(dà)數據分(fēn)析和社交平台部署“機器人水軍”達到“網絡幹預選舉”的口水仗和劍橋分(fēn)析公司利用人工(gōng)智能等技術操控選民意見和行爲的曝光,彰顯出新的政治安全風險。沒有預測、預警和預防能力,智能化時代的系統性、災難性風險在所難免。

二是軍事安全風險。兩用技術,最受軍方的青睐。一(yī)方面,越來越多的國家試圖研發“緻命性自動武器”,而個人或非國家行爲體(tǐ)則越來越容易獲得這種“四兩撥千斤”的“遠程精确打擊能力”“機器自動殺人”可能不再是科幻。另一(yī)方面,有的國家或非國家實體(tǐ)可能将商(shāng)業團體(tǐ)開(kāi)發的工(gōng)業機器人轉化成接近實用的“機器人戰士”。更值得關注的是,西方軍界對智能化武器裝備、戰場戰法、戰争理論等的研究越來越多,且日益深入,引發有識之士的普遍擔憂。以至于特斯拉創始人馬斯克等來自26個國家的116名專家去(qù)年聯名緻信聯合國,強烈呼籲制止“智能武器”的軍備競争,将其納入國際公約的管制。今年四月初,30個國家和地區的50多名專家學者聯合抵制韓國科學技術院與軍工(gōng)企業合作的機器人武器研發項目。英國政府的一(yī)份報告明确表示:永遠不能給人工(gōng)智能系統傷害人的權力。

三是社會安全風險。人工(gōng)智能技術的創新和推廣,将不斷突破現有法律法規、社會規範和道德倫理的限制,直接給社會生(shēng)活帶來多維度的安全挑戰。一(yī)是智能社會的經濟生(shēng)産與生(shēng)活模式高度自動化,具有智能的機器對傳統人工(gōng)的替代在解放(fàng)人力勞動者的同時,直接帶來對就業的沖擊,給本來就存在就業壓力的發達國家帶來社會風險。尤其是人工(gōng)智能越來越多地應用于大(dà)數據環境下(xià)的決策,由于機器系統無法像人那樣解釋或合理化其所作的決定,所謂的“算法偏見”會帶來更爲複雜(zá)的社會問題。二是當智能技術無處不在,萬物(wù)互聯成爲常态,大(dà)量的個人隐私會直接暴露給智能設備,構成日益尖銳且相當普遍的網絡信息安全問題。三是人工(gōng)智能主要靠軟件與算法驅動,而軟件與算法皆是人爲編寫,難免出現技術漏洞和人爲缺陷。人工(gōng)智能與物(wù)聯網的深度融合,使得智能産品成爲網絡攻擊新的風險點和突破口。人工(gōng)智能既普遍又(yòu)敏感,正用反用,存乎一(yī)念,善惡之間,天壤之别。美國有研究表明,虛設假場景、僞造音視頻(pín)會直接引發股市動蕩、街頭政治和社會危機。在近兩年的世界黑客大(dà)會上,具有人工(gōng)智能的“神器”“殺器”紛紛亮相。聯合國曾召開(kāi)“人工(gōng)智能向善”大(dà)會,專門讨論技術标準、安全規範和道德倫理等問題,以防機器人作惡,表達了國際社會的集體(tǐ)焦慮。近期,谷歌公司3100多名員(yuán)工(gōng)聯名抗議爲五角大(dà)樓開(kāi)發相關高端人工(gōng)智能技術,也是這種社會憂慮的反應。

二、辯證認識人工(gōng)智能應用面臨的安全問題

      回顧人類文明史,在利弊并存的技術革命和社會創新面前,人類總能憑借自身的智慧探索出一(yī)條趨利避害的發展道路,從而在适應發展、改造自然的進程中(zhōng)化險爲夷,轉危爲安。相對前述多方面的風險隐患,新一(yī)代人工(gōng)智能帶給人類的發展機遇更爲現實和明顯。随着計算能力的提高,大(dà)規模數據的積累和學習算法的進步,人工(gōng)智能正在重塑我(wǒ)(wǒ)們的世界、社會和生(shēng)活。日新月異的人工(gōng)智能應用不僅使我(wǒ)(wǒ)們的生(shēng)活更加便捷和高效,而且能爲我(wǒ)(wǒ)們應對和解決重大(dà)社會性、全球性難題提供新的方法和手段。尤其重要的是,人工(gōng)智能的發展将給全球帶來巨大(dà)的經濟發展機會。普華永道2017年的一(yī)項研究表明:在人工(gōng)智能技術的推動下(xià),2030年全球GDP将增長14%,相當于15.7萬億美元。發展與安全的利害關系,不言而喻。回顧我(wǒ)(wǒ)國近代史,在多次重大(dà)的世界性技術變革面前,由于在風險感知(zhī)、安全預判上的糾結與失據,讓我(wǒ)(wǒ)們痛失多次曆史發展機遇,留下(xià)苦澀的遺憾。四十年的改革開(kāi)放(fàng)生(shēng)動地證明了“發展是硬道理”,也辯證地揭示了“不發展是最大(dà)的不安全”。因此,對人工(gōng)智能發展中(zhōng)面臨的安全問題,應當要有辯證的認識。

      首先,要樹(shù)立科學的安全觀念。要立足發展講安全,權衡利弊講安全,防止安全問題絕對化的認識和安全風險擴大(dà)化的傾向。不能讓安全問題成爲發展路上的攔路虎和絆腳石,而是要以有效的法律法規、管理手段和技術措施主動應對,讓安全保障成爲确保發展的底闆和墊腳石。隻有對安全問題有了全面科學的認識,才會不糾結、不懼怕,才敢張開(kāi)雙臂擁抱人工(gōng)智能技術,才能緊緊抓住這一(yī)曆史機遇。

      其次,要确立有效的治理策略。從蒸汽機到電(diàn)力,從計算機到網絡,任何一(yī)項技術創新都經曆一(yī)個從不完善到完善,從不可控到可控的過程,其中(zhōng)的治理之道基本上應了“兩利相較取其重,兩害相較取其輕”的古訓。因而是發展在先,治理在後,隻是随着時空關系的變化,發展與治理的時間差在不斷縮短,直到近十年的互聯網發展,我(wǒ)(wǒ)們仍然走的是先發展後治理的路子。實踐表明,由于技術發展太快,應用涉及太廣,作用影響太大(dà),對于颠覆性超強的新興科技,治理滞後越來越顯得力不從心。而對新一(yī)代人工(gōng)智能的自主、智能和自适應等鮮明特征,發展與治理并舉的緊迫性更加凸顯。歐美各國均在人工(gōng)智能發展戰略中(zhōng)同步考慮安全管控和風險治理,加大(dà)了對安全問題的研究力度和安全措施的投入強度,爲有效把控安全風險預作準備。這是處理應對颠覆性技術帶來的安全風險的新動向,值得我(wǒ)(wǒ)們重視和借鑒。在新一(yī)代人工(gōng)智能的發展中(zhōng)要做到趨利避害,就必須不回避安全挑戰,以科學的态度,務實的精神,同步考慮和解決安全保障措施,爲人工(gōng)智能又(yòu)好又(yòu)快地發展提供可靠的安全保證。

      再次,要建立良好的社會環境。良好的社會環境是科技創新最好的土壤,任何技術進步和科技創新都是有成本的,要享用人工(gōng)智能帶來的發展機遇,就要爲其可能帶來的社會變革付出代價。政府、企業和公衆都要有爲人工(gōng)智能發展付出成本的心理準備。人工(gōng)智能應用越廣,這個問題會越突出,我(wǒ)(wǒ)們不僅要在人工(gōng)智能技術的研發、試驗和推廣應用中(zhōng)包容失誤,寬容出錯,而且要在安全保密的文化和觀念上走出 “絕對安全”的認識誤區,避免條件反射式的監管沖動,靠發展化解隐患,以動态管控風險。

三、有效應對人工(gōng)智能發展提出的安全挑戰

      我(wǒ)(wǒ)國已正式發布新一(yī)代人工(gōng)智能的發展規劃,憑借規模龐大(dà)的市場和技術應用優勢,堅持發展這個硬道理,抓住創新這個牛鼻子,我(wǒ)(wǒ)們就能搶占先機,獲得主動。在安全管控這個關鍵問題上,隻要堅持發展與治理并舉,趨利避害,就可以走出具有中(zhōng)國特色的一(yī)條新路。

(一(yī))強化戰略引領,發揮體(tǐ)制優勢,争取技術領先。一(yī)是在總體(tǐ)國家安全觀的指導下(xià),完善人工(gōng)智能發展戰略,尤其要充分(fēn)考慮新一(yī)代人工(gōng)智能技術的新特點和應用的新領域,處理好發展與安全的辯證關系,同步布局、設計和安排與安全相關的工(gōng)作内容。二是面向國防、安全等國家戰略需求,統一(yī)建設人工(gōng)智能國家實驗室、安全風險測評基地、模拟試驗場等技術基礎設施。防止各行業、各部門一(yī)哄而上,重複投入,避免同質競争造成資(zī)源浪費(fèi)。三是設立重大(dà)科技專項,研發人工(gōng)智能積極防禦關鍵技術,搶占戰略制高點,提高國家在該領域的核心競争力。

(二)強化軍民融合,推動商(shāng)業應用,促進創新發展。一(yī)可增加人工(gōng)智能安全相關的基礎研究投入,針對我(wǒ)(wǒ)國在交通、醫療、金融、教育、智慧城市、工(gōng)業控制等方面大(dà)規模人工(gōng)智能的應用需求,研究有針對性的安全技術,促進原始創新。二可将人工(gōng)智能商(shāng)業應用創新作爲軍民融合的重要内容,激發技術創新和成果轉化,鼓勵科研成果的實際應用,在應用中(zhōng)改進,在改進中(zhōng)完善和提高,形成良好的産業生(shēng)态。三可支持跨部門、跨界的數據共享和業務配合,推動機制創新,讓我(wǒ)(wǒ)國的信息化紅利、網絡化紅利和大(dà)數據紅利有效轉化成人工(gōng)智能發展與應用的直接動力。

(三)強化安全治理,提高防範能力,管控重大(dà)風險。一(yī)宜結合深化改革,明确人工(gōng)智能安全治理的責任部門,防止“九龍治水”,政出多門,減少企業經營負擔和公衆政策困擾。二宜與國家人工(gōng)智能發展戰略相适應,持續加大(dà)投入力度,着力建設防故障、防幹擾、防破壞、防控制等技術标準、治理體(tǐ)系和治理能力,努力跻身人工(gōng)智能強國之列。三宜貫徹人類命運共同體(tǐ)理念,支持科研團體(tǐ)、專家學者、企業廣泛開(kāi)展國際合作,主動搭建人工(gōng)智能國際合作平台,積極參與國際标準和規則制定。針對機器人異化和安全風險管控、治理等重大(dà)國際共性問題,加強研究,提出中(zhōng)國方案,貢獻中(zhōng)國智慧,發揮中(zhōng)國作用。


三禾一(yī)科技

成爲中(zhōng)國數字化轉型賦能的領軍企業

聯系我(wǒ)(wǒ)們