您所在的位置: 首頁 >
新聞資訊 >
技術(shù)前沿 >
人工智能安全風(fēng)險的內(nèi)外根由與治理路徑
一、導(dǎo) 言
黨的十九屆四中全會明確提出“建立健全運(yùn)用互聯(lián)網(wǎng)、大數(shù)據(jù)、人工智能等技術(shù)手段進(jìn)行行政管理的制度規(guī)則。推進(jìn)數(shù)字政府建設(shè),加強(qiáng)數(shù)據(jù)有序共享,依法保護(hù)個人信息”。人工智能作為一項新技術(shù),既可賦能安全,又會伴生安全問題。英國技術(shù)哲學(xué)家大衛(wèi)?科林格里奇在其《技術(shù)的社會控制》一書中闡述的“科林格里奇困境”,一項技術(shù)的社會后果不能在技術(shù)生命的早期被預(yù)料到,然而當(dāng)不希望看到的后果被發(fā)現(xiàn)以后,技術(shù)往往已經(jīng)成為整個經(jīng)濟(jì)和社會的一部分,此時想要控制它將會十分困難。人工智能的安全問題伴生效應(yīng)也會表現(xiàn)在兩個方面:一是新技術(shù)的脆弱性導(dǎo)致系統(tǒng)自身出現(xiàn)問題,無法達(dá)到預(yù)設(shè)的功能目標(biāo),稱之為新技術(shù)的“內(nèi)生安全”;另一個是新技術(shù)脆弱性并沒有給系統(tǒng)自身運(yùn)行帶來風(fēng)險,但其脆弱性卻被利用引發(fā)其他領(lǐng)域安全問題,這稱之為“衍生安全”。綜上所述,人工智能技術(shù)具有安全賦能與安全伴生兩個效應(yīng)。其中,安全賦能效應(yīng)是指人工智能技術(shù)系統(tǒng)足夠強(qiáng)大,可以提升安全領(lǐng)域的防御能力,也可以被應(yīng)用于安全攻擊;安全伴生效應(yīng)是指人工智能技術(shù)存在問題或其可控性方面存在脆弱性,前者可以導(dǎo)致人工智能系統(tǒng)的運(yùn)行出現(xiàn)問題,后者可以導(dǎo)致人工智能系統(tǒng)危及到其他領(lǐng)域的安全。本質(zhì)上說,賦能攻擊與衍生安全的外顯行為都是人工智能系統(tǒng)會危及到其他領(lǐng)域的安全,差別僅僅是內(nèi)因的不同:賦能攻擊是攻擊者利用人工智能技術(shù)的強(qiáng)大特性來主動提升破壞性效果;衍生安全是由于人工智能技術(shù)的脆弱性被利用,或者人工智能系統(tǒng)在可控性方面的脆弱性導(dǎo)致自身“意外”地形成破壞性效果,或者自主地形成破壞性效果,從而影響到其他領(lǐng)域的安全狀況。
二、人工智能安全風(fēng)險產(chǎn)生的內(nèi)外根由
人工智能安全風(fēng)險分為內(nèi)生與衍生兩種。內(nèi)生安全是指人工智能技術(shù)存在問題或其可控性方面存在脆弱性,導(dǎo)致系統(tǒng)運(yùn)行出現(xiàn)問題,無法達(dá)到預(yù)設(shè)的功能目標(biāo);衍生安全是指人工智能技術(shù)的脆弱性被利用,導(dǎo)致其危及到其他領(lǐng)域的安全。
(一)人工智能的內(nèi)生安全
人工智能內(nèi)生安全指的是人工智能系統(tǒng)自身存在脆弱性。部分原因是因?yàn)樾录夹g(shù)自身不成熟,存在著一些安全漏洞,包含人工智能框架、數(shù)據(jù)、算法、模型任一環(huán)節(jié)都能給系統(tǒng)帶來脆弱性,但這些漏洞通常會被發(fā)現(xiàn)并且可被改進(jìn);還有一種情況是新技術(shù)存在著天然的缺陷,使得某些客觀存在的問題無法通過改進(jìn)的方法來解決,此時只能采取其他手段加以防護(hù)。例如,在框架組件方面,難以保證框架和組件實(shí)現(xiàn)的正確性和透明性是人工智能的內(nèi)生安全問題??蚣苁情_發(fā)人工智能系統(tǒng)的基礎(chǔ)環(huán)境,相當(dāng)于人們熟悉的Visual C++的SDK庫或Python的基礎(chǔ)依賴庫,重要性不言而喻。當(dāng)前,國際上已經(jīng)推出了大量的開源人工智能框架和組件,并得到了廣泛使用。然而,由于這些框架和組件未經(jīng)充分安全評測,可能存在漏洞甚至后門等風(fēng)險。一旦基于不安全框架構(gòu)造的人工智能系統(tǒng)被應(yīng)用于關(guān)乎國計民生的重要領(lǐng)域,這種因?yàn)椤盎A(chǔ)環(huán)境不可靠”而帶來的潛在風(fēng)險就更加值得關(guān)注。此外,就云計算環(huán)境而言,由于云服務(wù)商擁有云資源,該資源僅僅是提供給云的租戶使用而已,使得計算資源的使用者與擁有者分開,導(dǎo)致可信根的擁有者與需要保障安全的使用者不再是同一個對象,從而使可信根的模式在云計算平臺上不再適用。同樣,量子的塌陷效應(yīng)使之難以用于通信,因?yàn)橐坏┏霈F(xiàn)監(jiān)聽,通信就被中止,致使通信的可靠性成為量子通信系統(tǒng)的軟肋,使其大大降低了用量子通信系統(tǒng)構(gòu)建傳輸通道的可行性。事實(shí)上,這種情況一直伴生在各種技術(shù)中。例如,對抗樣本就是一種利用算法缺陷實(shí)施攻擊的技術(shù),自動駕駛汽車的許多安全事故也可歸結(jié)為由于算法不成熟而導(dǎo)致的。由于互聯(lián)網(wǎng)上的系統(tǒng)必須通過開放端口來提供服務(wù),而開放端口本質(zhì)上就相當(dāng)于引入了一個攻擊面,從而形成了脆弱性,這就是互聯(lián)網(wǎng)服務(wù)的內(nèi)生安全問題。
(二)人工智能的衍生安全
衍生安全其本質(zhì)就是新技術(shù)自身的一些缺陷或脆弱性,并不會影響新技術(shù)自身的運(yùn)行,但卻會被攻擊者利用而危害到其他的領(lǐng)域。例如既然人工智能模型是一個可復(fù)制、可修改的實(shí)體文件,就存在被盜取和被植入后門的安全風(fēng)險,從而導(dǎo)致其他領(lǐng)域的安全問題。再如,物聯(lián)網(wǎng)的傳感部件具有信息輻射的特點(diǎn),這并不影響物聯(lián)網(wǎng)的正常運(yùn)行,卻使得信息泄露成為新的風(fēng)險;社交網(wǎng)絡(luò)不支持強(qiáng)制實(shí)名制時并不影響社交網(wǎng)絡(luò)的正常運(yùn)轉(zhuǎn),但卻有可能被利用而助力了謠言的傳播,從而無助于抑制負(fù)面行為,導(dǎo)致群體性事件的發(fā)生;近場通信在幫助人們便捷通信的時候,沒有設(shè)置強(qiáng)制性通信握手環(huán)節(jié)以確認(rèn)通信的發(fā)起是否自愿,盡管這并不影響NFC的正常使用,但不法分子卻有可能利用這個缺失的環(huán)節(jié)來近距離盜刷用戶的手機(jī)錢包等。
如上所述,衍生安全絕大多數(shù)情況下指的是新技術(shù)的脆弱性被攻擊者所利用,從而引發(fā)其他領(lǐng)域的安全問題。人工智能技術(shù)當(dāng)然也存在著同樣的情況。近幾年,智能設(shè)備安全事故頻發(fā):2018年3月優(yōu)步(Uber)的自動駕駛汽車在美國亞利桑那州坦佩市撞死一名在人行道外過馬路的婦女。因?yàn)槿斯ぶ悄艿闹悄芑卸ㄐ枰叨纫蕾囕斎霐?shù)據(jù),自動駕駛的前提是要對環(huán)境參數(shù)進(jìn)行正確的感知,一旦感知出現(xiàn)錯誤,如沒有感知到對面的障礙物,其決策就是錯誤的。因此,這種依賴輸入的現(xiàn)象可以被視為人工智能系統(tǒng)的一種脆弱性。這種脆弱性并不影響人工智能系統(tǒng)自身的運(yùn)行,但攻擊者可以利用這一點(diǎn),如干擾自動駕駛汽車的雷達(dá)等傳感設(shè)備,從而達(dá)到讓自動駕駛汽車肇事的目的。
此外,人工智能技術(shù)還是一個十分少見的特例。這是因?yàn)槿斯ぶ悄艿拇嗳跣圆灰欢ǘ急还粽咚?,而是以一種“事故”的形式形成了對人類的直接威脅。人們經(jīng)??吹降哪切皺C(jī)器人傷人”“自動駕駛出事故”的現(xiàn)象,本質(zhì)上都是人工智能脆弱性所帶來的問題,這時即便沒有被攻擊者有意利用,但由于“人工智能行為體”在運(yùn)行狀態(tài)下往往具有可傷害人類的“動能”,所以其自身就可以“自主”傷人。更有甚者,由于“人工智能行為體”具有自主學(xué)習(xí)能力,使得其可能在自我進(jìn)化的過程中脫離人類控制,進(jìn)而危及人類安全。而且,人工智能行為體系統(tǒng)功能越強(qiáng)大,其帶來的威脅往往也會越大。由此可見,凡是具備自我進(jìn)化能力的系統(tǒng),都可能在不被他人主動利用其脆弱性的前提下引發(fā)安全問題,而人工智能技術(shù)的特殊性就在于其可成為打開“自我進(jìn)化之門的鑰匙”。因此,確保人工智能技術(shù)發(fā)展過程“安全可控”無疑是至關(guān)重要的。
三、人工智能安全風(fēng)險的應(yīng)對策略
技術(shù)是把雙刃劍,我們要發(fā)揮主觀能動性激發(fā)人工智能帶來的積極影響。針對人工智能技術(shù)的控制困境和安全風(fēng)險,必須重視準(zhǔn)入制度和標(biāo)準(zhǔn)規(guī)范建設(shè),確保公眾知情權(quán),呼吁社會各界共同努力,提升高精尖人才自主培養(yǎng)質(zhì)量。
(一)宏觀:應(yīng)對策略的理論考量——利益相關(guān)者理論
1984年著名管理學(xué)者弗里曼在他的著作《戰(zhàn)略管理:利益相關(guān)者分析》里,第一次把利益相關(guān)者分析引進(jìn)管理學(xué)中,并將利益相關(guān)者定義為“任何能影響組織目標(biāo)的實(shí)現(xiàn)或受這種實(shí)現(xiàn)影響的團(tuán)體和個人?!彼雇R則定義利益相關(guān)者為“受組織活動的影響并且有能力影響組織活動的人?!崩嫦嚓P(guān)者理論的核心觀點(diǎn)在于,組織應(yīng)當(dāng)綜合平衡各個利益相關(guān)的利益要求,而不僅專注于財富的積累。不能一味強(qiáng)調(diào)財務(wù)業(yè)績,還應(yīng)該關(guān)注其本身的社會效益。管理者應(yīng)當(dāng)了解并尊重所有與組織行為和結(jié)果密切相關(guān)的個體,盡量滿足他們的需求。根據(jù)利益相關(guān)者理論,將各利益相關(guān)者納入組織決策,既是一種倫理要求,也是一種戰(zhàn)略資源,而這兩點(diǎn)都有助于提升組織的競爭優(yōu)勢。利益相關(guān)者是指影響組織行為及組織目標(biāo)的實(shí)現(xiàn),或是受到組織目標(biāo)實(shí)現(xiàn)及其過程影響的個體和群體。根據(jù)這種解釋寬泛的定義,任何個體和群體都可以稱為人工智能安全風(fēng)險治理的利益相關(guān)者。
宏觀上,一方面要繪制人工智能安全風(fēng)險利益相關(guān)者圖。人工智能安全風(fēng)險利益相關(guān)者圖清晰地描繪誰是利益相關(guān)者集團(tuán),在采取新的風(fēng)險防控戰(zhàn)略時,代表哪個集團(tuán)的利益,他們是否可能阻礙變革,他們的力量如何,應(yīng)該怎樣對待他們。繪制時首先確定所有利益相關(guān)者,標(biāo)出他們之間的重要關(guān)系,然后分析這張圖表所顯示的風(fēng)險與機(jī)會,識別任何可能的變化對這張圖的影響,以便為此做好準(zhǔn)備。另一方面,隨著利益相關(guān)者理論不斷深入,要區(qū)分出人工智能安全風(fēng)險防控的主要利益相關(guān)者和次要利益相關(guān)者,平衡各方利益相關(guān)者的取向,從不同的利益相關(guān)者的角度評價治理績效。研究也應(yīng)聚焦于利益相關(guān)者的整體角度,展開諸如對利益相關(guān)者及其需求的了解、利益相關(guān)者與治理主體的互動、以及涉及利益相關(guān)者需求的決策等問題的探討。對利益相關(guān)者的了解包括認(rèn)清主要的利益相關(guān)者,并優(yōu)先考慮他們的需求。另外,治理主體應(yīng)當(dāng)重點(diǎn)關(guān)注那些掌握權(quán)力、具有合法性、有緊迫需求或者兼有以上特性的利益相關(guān)者。
(二)微觀:人工智能安全風(fēng)險應(yīng)對策略的主體行動
1.重視準(zhǔn)入制度和標(biāo)準(zhǔn)規(guī)范建設(shè),搶占智能安全控制權(quán)。人工智能作為高精尖技術(shù),無疑是國家創(chuàng)新能力和核心競爭力的重要體現(xiàn),通過積極參與人工智能行為規(guī)范、倫理準(zhǔn)則的研究與制訂,積極爭取人工智能安全治理的主導(dǎo)權(quán)和話語權(quán)。一方面,國家應(yīng)設(shè)置市場準(zhǔn)入制度,強(qiáng)制要求人工智能必須按照標(biāo)準(zhǔn)規(guī)范預(yù)留接口以支持“保險箍”的接入,否則不允許入境或進(jìn)入市場銷售。準(zhǔn)入制度主要針對的是人工智能設(shè)備制造商及零件制造商,判斷其是否支持“保險箍”的接入也需要從多個角度判斷。為了加速“保險箍”發(fā)展,應(yīng)該優(yōu)先為具有破壞能力的機(jī)器人設(shè)置準(zhǔn)入制度并強(qiáng)制執(zhí)行。例如,可以制定相應(yīng)法律,要求具有破壞能力的機(jī)器人必須安裝有“保險箍”這類的制約系統(tǒng),就如同汽車必須設(shè)有剎車系統(tǒng)一樣,并且這一要求應(yīng)該成為市場準(zhǔn)入前提,以便保護(hù)人類不受機(jī)器人的潛在威脅。另一方面,比準(zhǔn)入制度更重要且實(shí)施難度更大的是制定與“保險箍”相關(guān)的標(biāo)準(zhǔn)規(guī)范。如果沒有統(tǒng)一的標(biāo)準(zhǔn)規(guī)范,人工智能設(shè)備制造商就不知道應(yīng)該預(yù)留何種接口、如何對“保險箍”認(rèn)證、內(nèi)置算法如何接受干預(yù)、采用何種協(xié)議來通信、傳感器采集的數(shù)據(jù)如何共享、能源如何按需供給等,“保險箍”自然也就無法集成。在全球、全國、行業(yè)范圍內(nèi)制定標(biāo)準(zhǔn)規(guī)范是“保險箍”可以存在和發(fā)揮作用的基本前提,需要各國秉持開放共贏的精神,通過在國際范圍內(nèi)建立人工智能規(guī)范和標(biāo)準(zhǔn),避免技術(shù)和政策不兼容導(dǎo)致的安全風(fēng)險,積極推動各國人工智能安全發(fā)展。
2.確保公眾知情權(quán),多元工程主體共同努力實(shí)現(xiàn)人工智能安全可控。實(shí)現(xiàn)人工智能安全可控需要多元工程主體共同貢獻(xiàn)自己的力量。從政府決策者角度,制定人工智能安全可用的頂層方案至關(guān)重要,從政策、法律法規(guī)層面可以推進(jìn)人工智能安全發(fā)展,限制人工智能惡意利用等;從企業(yè)角度,遵守人工智能安全的相關(guān)標(biāo)準(zhǔn)和規(guī)范研發(fā)智能系統(tǒng),保障人工智能系統(tǒng)的安全可用;從科研院所角度,大力研究保障人工智能安全的基礎(chǔ)理論,突破智能算法設(shè)計、數(shù)據(jù)評估、安全測評等關(guān)鍵技術(shù);從社會輿論角度,加大人工智能安全的宣傳力度,讓社會大眾樹立正確的人工智能技術(shù)安全應(yīng)用意識,并時刻提防人工智能帶來的安全隱患。與此同時,由于人工智能技術(shù)的應(yīng)用涉及不同文化對信息保護(hù)、公平正義、民主治理以及社會發(fā)展趨勢等方面的理解,所以必須要加強(qiáng)科技界、產(chǎn)業(yè)界、政策研究界的通力合作。作為和每一個自然人密切相關(guān)的技術(shù),公眾對于人工智能的發(fā)展及安全方面的信息、知識的獲取,不但是其融入社會生活的一個充分條件,也是維護(hù)自身合法權(quán)益的必然要求。因此,每位社會公民都應(yīng)當(dāng)能夠及時獲取相關(guān)信息,對人工智能技術(shù)的發(fā)展、應(yīng)用與推廣享有充分的知情權(quán),保證其知曉因人工智能技術(shù)進(jìn)步而產(chǎn)生的社會經(jīng)濟(jì)利益以及可能衍生的安全風(fēng)險。
3.提升高精尖人才自主培養(yǎng)質(zhì)量,提高我國創(chuàng)新力和競爭力。創(chuàng)新驅(qū)動實(shí)質(zhì)上是人才驅(qū)動,高精尖人才自主培養(yǎng)質(zhì)量關(guān)系著國際競爭主動權(quán)掌握和社會主義現(xiàn)代化強(qiáng)國建設(shè)。當(dāng)前,根據(jù)人工智能技術(shù)發(fā)展態(tài)勢,聚焦國家重大戰(zhàn)略需求,動態(tài)調(diào)整優(yōu)化高等教育學(xué)科設(shè)置,有的放矢培養(yǎng)國家戰(zhàn)略人才和急需緊缺人才,提升教育對高質(zhì)量發(fā)展的支撐力、貢獻(xiàn)力至關(guān)重要。智能新技術(shù)人才自主培養(yǎng)是一種重要的策略,對于國家、企業(yè)和社會組織來說,能夠更好地適應(yīng)快速發(fā)展的技術(shù)環(huán)境,提高自身的競爭力和創(chuàng)新能力。在智能新技術(shù)人才自主培養(yǎng)的過程中,我們需要采取以下措施:首先,建立培訓(xùn)計劃,制定詳細(xì)的培訓(xùn)計劃,包括培訓(xùn)目標(biāo)、培訓(xùn)內(nèi)容、培訓(xùn)時間、培訓(xùn)方式等,以確保培訓(xùn)的針對性和有效性;其次,建立學(xué)習(xí)平臺,通過建立在線學(xué)習(xí)平臺,提供相關(guān)的學(xué)習(xí)資源和實(shí)踐機(jī)會,以幫助人才更好地掌握智能新技術(shù)知識和技能;再次,重視招聘、選拔和實(shí)踐,需要注重對人才在智能新技術(shù)領(lǐng)域的技能和經(jīng)驗(yàn)的考察,以確保招聘到的人才能夠適應(yīng)市場和應(yīng)用需求,同時注重實(shí)踐和積累項目經(jīng)驗(yàn),為人才培養(yǎng)提供實(shí)踐和項目經(jīng)驗(yàn)的機(jī)會,以幫助他們更好地掌握智能新技術(shù)知識和技能,并將所學(xué)知識應(yīng)用到實(shí)際工作中;最后,必須建立激勵和獎勵機(jī)制,鼓勵員工主動學(xué)習(xí)和掌握智能新技術(shù)知識和技能,并對他們的學(xué)習(xí)成果和貢獻(xiàn)進(jìn)行獎勵。通過以上措施更好地實(shí)現(xiàn)智能新技術(shù)人才自主培養(yǎng)的目標(biāo),增強(qiáng)我國人工智能領(lǐng)域的競爭力和創(chuàng)新能力。
四、啟 示
人工智能技術(shù)會在國家安全、網(wǎng)絡(luò)安全、社會生活各方面帶來挑戰(zhàn)和沖擊,將利益相關(guān)者理論作為人工智能安全治理的理論基礎(chǔ),關(guān)注狹義的和廣義的利益相關(guān)者戰(zhàn)略,從不同的利益相關(guān)者的角度評價治理績效和提出應(yīng)對策略。誠然,人工智能的發(fā)展會帶來各種風(fēng)險,其他風(fēng)險問題依然需要重視和研究,我們主要基于人工智能技術(shù)引致安全風(fēng)險提出了相應(yīng)解決對策,期望對人工智能研究的長遠(yuǎn)性發(fā)展有所貢獻(xiàn),提高技術(shù)治理成效。(文 | 北京林業(yè)大學(xué)紀(jì)委辦 李嘉豪)
來源:中國社會科學(xué)網(wǎng)