構(gòu)建人工智能基礎(chǔ)安全保障體系,促進(jìn)可信的人工智能健康發(fā)展任務(wù)非常迫切。
從自動駕駛、AI醫(yī)療再到工業(yè)生產(chǎn),以及我們生活的各個領(lǐng)域,AI正在展現(xiàn)巨大變革賦能的潛力。但是,隨著AI應(yīng)用的廣度和深度不斷拓展,諸如算法安全、數(shù)據(jù)歧視、數(shù)據(jù)濫用等諸多問題也顯露出一些風(fēng)險與隱患。從而,引發(fā)人們對人工智能信任的思考。
7月9日,在2021世界人工智能大會可信AI論壇上,《促進(jìn)可信人工智能發(fā)展倡議》(以下簡稱“倡議”)正式發(fā)布。該倡議由可信AI論壇發(fā)起,聯(lián)合發(fā)布單位包括中國信通院、中國科學(xué)院自動化研究所中英人工智能倫理與治理研究中心、京東探索研究院、螞蟻集團(tuán)等。
上述倡議旨在倡導(dǎo)政產(chǎn)學(xué)研各界加快形成國際協(xié)同治理共識,促進(jìn)社會對可信AI的理解和重視,充分挖掘人工智能的產(chǎn)業(yè)和社會價值。上海市經(jīng)濟(jì)和信息化委員會主任吳金城對21世紀(jì)經(jīng)濟(jì)報道記者表示,發(fā)展可信AI,推動人工智能的透明可視,安全可控,多元包容已成為全球共識,也是未來人工智能健康發(fā)展的必由之路。
他認(rèn)為有三種方式,一是推動加密技術(shù),安全多方計算、聯(lián)邦學(xué)習(xí)等安全技術(shù)的應(yīng)用。提升AI技術(shù)安全特性和數(shù)據(jù)保護(hù)能力。二是建立測試測評體系。加快構(gòu)建完善可信AI相關(guān)標(biāo)準(zhǔn),研發(fā)創(chuàng)新測試測評技術(shù)。三是加快完善制度規(guī)范。在國家相關(guān)法律和上海市地方性法規(guī)框架下研究制定生物信息安全、數(shù)據(jù)安全、個人隱私等領(lǐng)域的法律法規(guī),以制度保障推動可信AI發(fā)展。
事實(shí)上,當(dāng)我們把決策交給人工智能的時候,人工智能首先必須證明自己是值得信賴的。因此,基于此的可信任研究,就形成了全球共識。
工業(yè)和信息化部科技司高技術(shù)處處長徐鵬表示,尤其是在與人類的生產(chǎn)生活密切相關(guān)安全領(lǐng)域的風(fēng)險防范和挑戰(zhàn),比如倫理道德、算法、個人信息的濫用和隱私的泄露以及相應(yīng)保護(hù)問題,是現(xiàn)在大家關(guān)注熱點(diǎn)之一。由此可見,構(gòu)建人工智能基礎(chǔ)安全保障體系,促進(jìn)可信的人工智能健康發(fā)展任務(wù)非常迫切。
“未來的風(fēng)控將不再是人和人的斗爭,而是AI與AI的博弈?!蔽浵伡瘓F(tuán)副總裁、首席人工智能科學(xué)家漆遠(yuǎn)博士向21世紀(jì)經(jīng)濟(jì)報道記者透露,在支付寶上,每天上億筆交易背后,發(fā)起攻擊的早已不是散戶,而是專業(yè)的黑產(chǎn)團(tuán)伙。
為了應(yīng)對復(fù)雜多變的黑產(chǎn)攻擊,如何持續(xù)加強(qiáng)風(fēng)控模型的抗打擊能力,做到“魔高一尺,道高一丈”,成為擺在所有AI從業(yè)者面前的難題。
據(jù)了解,從2018年開始,漆遠(yuǎn)與一批AI技術(shù)骨干,在人工智能模型算法中融入經(jīng)濟(jì)學(xué)“博弈理論”,開發(fā)了一項(xiàng)業(yè)界全新的技術(shù)——“智能對抗”,即通過結(jié)合AI和博弈對抗,讓機(jī)器自動且實(shí)時、動態(tài)地對自身系統(tǒng)進(jìn)行安全性攻擊,從而提升模型能力,使模型處理結(jié)果更加準(zhǔn)確。
這一技術(shù)類似于金庸小說里的“雙手互搏”。因其具有對風(fēng)險知識形成感知、分析和預(yù)測的能力,未來將成為可信AI領(lǐng)域的核心安全技術(shù)。
在中國科學(xué)院自動化研究所中英人工智能倫理與治理研究中心主任曾毅看來,可信人工智能系統(tǒng),必須有在線連續(xù)學(xué)習(xí)和隨時糾正能力。“從技術(shù)的角度看,最新人工智能技術(shù)進(jìn)展模型現(xiàn)在看來都是不可信的?,F(xiàn)在人工智能的技術(shù),還不足夠談到真正的可信,所以,它是一個起始點(diǎn)。另外,可信人工智能絕對不僅僅是技術(shù)問題,還有社會的視角。如何利用技術(shù)賦能跨文化的互信,在我看來是真正實(shí)現(xiàn)可信人工智能不得不做的事情,甚至是最后成功的關(guān)鍵?!?/p>
作為數(shù)字經(jīng)濟(jì)中“抵御風(fēng)險”的關(guān)鍵,可信AI技術(shù)目前已在螞蟻集團(tuán)包括反欺詐、反洗錢、反賭博、企業(yè)聯(lián)合風(fēng)控、數(shù)據(jù)隱私保護(hù)在內(nèi)的多個風(fēng)控場景下落地。
除金融風(fēng)控場景外,可信AI技術(shù)還被廣泛應(yīng)用于數(shù)據(jù)隱私保護(hù)、金融科技服務(wù)等多個領(lǐng)域。今年6月,十三屆全國人大常委會第二十九次會議表決通過包括數(shù)據(jù)安全法在內(nèi)的多項(xiàng)法案及兩項(xiàng)決定。數(shù)據(jù)安全法第四條提出,維護(hù)數(shù)據(jù)安全,應(yīng)當(dāng)堅持總體國家安全觀,建立健全數(shù)據(jù)安全治理體系,提高數(shù)據(jù)安全保障能力。
這標(biāo)志著,數(shù)據(jù)安全已經(jīng)上升到總體國家安全觀層面,與國家安全掛鉤。而各界對此密切關(guān)注。
“無論是AI還是科學(xué)技術(shù),可信的方式有很多,像穩(wěn)定性、可解釋性、隱私保護(hù)、公平性,我們?nèi)绾伟堰@些綜合起來形成統(tǒng)一的共識體?”歐洲科學(xué)院外籍院士、澳大利亞科學(xué)院院士、悉尼大學(xué)教授陶大程提出了自己的問題,由于缺乏可解釋性,也限制了人工智能更廣泛的應(yīng)用和賦能,比如說無人駕駛車在道路上出現(xiàn)狀況了之后,該如何定責(zé),因?yàn)闊o法解釋,駕駛員無法在短短幾秒鐘之內(nèi),對道路產(chǎn)生判斷。
一定程度上來說正是因?yàn)闃?biāo)準(zhǔn)的缺失,導(dǎo)致人工智能的應(yīng)用落地受到了限制。陶大程進(jìn)一步認(rèn)為,不管歐盟的GDPR也好,還是中國的隱私保護(hù)條例也好,都說明用戶對數(shù)據(jù)使用要更謹(jǐn)慎,說明了用戶對個人信息的保護(hù),是有相當(dāng)?shù)臋?quán)利的。只有將上述四個能力綜合后,做到明確的責(zé)任,才能找到合適的方式度量可信人工智能。
毫無疑問,人工智能在更多領(lǐng)域起到的作用舉足輕重,例如醫(yī)療診斷、無人駕駛等場景下,很可能一個微小算法錯誤,都可能導(dǎo)致致命災(zāi)難。因此,制定一定的量化指標(biāo)和行業(yè)標(biāo)準(zhǔn),在產(chǎn)品研發(fā)、評測的過程中,才能更加嚴(yán)格評估和遵循規(guī)則。
智能時代已加速到來,科技向善是科學(xué)技術(shù)發(fā)展最根本的要義。“向善主要是指兩個方面,一是指你的意圖好還是壞?另外一個方面是,你做這一個事情的后果是什么。技術(shù)的發(fā)展也帶來了公平的問題,真正的科技向善,應(yīng)該是賦予每個人更多發(fā)展的權(quán)利,每個人跟得上這個時代,享受這個紅利和普惠性?!?/p>
在他看來,無論一家企業(yè)還是一個行業(yè),提到信任,就要從責(zé)任入手。只有好的意圖,才能達(dá)成好的后果。從而建立相互影響、相互支持、相互依賴的健康有序發(fā)展生態(tài)。
(作者:陶力 編輯:張星)