人工智能的發(fā)展始終與倫理同行。人工智能技術(shù)迅速迭代,推動(dòng)我國(guó)科技倫理制度的完善。近期,工業(yè)和信息化部會(huì)同多個(gè)部門(mén)起草了《人工智能科技倫理管理服務(wù)辦法(試行)(公開(kāi)征求意見(jiàn)稿)》(以下稱(chēng)《辦法》),科技倫理規(guī)范由此在組織和技術(shù)層面深刻嵌入人工智能?!掇k法》體現(xiàn)人工智能規(guī)范體系建設(shè)的中國(guó)智慧,為人工智能倫理治理提出示范方案。結(jié)合產(chǎn)業(yè)和技術(shù)動(dòng)向,未來(lái)可以探索倫理規(guī)范和倫理主體向個(gè)體用戶(hù)和人工智能本身的拓展。
科技倫理嵌入開(kāi)展人工智能科技活動(dòng)的組織架構(gòu)中?!掇k法》第九條規(guī)定:“從事人工智能科技活動(dòng)的高等學(xué)校、科研機(jī)構(gòu)、醫(yī)療衛(wèi)生機(jī)構(gòu)、企業(yè)等是本單位人工智能科技倫理管理服務(wù)的責(zé)任主體。有條件的單位應(yīng)設(shè)立人工智能科技倫理委員會(huì)?!比斯ぶ悄芸萍紓惱砦瘑T會(huì)(以下稱(chēng)委員會(huì))包括人工智能技術(shù)、應(yīng)用、倫理、法律等相關(guān)背景的專(zhuān)家,其主要職責(zé)包括指導(dǎo)科技人員開(kāi)展科技倫理風(fēng)險(xiǎn)評(píng)估、按要求跟蹤監(jiān)督相關(guān)科技活動(dòng)全過(guò)程、組織開(kāi)展科技倫理知識(shí)培訓(xùn),等等。循此,開(kāi)展相關(guān)科技活動(dòng)的組織可以通過(guò)設(shè)立委員會(huì)并發(fā)揮其指導(dǎo)、監(jiān)督、培訓(xùn)職責(zé),在組織架構(gòu)和活動(dòng)流程中內(nèi)化科技倫理。
科技倫理嵌入人工智能系統(tǒng)生命周期的各個(gè)環(huán)節(jié)中?!掇k法》第十五條規(guī)定:開(kāi)展人工智能倫理審查重點(diǎn)關(guān)注公平公正、可控可信、透明可解釋、責(zé)任可追溯和人員資質(zhì)等五個(gè)方面。其中,前四方面涵蓋數(shù)據(jù)的完整性和多樣性、算法模型和系統(tǒng)設(shè)計(jì)的合理性、系統(tǒng)設(shè)計(jì)的魯棒性和系統(tǒng)運(yùn)行的持續(xù)監(jiān)測(cè),等等,并且要求“采取日志管理等措施清楚記錄數(shù)據(jù)、算法、模型、系統(tǒng)各個(gè)環(huán)節(jié)的相關(guān)信息,保障全鏈路可追蹤和管理,出現(xiàn)問(wèn)題時(shí)可精準(zhǔn)定位具體環(huán)節(jié)并確定責(zé)任人”。換言之,從開(kāi)發(fā)研發(fā)時(shí)采集數(shù)據(jù)、設(shè)計(jì)系統(tǒng),再到完成之后投入應(yīng)用、持續(xù)運(yùn)行,人工智能系統(tǒng)的各個(gè)環(huán)節(jié)都要符合科技倫理規(guī)范。
科技倫理在組織和技術(shù)層面深刻嵌入人工智能,體現(xiàn)了人工智能規(guī)范體系建設(shè)的中國(guó)立場(chǎng)。從全球角度看,如何安置科技倫理在人工智能規(guī)范體系中的位置,如何處理科技倫理和法律規(guī)范的關(guān)系,長(zhǎng)期以來(lái)沒(méi)有公認(rèn)的答案。2024年,歐盟《人工智能法》正式通過(guò)。其序言部分第25條明確指出:人工智能的各項(xiàng)倫理原則一方面有助于設(shè)計(jì)融貫、可信賴(lài)、人類(lèi)中心的人工智能系統(tǒng),另一方面不能阻礙《人工智能法》和其他歐盟法律的實(shí)施。換言之,法律優(yōu)位于倫理,不在人工智能專(zhuān)門(mén)立法中設(shè)置倫理審查或類(lèi)似制度?!掇k法》體現(xiàn)了另一種思路,更重視科技倫理和法律規(guī)范形成合力、雙向銜接。未來(lái),隨著人工智能時(shí)代科技倫理更加重要,《辦法》可能為人工智能全球治理提供示范。
結(jié)合產(chǎn)業(yè)和技術(shù)動(dòng)向,可以探索科技倫理規(guī)范向個(gè)人用戶(hù)的拓展。當(dāng)前,高等學(xué)校、科研機(jī)構(gòu)、醫(yī)療衛(wèi)生機(jī)構(gòu)、企業(yè)等單位是科技倫理規(guī)范責(zé)任主體。隨著人工智能日益融入社會(huì)生活,個(gè)體用戶(hù)使用人工智能的場(chǎng)景和頻率增加。對(duì)其自身和其他用戶(hù)造成損害的可能性概率和嚴(yán)重程度,同樣相應(yīng)增加。如果個(gè)體用戶(hù)因使用人工智能成癮而遭受?chē)?yán)重?fù)p害,此時(shí)很可能需要倫理規(guī)范的介入;又如個(gè)體用戶(hù)使用人工智能“復(fù)活”追思逝者,可能導(dǎo)致更復(fù)雜的倫理問(wèn)題,等等。在人工智能時(shí)代,個(gè)體更有必要具備一定的科技倫理素養(yǎng)??蓮乃仞B(yǎng)培育入手,在已有公認(rèn)倫理判斷的場(chǎng)景中以柔性方式逐步建立規(guī)則。
結(jié)合產(chǎn)業(yè)和技術(shù)動(dòng)向,可以探索科技倫理主體向人工智能本身的拓展。當(dāng)前,人工智能系統(tǒng)只是倫理審查的對(duì)象之一。如《辦法》第二十一條和附件一規(guī)定:對(duì)于面向存在安全、人身健康風(fēng)險(xiǎn)等場(chǎng)景的具有高度自主能力的自動(dòng)化決策系統(tǒng),在開(kāi)展科技倫理初步審查的基礎(chǔ)上,還需要由相關(guān)專(zhuān)家開(kāi)展復(fù)核,確保其在公平公正、可控可信等各個(gè)方面符合要求。2024年來(lái),國(guó)際上開(kāi)始出現(xiàn)關(guān)于人工智能福祉的研究。換言之,承認(rèn)人工智能倫理主體地位,探索界定和尊重其福祉。少數(shù)前沿人工智能企業(yè)開(kāi)始在發(fā)布人工智能前實(shí)施福祉評(píng)估,甚至允許人工智能主動(dòng)中止和用戶(hù)的對(duì)話(huà)。當(dāng)然,人工智能福祉的研究,一方面才剛剛起步,另一方面如果取得結(jié)論,在政策上、產(chǎn)業(yè)上、學(xué)理上可能產(chǎn)生很大的影響??傊?,值得深入研究,目前還不成熟,有待更多的探討。
作者:同濟(jì)大學(xué)法學(xué)院助理教授、上海市人工智能社會(huì)治理協(xié)同創(chuàng)新中心研究員朱悅
鏈接:https://www.shobserver.com/staticsg/res/html/web/newsDetail.html?id=1004235