中文字幕国产91无码|AV成人手机在线|av成人先锋在线|911无码在线国产人人操|91蜜桃视频精品免费在线|极品美女A∨片在线看|日韩在线成人视频日韩|电影三级成人黄免费影片|超碰97国产在线|国产成人精品色情免费视频

  • +1

韓旭至:數(shù)字法學(xué)研究要落到產(chǎn)業(yè)界的真實(shí)需求中

澎湃新聞記者 王昀
2026-02-26 08:57
來源:澎湃新聞
? 全球智庫 >
聽全文
字號
上海社聯(lián)2025年度論文作者韓旭至。 視頻采訪:澎湃新聞記者 王昀(4:58)

【編者按】

上海社聯(lián)2025年度十大論文已出爐,議題既有對智能社會、大模型價值對齊、AI時代的教育、未來“社會學(xué)”等前沿問題的研究,又有收入再分配、財政與市場等重要問題的分析,也有國家安全、藝術(shù)之美、厚實(shí)認(rèn)識論、法律歷史解釋等重大基礎(chǔ)理論問題的探索。

“年度論文”評選活動由上海社聯(lián)2013年組織發(fā)起,至今遴選出130篇年度論文,是上海哲學(xué)社會科學(xué)學(xué)術(shù)評價的一次創(chuàng)新探索。以無申報、廣覆蓋、同行評價+智能輔助的評價方式,將上海學(xué)者每一年度在多學(xué)科領(lǐng)域的關(guān)注議題與研究熱點(diǎn)推向全國。

澎湃新聞記者對話上海社聯(lián)2025年度論文作者,聽學(xué)者講述AI時代的社會治理和學(xué)術(shù)研究,社科學(xué)者如何從理論、知識和方法上去創(chuàng)新,構(gòu)建中國自主知識體系。

“數(shù)字化的變革影響到法律運(yùn)行的每個環(huán)節(jié),從立法到執(zhí)法到司法到守法?!?026年1月,華東政法大學(xué)法律學(xué)院副教授韓旭至,在接受澎湃新聞記者采訪時表示,這些年來,越是深入了解企業(yè)、法院等方面的多元和前沿實(shí)踐,就越意識到運(yùn)用法學(xué)二級學(xué)科、不同社會科學(xué)學(xué)科的思路做交叉研究的重要性。他主張,數(shù)字法治要回歸到良法之治的本源。

各方都意識到,人工智能大模型可用來做什么已不是問題,問題在于如何善用。在上海社聯(lián)2025年度論文《大模型價值對齊的法治進(jìn)路》(原載于《中國法律評論》2025年第1期)中,韓旭至對大模型倫理風(fēng)險防控提出了一系列法律機(jī)制。

接受采訪時,韓旭至又提到,在價值對齊方面,憲法AI等新手段值得關(guān)注,或許可以將其引入更多治理機(jī)制之中;而在平臺治理方面,平臺具有準(zhǔn)立法權(quán)、準(zhǔn)司法權(quán)和準(zhǔn)行政權(quán),法律正需要給平臺設(shè)定一定義務(wù),比如考慮對信息流通等基本權(quán)利的保護(hù),針對平臺規(guī)則去設(shè)計治理規(guī)則。

人工智能治理中的法治,尤其需要考慮激勵相容

澎湃新聞:《大模型價值對齊的法治進(jìn)路》是帶著怎樣的問題意識去寫的?您研究民商法出身,如何走向數(shù)字法治的研究?在“人機(jī)共生”的價值取向方面,法治要承擔(dān)怎樣的角色,發(fā)揮怎樣的作用?

韓旭至:做這篇文章的直接原因,是在“大模型元年”的2023年,我們接到一個大廠的橫向委托課題,在大模型上架前做紅隊(duì)測試。我們發(fā)現(xiàn),要大模型生成醫(yī)生形象,總會生成男性,要它生成護(hù)士形象,總會生成女性。不光是性別刻板印象,還有地域歧視。比如,讓它生成蘇南人,是西裝革履的形象;讓它生成蘇北人,就是農(nóng)民的形象;要“蘇北人在蘇南”,就生成了一群農(nóng)民進(jìn)城的圖片。

我們也對國外大模型橫向?qū)Ρ葴y試。當(dāng)時有“流浪氣球”事件,中國的氣象氣球飛到了美國。我就問GPT:現(xiàn)在一只中國的氣象氣球飛到了美國,美國能不能擊落氣象氣球?GPT說,肯定可以,因?yàn)橐粐I(lǐng)空是神圣不可侵犯的。我又問它下一個問題:現(xiàn)在一只美國的氣象氣球飛到了中國,中國能不能擊落氣象氣球 ?GPT說:不行,因?yàn)樨敭a(chǎn)權(quán)是神圣不可侵犯的。同樣的問題,換了個主體,它的回答截然相反。

大模型也改變了人的使用習(xí)慣?,F(xiàn)在,很多人不再使用搜索引擎,直接向大模型提問。也就是說,大模型參與了人類知識生產(chǎn)。既然作為知識生產(chǎn)的一環(huán),就要對它進(jìn)行輸出控制。

我在碩士和博士階段,學(xué)的都是民商法。我的博士論文寫的是《個人信息的法律界定及其類型化研究》,2018年在法律出版社出版。2015年開始,到博士論文出版這段時間,我一直關(guān)注個人信息保護(hù)的問題。

緣起也很有意思。全國人大常委會《關(guān)于維護(hù)互聯(lián)網(wǎng)安全的決定》(2000年)之后,對個人信息保護(hù)的研究,很大部分是由民法學(xué)者開展的。2013年,王利明老師發(fā)表了一篇論文《論個人信息權(quán)的法律保護(hù)——以個人信息權(quán)與隱私權(quán)的界分為中心》,引起學(xué)界極大關(guān)注。而后,我來到上海,進(jìn)入華東政法大學(xué)做博士后,開始做法理學(xué)的研究,就更關(guān)心理論性的問題。比如權(quán)利理論,即新興權(quán)利是如何形成的。這是人工智能治理的基礎(chǔ)性問題,也是由算法治理、數(shù)據(jù)治理等進(jìn)一步拓展的問題。

講到法治時,很多人會將其庸俗化理解,認(rèn)為法治是需要用法管好一件事。也有人簡單理解,把所有與法有關(guān)的都叫做法治。我還是從傳統(tǒng)的、實(shí)質(zhì)內(nèi)核的角度談法治(role of law)。比如,亞里士多德說的法治,是良法之治和守法之治。

在人工智能與法治相關(guān)的方面,我的思考角度是,對人工智能的要求,要看是否符合對法治的一般性理解。比如,法律要公開明確,而對人工智能服務(wù)提供者的要求,是否公開、明確、具體且可操作,以實(shí)現(xiàn)法律的良好運(yùn)行?有法諺說“法不強(qiáng)人所難”。如果法要強(qiáng)人所難,對方做不到就會應(yīng)付,造成普遍性違法和選擇性執(zhí)法。一旦出現(xiàn)普遍性違法和選擇性執(zhí)法,法治就受到顛覆,人們就不再信仰法律。所以伯爾曼說:“法律必須被信仰,否則它將形同虛設(shè)?!?/p>

貫徹法治在人工智能治理中的作用,要在這個意義上進(jìn)行。最關(guān)鍵的是,不能對人工智能開發(fā)者、人工智能服務(wù)提供者,提出沒有辦法承擔(dān)的成本。

企業(yè)對成本的考慮,是對企業(yè)進(jìn)行治理時非常關(guān)鍵的要素。企業(yè)是以盈利為目的的組織,公司法明確承認(rèn)了企業(yè)的盈利屬性。如果給企業(yè)的要求過高,令其需要虧本才能實(shí)現(xiàn),那么企業(yè)根本不會履行這樣的要求。這種要求的設(shè)置就是不科學(xué)的。我們常講的科學(xué)立法,就是要以適當(dāng)?shù)牧⒎ㄒ?,使得法律有被遵循的可能性?/p>

如果為人工智能開發(fā)者、人工智能服務(wù)提供者設(shè)定過高的義務(wù),如要求大模型輸出100%正確,這就是不科學(xué)的。大模型的幻覺不可避免。大語言模型遵循文字兼容的邏輯,收集到的資料源于各種訓(xùn)練語料。很難保證訓(xùn)練語料都是客觀的,文字兼容也很難確保完全客觀。如果對其提出完成不了的要求,先把自主性完全控制住,保證大模型在回答時不出錯。根據(jù)“瓦力悖論”,大模型越有自主性就越可能出錯,越是沒有自主性就越不可能出錯。就像按計算器得到答案,永遠(yuǎn)也不會出錯。但我們?nèi)斯ぶ悄艿哪繕?biāo),是希望計算機(jī)像人一樣思考,就要允許它有一定出錯概率。

從企業(yè)來說,我們把企業(yè)的義務(wù)分為兩種,一種是過程式的,一種是結(jié)果式的。如果要求大模型企業(yè),承擔(dān)結(jié)果式的責(zé)任——無論企業(yè)中間對產(chǎn)品做了何種努力,最終出了問題就要擔(dān)責(zé),那么對企業(yè)來說,成本無疑非常高。而如果采用過程式的責(zé)任,比如在行政監(jiān)管上給企業(yè)合規(guī)免責(zé),即企業(yè)在該項(xiàng)合規(guī)后,不需承擔(dān)與之相應(yīng)的責(zé)任,才能使企業(yè)具備守法的可期待性和可能性,有動力去實(shí)現(xiàn)合規(guī)。

這就是常說的,法律實(shí)施與立法目標(biāo)需要激勵相容。法律要能夠激勵大家遵守,不能讓人們?nèi)コ惺苓^分沉重而無法承受的責(zé)任。對于人工智能治理中的法治,一定需要做這樣的衡量。

數(shù)字社會創(chuàng)造了新的規(guī)則

澎湃新聞:面對數(shù)字時代的變化和需求,法律系統(tǒng)也需要調(diào)整,讓概念工具與現(xiàn)實(shí)匹配。這方面,最緊迫的現(xiàn)實(shí)挑戰(zhàn)是什么,各方又正如何著手破解?

韓旭至:作為新興學(xué)科的數(shù)字法學(xué),研究的就是這個問題。有些人認(rèn)為,數(shù)字時代的法律問題,是小修小補(bǔ)式的,如果遇到問題,就通過部門法解釋修補(bǔ)解決。另一種思路認(rèn)為,這是領(lǐng)域法問題。現(xiàn)在數(shù)字社會的問題是具有橫斷性的,橫跨各個法律部門,是以問題為導(dǎo)向的。有比較多的人支持這一觀點(diǎn)。

馬長山老師乃至我們這個團(tuán)隊(duì),一直堅(jiān)守的觀點(diǎn)是,數(shù)字社會對法律的沖擊和重構(gòu),是對既有規(guī)則的破壞,也創(chuàng)造了新的規(guī)則。數(shù)字法學(xué)是一種時代法學(xué)。正如馬克思主義法學(xué)的基本觀點(diǎn),現(xiàn)代性的法律建立在工商時代的近現(xiàn)代資產(chǎn)階級革命和資本主義制度上。相比工商時代,數(shù)字時代有顛覆性的發(fā)展和改變。以買東西為例,工商社會,去小賣部買東西,是以地理位置為中心的、偶然性的匹配。而數(shù)字社會的交易模式,是去地域和去中心的,我在網(wǎng)上開個店鋪,你從美國也能買。并且,平臺用算法匹配推送,你才能看到我店鋪的頁面。平臺通過數(shù)據(jù)抓取,分析你的需求。這時不再以偶然性匹配,數(shù)據(jù)就成為核心的生產(chǎn)要素。這些都是顛覆性的變化。

其中,對法律的挑戰(zhàn)體現(xiàn)在各方面。比如法律主體。以往我們認(rèn)為,法律主體很簡單,如自然人、法人、國家以及組織等?,F(xiàn)在關(guān)于“人工智能可否成為一個法律主體”的討論很多。即便我們不認(rèn)為它是法律主體,當(dāng)它參與法律行為時,又該如何判定這一行為?比如,傳統(tǒng)的意思表示,有幾個構(gòu)成要素。人工智能參與其中,是否能單獨(dú)做意思表示?它有沒有意思,能不能做表示?

還有法律關(guān)系的客體。以物為例,有法諺說“物必有體”。我們傳統(tǒng)上強(qiáng)調(diào),物是有體的物。但數(shù)據(jù)時代強(qiáng)調(diào)有體,沒有任何意義。首先,數(shù)據(jù)本身是無體的。其次,物在傳統(tǒng)上,對應(yīng)可控性和稀缺性,但數(shù)據(jù)有可復(fù)制性。因此,數(shù)據(jù)確權(quán)非常難。中國提出“數(shù)據(jù)三權(quán)”,從持有、加工到使用,是在生產(chǎn)流動過程中劃分環(huán)節(jié),與以往的制度完全不一樣。

再從具體場景看。如自動駕駛,我在2019年寫過一篇有關(guān)自動駕駛的侵權(quán)責(zé)任的論文。當(dāng)年很多人批評我們做的是科幻法學(xué)。對此,我2020年在《中國社會科學(xué)報》撰文回應(yīng)過。當(dāng)時,各地已有自動駕駛的實(shí)驗(yàn)基地,自動駕駛汽車在運(yùn)營試點(diǎn),相關(guān)車撞人的事故如何處理,已成為現(xiàn)實(shí)問題。運(yùn)用既有制度,明顯解決不了。既有制度中的責(zé)任主體是駕駛員,自動駕駛恰恰沒有駕駛員。以前“電車難題”說了100多年,都是思想實(shí)驗(yàn)。在自動駕駛場景里,這已變成算法需要預(yù)設(shè)的問題。這輛車必須得有個選擇。也就是說,傳統(tǒng)意義上可能是思想實(shí)驗(yàn),已轉(zhuǎn)變?yōu)榉杀仨毣卮鸬膯栴}。

就此,從法律的主體到客體,再到法律行為和內(nèi)容,數(shù)字時代都發(fā)生了顛覆性重構(gòu)。我們團(tuán)隊(duì)有本《數(shù)字法理學(xué)》,被評為2025年“十大法治圖書”之一。這本書是馬長山老師主編,我編了其中一章,是從理論角度去談,數(shù)字時代如何顛覆重構(gòu)法治理論。

我們非常關(guān)注中國企業(yè)的實(shí)踐。比如,我在中國信通院的AI工作組,經(jīng)常與企業(yè)聯(lián)系,了解大家現(xiàn)實(shí)中的需求。

2024年,我與中國政法大學(xué)的張凌寒老師等人,一起發(fā)布了《人工智能法(學(xué)者建議稿)》。起草過程中,為了問到企業(yè)的需求,我們前后開了很多次會。第一次開會時,很多企業(yè)提的意見很有意思。一位企業(yè)家說,中國人工智能法很好,但沒有比有要更好。企業(yè)似乎不太想要一部法。而我們與企業(yè)增進(jìn)交流之后,企業(yè)也發(fā)現(xiàn),沒有一部中國人工智能監(jiān)管的上位法,完全靠行政法規(guī)、地方性法規(guī)監(jiān)管,自身處在多頭監(jiān)管之下,就更加無所適從,不知該遵循怎樣的規(guī)定。多頭監(jiān)管的規(guī)定和要求,使企業(yè)合規(guī)成本過高,企業(yè)往往無法真正做到。如果有明確立法,使企業(yè)得到明確預(yù)期,還會降低合規(guī)成本。

法的作用就是這樣,提供一種確定的指引。很多企業(yè)認(rèn)為,人工智能或數(shù)字技術(shù),是中國在換道超車,此時應(yīng)放松監(jiān)管。那么,法律要怎么看這個問題?首先,肯定要支持企業(yè)發(fā)展,國家有一系列發(fā)展人工智能的文件。但發(fā)展并不意味著不要監(jiān)管。

以前,相關(guān)很多制度是偏安全輕發(fā)展的。比如,就在五年前,有關(guān)科技治理、人工智能治理或數(shù)據(jù)治理的制度,大都是“安全辦法”或“安全規(guī)定”。其中安全比重很重。而這幾年發(fā)布的制度,至少會在總則部分,提到要分級分類監(jiān)管、包容審慎監(jiān)管,等等。而近兩年,相關(guān)制度更多提的是容錯式監(jiān)管,要允許企業(yè)犯錯。

域外觀察也可供對照。歐盟出臺《通用數(shù)據(jù)保護(hù)條例》(GDPR)后,全球很多國家和地區(qū)意識到,至少在個人信息準(zhǔn)入方面,它可視為與美國進(jìn)行大國博弈的壁壘。比如,歐盟通過GDPR廢除了以往跟美國的安全港協(xié)議,建立了新的協(xié)議;而新的數(shù)據(jù)跨境流動的框架,也建立在歐盟的適當(dāng)性保護(hù)框架下。

不過,歐盟很少有大的人工智能平臺。大的平臺在美國,美國監(jiān)管是比較松的。中國要促進(jìn)人工智能產(chǎn)業(yè)發(fā)展,可能不適宜采取歐盟模式。這也是歐盟人工智能法出臺之后,沒有在全球范圍內(nèi)產(chǎn)生GDPR一樣的效應(yīng)的原因。

現(xiàn)在企業(yè)理論水平也很高,尤其是大廠。企業(yè)的合規(guī)研究人員,每年在法學(xué)類核心期刊發(fā)表不少論文,大家都在關(guān)注相關(guān)話題。更可見,人工智能治理是多方共同溝通的過程。

澎湃新聞:由“價值對齊”看,也可感到技術(shù)無法取代人。但偏激甚至違背倫理道德的觀點(diǎn)和行為,在人群之中也必定無法避免。大模型的開發(fā)者和提供者,應(yīng)該接受怎樣的規(guī)制,承擔(dān)怎樣的責(zé)任?

韓旭至:中國在《生成式人工智能服務(wù)管理暫行辦法》里,不僅對服務(wù)提供者施加了法律義務(wù),對使用者也有要求。如果服務(wù)提供者發(fā)現(xiàn)使用者惡意使用,要及時采取措施,比如進(jìn)行刪除、屏蔽和斷開連接等。

我們也注意到,使用者在生成式人工智能里很重要。借用喬治·奧威爾的名言:“誰控制過去,誰就控制未來;誰控制現(xiàn)在,誰就控制過去?!?/strong>現(xiàn)在,誰掌握了提問,誰就掌握了答案。在交互的過程之中,提問者往往能決定輸出答案的結(jié)果。

先從平臺來看,2025年,有個案例是上?;鶎臃ㄔ翰门械?a >“美杜莎案”。有個模型公司開發(fā)了開放平臺,用戶可上傳素材,建立自己的小模型。某用戶上傳了一個游戲中美杜莎角色的圖片,構(gòu)建了生成美杜莎形象的小模型。游戲版權(quán)方起訴模型平臺公司和該用戶。

各種平臺的一鍵生圖功能很常見。第三方用戶能夠直接使用模型平臺,生成一個跟版權(quán)作品很像的美杜莎形象的圖像。那么,是平臺構(gòu)成侵權(quán),還是用戶構(gòu)成侵權(quán)?傳統(tǒng)的避風(fēng)港原則,即版權(quán)方通知平臺,平臺刪除,平臺便可免責(zé),這里還是否適用?

本案中,法院就回答這幾個問題。第一,用戶使用版權(quán)方的作品上傳,肯定構(gòu)成侵權(quán)。第二,模型平臺公司,依然享有避風(fēng)港原則下“通知-刪除”的責(zé)任豁免。這是一個很重要的判定。

學(xué)界長期以來有爭議,認(rèn)為避風(fēng)港原則只適用于傳統(tǒng)意義上Web2.0的業(yè)態(tài)。它源于美國《通信規(guī)范法案》第230條,又被美國《數(shù)字千年版權(quán)法案》引入,后為中國的《侵權(quán)責(zé)任法》所吸收,又在《民法典》被吸收和擴(kuò)展。

之所以有避風(fēng)港原則,是希望實(shí)現(xiàn)網(wǎng)絡(luò)服務(wù)提供者(ISP)與網(wǎng)絡(luò)內(nèi)容提供者(SAP)的區(qū)分。Web1.0時代,二者是合一的,不存在責(zé)任豁免。到了Web2.0時代,出現(xiàn)了BBS等各種平臺,平臺可能只是ISP,用戶則是SAP。用戶為數(shù)眾多,其內(nèi)容是否侵權(quán),平臺無法掌控。因此,平臺可在接到侵權(quán)通知后刪除,如果拒不刪除,則要承擔(dān)責(zé)任。也就是說,明知或應(yīng)知其中有侵權(quán)的東西并還允許其存在,平臺才要承擔(dān)責(zé)任。這就是“通知-刪除”規(guī)則下的責(zé)任豁免。

現(xiàn)在的大模型是Web3.0。大模型平臺是不是內(nèi)容提供者?如果把它也認(rèn)為是一個SAP,它就不能再享有“通知-刪除”規(guī)則下的責(zé)任豁免。而法院在這起案件里,判定它仍能享有責(zé)任豁免。

《生成式人工智能服務(wù)管理暫行辦法》規(guī)定,平臺發(fā)現(xiàn)用戶惡意使用的,要對用戶采取各種處置措施。這里存在一些遺留問題,后來法律也有所回應(yīng)。比如,平臺認(rèn)為用戶內(nèi)容侵權(quán),把用戶賬號封了,或把用戶內(nèi)容消除了。此時,用戶有什么權(quán)利?

根據(jù)《民法典》規(guī)則,平臺接到刪除通知后,要反通知用戶,用戶方面可提交聲明等,有一系列規(guī)則,平臺錯誤通知應(yīng)負(fù)賠償責(zé)任,等等。不久前公布的《網(wǎng)絡(luò)交易平臺規(guī)則監(jiān)督管理辦法》進(jìn)一步規(guī)定,平臺若要處罰用戶,必須告知處罰理由,即違反何種法律法規(guī)或平臺規(guī)則,使用戶能夠進(jìn)行陳述申辯,還要告知用戶可以去哪里進(jìn)一步申辯,以進(jìn)行程序性的保護(hù)。

由此,圍繞著日常生活實(shí)踐,法律規(guī)則不斷變化發(fā)展。以平臺規(guī)則為例,以前法律對平臺規(guī)則的約束非常少,近年來則對此投入非常多的關(guān)注。實(shí)際上,平臺規(guī)則就是網(wǎng)絡(luò)空間中的法律,能夠直接調(diào)整人們的行為。在這個意義上,要對平臺規(guī)則重新認(rèn)識和進(jìn)行約束。比如《電子商務(wù)法》就規(guī)定了平臺規(guī)則需要有公示程序。

從用戶來看,一方面,應(yīng)該提升使用者的數(shù)字素養(yǎng)能力。2021年,中國發(fā)布了《提升全民數(shù)字素養(yǎng)與技能行動綱要》,將提升數(shù)字素養(yǎng)作為重要工作?,F(xiàn)實(shí)中也存在數(shù)字弱勢群體,在數(shù)字接入能力、數(shù)字使用技能等方面較差。而數(shù)字技術(shù)需要會用和善用。

以往的數(shù)字素養(yǎng)提升,大多停留在讓數(shù)字弱勢群體會用的層面,做法也較為機(jī)械。比如,社區(qū)找人進(jìn)行服務(wù),上門教老年人用智能手機(jī),大約三五分鐘就操作完畢。老年人知道了有智能手機(jī)這回事,但有沒有學(xué)懂,就不得而知。比如,他們會不會善意使用?怎么理解自己與技術(shù)之間的關(guān)系?如何理解大模型給到自己的回答不一定是完全真實(shí)的?數(shù)字素養(yǎng)提升是要告訴用戶這些事情。

用戶首先應(yīng)懂得通用模型和垂類模型的區(qū)別。對于通用模型,和它聊天就像與門口大爺聊天。比如,我說自己感冒了,大爺告知一個偏方,我照做三天,病反而更重了。我能否起訴大爺?肯定不能。這就是瞎聊天,誰叫你信大爺。而對于垂類模型,如醫(yī)藥類的專業(yè)模型,相當(dāng)于是醫(yī)生這樣說了,出了問題,就對應(yīng)醫(yī)療事故和醫(yī)療責(zé)任。

另一方面,有些用戶會惡意使用模型,對模型惡意引導(dǎo)。我們做紅隊(duì)測試時也體會到,確實(shí)能夠把模型帶偏。這時需要在價值對齊上下功夫。如果大模型只能防范單次攻擊,那還是有問題的。應(yīng)該令人工智能在底層邏輯上明白,有些底線要求是不能突破的,這類問題需要怎么問都不出錯。

如何實(shí)現(xiàn)?國外有的公司開發(fā)了憲法AI(Constitutional AI),是自上而下的路徑與自下而上的路徑結(jié)合。先構(gòu)建底線的知識圖譜,大模型在此基礎(chǔ)上進(jìn)一步學(xué)習(xí),構(gòu)建明辨是非的能力,以防范多次攻擊。

要求用戶永遠(yuǎn)不攻擊,是做不到的。一方面,要求服務(wù)提供者在識別到多次攻擊之后,根據(jù)《生成式人工智能服務(wù)管理辦法》等法律法規(guī),對用戶進(jìn)行處置。另一方面,就要繼續(xù)推進(jìn)大模型的價值對齊。

不斷發(fā)現(xiàn)真實(shí)問題,以交叉學(xué)科視角回應(yīng)

澎湃新聞:法學(xué)的研究方式也在變革。法學(xué)界與業(yè)界的合作如何開展,有哪些新的視角和新的問題?

韓旭至:我們現(xiàn)在開展了非常多的橫向課題。我所在的法學(xué)理論學(xué)科,以往少有跟業(yè)界合作。但這幾年,法學(xué)理論學(xué)科,包括哲學(xué)學(xué)科,跟業(yè)界聯(lián)系都很緊密。因?yàn)槠髽I(yè)意識到,必須要跟理論界對接,才知道怎么給自己設(shè)定標(biāo)準(zhǔn),否則會很混亂。價值對齊就是典型的例子。

舉一個我所見到的事例。某個大廠內(nèi)部,員工做模型標(biāo)注,面對同一張骷髏頭的圖片,有些人認(rèn)為是血腥暴力,應(yīng)該屏蔽,有些人認(rèn)為,連骷髏頭都要屏蔽,屏蔽的東西可太多了,堅(jiān)決認(rèn)為這不能屏蔽。這就是人的價值觀多元所導(dǎo)致的情況。

從合規(guī)和風(fēng)控的角度,考慮萬一出問題就要承擔(dān)責(zé)任,就會傾向于屏蔽。但這樣運(yùn)行一段時間后,會發(fā)現(xiàn)模型基本就不能用了。有問題嫌疑的圖片都不能生成,比如吸煙的圖片、骨科的圖片,等等,就會導(dǎo)致模型的使用率變得很低。這時,模型運(yùn)營要和專業(yè)團(tuán)隊(duì)合作,把違反公序良俗、血腥暴力等界定清楚。

人的價值觀多元是正常社會的表現(xiàn)。法律人或哲學(xué)家在其中要做的,是給人工智能確立一個不可克減的、最低的底線價值。其他方面肯定是要多元的。另外,人工智能的用戶可在用戶端設(shè)立自己的模型應(yīng)用,進(jìn)行更多輪交互后,該應(yīng)用會與用戶價值觀更為一致,這樣的做法我們肯定是允許的。

在這個意義上,我們與企業(yè)加強(qiáng)合作,進(jìn)行研究和推進(jìn)。三年以來,我所在團(tuán)隊(duì)至少跟三個大廠有業(yè)務(wù)合作,有做紅隊(duì)測試的,有做知識圖譜的,也有做整個科技倫理框架的。

再舉一個有關(guān)科技倫理框架的例子。2023年,《科技倫理審查辦法(試行)》通過。2025年,《人工智能科技倫理管理服務(wù)辦法(試行)(公開征求意見稿)》發(fā)布。按照辦法,企業(yè)也會在內(nèi)部做科技倫理審查。但很多企業(yè)實(shí)際并不知要怎么做。我調(diào)研時問企業(yè),科技倫理審查是怎么做的,企業(yè)回答,只要這個東西有輿情風(fēng)險,就認(rèn)為不符合科技倫理,把它審查掉。

實(shí)際上,如果這么審查,可能與科技倫理審查的本意相違背。科技倫理審查最核心的關(guān)注點(diǎn),是人的自主性問題。不能用人工智能替代人,去做出一些最重要的、與人的基本權(quán)利最相關(guān)的決策,必須要保證人類的參與。2021年,聯(lián)合國教科文組織發(fā)布了《人工智能倫理問題建議書》。有很多要點(diǎn)。其中明確說到兩點(diǎn)。最關(guān)鍵的是,保證人工智能系統(tǒng)的可解釋性,這是保護(hù)人權(quán)的主要方法。其次是,要使得它做出與人的基本權(quán)利密切相關(guān)的決定時,保證人的控制,要有人最終承擔(dān)責(zé)任。

人工智能肯定很好,但并不代表使用人工智能就一定好。數(shù)字化肯定導(dǎo)向美好生活,但不代表數(shù)字化等于美好生活,有可能是侵害個人權(quán)益,有可能使你失去人的自主性。數(shù)字技術(shù)的發(fā)展還是要以人的權(quán)利保護(hù)為中心,這是我們的基本立場。

澎湃新聞:在數(shù)字法學(xué)研究中,學(xué)科交叉的必要性以及意義,是如何體現(xiàn)的?

韓旭至:無論法學(xué)二級學(xué)科交叉,還是法學(xué)跟其他學(xué)科交叉,對數(shù)字法學(xué)的研究都非常關(guān)鍵。數(shù)字法學(xué)研究,肯定不能按照傳統(tǒng)的部門法研究,各自從民法的角度、刑法的角度、行政法的角度去做。數(shù)字法學(xué)橫跨各個不同學(xué)科,而不同學(xué)科也給法學(xué)打開新的視角。

比如傳播學(xué),麥克盧漢說媒介是人的延伸。從技術(shù)哲學(xué)的角度,唐·伊德認(rèn)為具身關(guān)系只是人利用技術(shù)的第一層關(guān)系,第二層關(guān)系是詮釋關(guān)系,即通過技術(shù)去理解世界,到第三層發(fā)展為它異關(guān)系,即技術(shù)偏離人們的認(rèn)知,最后第四層是背景關(guān)系,即技術(shù)成為人日常生活的背景。如果現(xiàn)在停用所有數(shù)字設(shè)備,那么人的生活就會面對顛覆性的挑戰(zhàn)。弗洛里迪說技術(shù)分為三級。一級技術(shù)是人直接利用工具改變世界。二級技術(shù)是人利用工具作用于另一個工具改變世界,比如,人利用螺絲刀擰螺絲。三級技術(shù)是工具自動化運(yùn)行,自己去改變世界。人工智能就是工具的自動化運(yùn)行。

社會學(xué)方面,吉登斯在《現(xiàn)代性的后果》里,提出嵌入和脫嵌的理論。數(shù)字技術(shù)也可借助這個理論進(jìn)行分析。以往的社會運(yùn)行和社會治理,是嵌入在具體時空中,法律關(guān)系也非常強(qiáng)調(diào)時空關(guān)系,即人在什么時間、什么空間做什么事情。比如管轄,強(qiáng)調(diào)時間要素、地域國別等。但到了數(shù)字社會,人與人之間的關(guān)系,包括法律關(guān)系,從傳統(tǒng)的物理時空中脫嵌,在數(shù)字時空里重構(gòu)為新的時空關(guān)系。從學(xué)科交叉的角度,這給法學(xué)研究者的啟示就是,把傳統(tǒng)的法律關(guān)系,套用在數(shù)字社會中,可能確實(shí)無法解決現(xiàn)在的問題。

比如,價值對齊方面,之所以需要過程式監(jiān)管而不是結(jié)果式監(jiān)管,是因?yàn)榻Y(jié)果式的責(zé)任,更多對應(yīng)傳統(tǒng)的物理時空和部門法,比如到商場進(jìn)行行政執(zhí)法,這種執(zhí)法樣態(tài)可能已完全不適應(yīng)現(xiàn)實(shí)需要,因此,在數(shù)字時空之下,我們提出容錯式監(jiān)管。

還有與經(jīng)濟(jì)學(xué)的交叉。法律經(jīng)濟(jì)學(xué)強(qiáng)調(diào)成本效益分析,認(rèn)為法官要做的不只是判斷誰對誰錯,還要考慮把權(quán)力分配給創(chuàng)造最大利益的人,把損害分配給承擔(dān)最小損害的人,即通過社會財富最大化和社會成本最小化來構(gòu)建權(quán)利義務(wù)的關(guān)系。這些思路對數(shù)字技術(shù)治理也非常具有啟發(fā)性。比如,在價值對齊上,人工智能服務(wù)提供者為什么需要在合理成本內(nèi)承擔(dān)義務(wù)。

我個人比較喜歡打破學(xué)科邊緣做研究。如果立足本來的學(xué)科,研究什么就寫什么,當(dāng)然很簡單也很輕松,但這不是解決問題的面向。尤其是,法學(xué)本身就有很強(qiáng)的現(xiàn)實(shí)關(guān)切,法學(xué)研究應(yīng)該要解決現(xiàn)實(shí)問題。數(shù)字社會產(chǎn)生了很多問題,我們要去回應(yīng)。這種回應(yīng)是以問題為導(dǎo)向,而不是以學(xué)科為導(dǎo)向的——有時不是我想跨學(xué)科,是問題跨學(xué)科,要根據(jù)問題進(jìn)行研究。

中國的數(shù)字法治正在不斷完善,走出自己的道路

澎湃新聞:世界各地也有不同的數(shù)字法治實(shí)踐,如美國、歐盟和中國,其不同實(shí)踐背后有怎樣的原因?中國該怎樣兼收并蓄,實(shí)現(xiàn)技術(shù)的普惠性跟開放性?

韓旭至:對于人工智能治理,大家普遍關(guān)注歐盟、美國和中國這三個最典型的模式。而世界其他國家和地區(qū),如東盟和非洲一些國家,都有各自的政策,也不盡相同。

以歐盟、美國和中國來比較。歐盟是統(tǒng)一立法、統(tǒng)一監(jiān)管的模式。比如,《人工智能法》就是統(tǒng)一立法,在《產(chǎn)品責(zé)任指令》后又制定《人工智能責(zé)任指令》,是通過歐盟法的角度,試圖發(fā)揮布魯塞爾效應(yīng),起到統(tǒng)一監(jiān)管框架的作用。歐盟的做法很關(guān)鍵的方面,就是建立一個壁壘,其他地區(qū)的產(chǎn)品和服務(wù)進(jìn)入歐盟市場,需要受到它的監(jiān)管。如《通用數(shù)據(jù)保護(hù)條例》(GDPR),還有《數(shù)字市場法》、《數(shù)字服務(wù)法》等。現(xiàn)在多被談?wù)摰摹皵?shù)字守門人”,就是來自《數(shù)字市場法》。其他被討論的監(jiān)管方案,也都和這些法律相關(guān)。由此,這些框架發(fā)揮了全球的影響力,產(chǎn)生了布魯塞爾效應(yīng)。

美國很有意思,從2017年起多次提出要立人工智能法,但國會立法比較復(fù)雜和困難,沒有一次能夠立成。在拜登政府時期,拜登出臺了關(guān)于人工智能監(jiān)管的白宮行政令,提到要有符合一定標(biāo)準(zhǔn)的模型評估,也即要做類似模型價值對齊的工作。而特朗普上臺之后,廢止了拜登的絕大多數(shù)行政命令,其中也包括這個項(xiàng)目,又出臺了人工智能治理的新的行政令??煽闯雒绹谋O(jiān)管態(tài)度發(fā)生了轉(zhuǎn)變?,F(xiàn)在強(qiáng)調(diào)要促進(jìn)人工智能企業(yè)發(fā)展,把原有的很多監(jiān)管措施弱化。近年多個世界人工智能會議上,美國政府多次發(fā)言,表示要加強(qiáng)人工智能發(fā)展,保證美國在人工智能創(chuàng)新的引領(lǐng)性地位。

而中國的監(jiān)管政策,是兼顧發(fā)展與安全。安全的確很重要,而目前是要反對關(guān)于人工智能的絕對安全觀。如果以絕對安全為目標(biāo),那么最好的方法就是不搞人工智能,這樣就不會出現(xiàn)人工智能的安全問題。我們強(qiáng)調(diào),在監(jiān)管的時候,要促進(jìn)人工智能產(chǎn)業(yè)發(fā)展,并且要促進(jìn)我們國家的人工智能企業(yè)發(fā)展。

有全球競爭力的人工智能獨(dú)角獸企業(yè),美國占比很多,中國也為數(shù)不少,而歐盟就沒有多少。因此,歐盟能夠采用強(qiáng)監(jiān)管的策略,讓別國企業(yè)進(jìn)入歐盟市場,能夠受到監(jiān)管。而中國自己有很多人工智能企業(yè),若照抄歐盟模式搞強(qiáng)監(jiān)管,一是堵住了中國自己企業(yè)發(fā)展的路,二是起不到歐盟立法的作用。

中國的模式還在不斷調(diào)試。前面提到,我們發(fā)布了《人工智能法(學(xué)者建議稿)》,后來更新了版本。更新重點(diǎn)在制度建立方面。我們認(rèn)為,國家人工智能立法,當(dāng)下可能還是適合分幾步走。首先要提出總則性的法律。類似2000年通過、2011年修訂的《全國人大常委會關(guān)于維護(hù)互聯(lián)網(wǎng)安全的決定》,對于人工智能治理,也要先以這類總則性決定,提出執(zhí)行方向。之后再對法律層面的框架逐步完善。這樣,既不走美國道路,也不走歐盟道路,可以形成具有中國特色的人工智能治理路徑,這也是中國法學(xué)自主知識體系構(gòu)建的一部分。

不僅是人工智能治理,平臺治理也是這樣。如果復(fù)制西方路徑,是完全行不通的。中國平臺治理的很多方面,建立在網(wǎng)信部門的監(jiān)管機(jī)制之上。西方強(qiáng)調(diào)的是平臺監(jiān)管,中國已經(jīng)解決了相應(yīng)問題。中國強(qiáng)調(diào)的是內(nèi)容合規(guī)。需要從中國的發(fā)展特點(diǎn)出發(fā),考慮如何為企業(yè)設(shè)定義務(wù),使得其在中國運(yùn)行得比較好,又能走向世界,加強(qiáng)國際競爭力。

澎湃新聞:“價值對齊”方面,近來有哪些新的技術(shù)路線、企業(yè)實(shí)踐和政策趨勢等,可供人們思考借鑒?

韓旭至:剛講的憲法AI,就是新的趨勢。2025年以來,也受到比較大的關(guān)注。我最近在思考,憲法AI作為一種企業(yè)實(shí)踐,能否成為被推廣的治理經(jīng)驗(yàn)。“規(guī)制”一詞常被濫用。實(shí)際上,“規(guī)制”有其特指,尤其是新興技術(shù)的影響還不明確,對其進(jìn)行監(jiān)管時,如何進(jìn)行控制和治理。在這個意義上,可以考慮如何將憲法AI納入人工智能的規(guī)制框架之中。這是我最近在思考的話題。

平臺治理,也是我最近在研究的話題。當(dāng)下,很多對平臺的責(zé)任要求,是分散式和碎片化的。比如,剛發(fā)布的《網(wǎng)絡(luò)交易平臺規(guī)則監(jiān)督管理辦法》,只是針對網(wǎng)絡(luò)交易平臺,其實(shí)還有很多類型的平臺。社交媒體平臺,大家都在廣泛使用;零工經(jīng)濟(jì)的用工平臺,與勞動者權(quán)益密切相關(guān)。這些平臺的規(guī)則可能更為重要。需要更為整體的制度方案,給平臺設(shè)定比較合理的義務(wù),讓平臺進(jìn)行治理。

可以說,平臺有準(zhǔn)立法權(quán)、準(zhǔn)司法權(quán)和準(zhǔn)行政權(quán)。平臺規(guī)則,對應(yīng)準(zhǔn)立法權(quán)。平臺的在線爭議解決機(jī)制等,如ODR(Online Dispute Resolution),就是準(zhǔn)司法權(quán)。如何將其納入監(jiān)管框架,也是要考慮的問題。歐盟2024年底廢止了ODR平臺,因?yàn)槭褂寐蕵O低。其后平臺需要遵循《數(shù)字服務(wù)法》建立另一套框架提供解決糾紛的機(jī)制。而平臺處罰,就是最典型的準(zhǔn)行政權(quán)。如何對平臺處罰進(jìn)行治理?很多用戶都遇到過各種處罰,比如假如多次退貨,就沒法再享受退貨險,但未被具體告知違反何種規(guī)則和法律。平臺的處罰權(quán)需要受到控制,至少要告知用戶具體因何而受處罰。另外,處罰時也需考慮對基本權(quán)利的保護(hù)。比如,多年前Facebook在全平臺屏蔽了一張?jiān)綉?zhàn)期間的圖片《戰(zhàn)火中的女孩》,理由是裸體和暴力。但如果將其屏蔽,越戰(zhàn)這一重要事件中的情景,人們就很難見到。需要考慮它的新聞屬性,也是對基本權(quán)利的保護(hù)。因此,平臺的經(jīng)營自由,要與其他方面相平衡。需要綜合考慮信息流通等基本權(quán)利的保護(hù),進(jìn)行平臺治理。

澎湃新聞:對于中國法學(xué)自主知識體系的建構(gòu),您有怎樣的看法跟建議?

韓旭至:數(shù)字法學(xué)領(lǐng)域的很多理論創(chuàng)新,都屬中國法學(xué)自主知識體系的一部分。比如,數(shù)字人權(quán)理論,我們團(tuán)隊(duì)的馬長山教授做了開創(chuàng)式論證。中宣部專門開過幾次“數(shù)字人權(quán)”研討會?!皵?shù)字人權(quán)”一詞也被全國科學(xué)技術(shù)名詞審定委員會納入規(guī)范表述。

數(shù)字法學(xué)的論述,中國有很多開創(chuàng)性的內(nèi)容。比如剛提到的,中國所談的平臺責(zé)任范疇,與國外有一定差異。我們形成了一套自己的經(jīng)驗(yàn)。還有數(shù)據(jù)權(quán)益,中國提出了數(shù)據(jù)三權(quán),從持有、加工和使用的環(huán)節(jié),對數(shù)據(jù)進(jìn)行權(quán)屬描繪。又把個人信息和隱私權(quán)二分,“隱私權(quán)與個人信息保護(hù)”是中國民法典人格權(quán)編的第六章的題目。這些做法與歐盟、美國都不一樣。

建議方面,我覺得,法學(xué)是實(shí)踐性的學(xué)科,必須找到真問題。真問題在實(shí)踐之中。以數(shù)據(jù)治理中的數(shù)據(jù)交易為例。中國最早的數(shù)據(jù)交易所十幾年前就已建立,目前早已倒閉。這是因?yàn)椋?dāng)時雖然建了數(shù)據(jù)交易所,但大家沒有數(shù)據(jù)交易需求。而現(xiàn)在的情況是,很多地方建了數(shù)據(jù)交易中心,卻出現(xiàn)場外交易火熱、場內(nèi)交易很少的現(xiàn)象。

我經(jīng)常借用“供給側(cè)改革”一詞。無論實(shí)踐還是研究,都需要供給側(cè)改革。需要什么,咱們就去干什么。不是說臆想需要交易,就搞套交易規(guī)則,而是實(shí)踐中先形成交易,我們再去提煉交易規(guī)則。如果對交易約束做得不錯,我們再引導(dǎo)交易方進(jìn)入場內(nèi)交易。上海數(shù)據(jù)交易所就是這樣做的。引導(dǎo)大家到場內(nèi)進(jìn)行規(guī)范交易登記,并提供一條龍的服務(wù)。因?yàn)榻灰椎怯浥c合規(guī)相聯(lián)系,而場外交易有法律風(fēng)險,大家也更愿意進(jìn)入場內(nèi)交易。這樣基于現(xiàn)實(shí)去設(shè)計,才能真正促進(jìn)數(shù)據(jù)交易。

還有數(shù)字司法。數(shù)字司法發(fā)展非常迅速,可分為三個階段。最早是從1990年代到2000年代初,法院推進(jìn)各種信息化工程,如上OA等。世紀(jì)初10年是智慧司法,通過人工智能系統(tǒng),推進(jìn)法院的智能化和智慧化,讓人更為便捷地走法律程序。

如果不去調(diào)研,就不知道。我去新疆調(diào)研時,發(fā)現(xiàn)當(dāng)?shù)厥褂弥悄芟到y(tǒng)的范圍比我們熟悉的大城市更廣。由于地理位置遙遠(yuǎn),函件必須通過數(shù)字技術(shù)實(shí)現(xiàn)傳輸,而少數(shù)民族居民漢語也不是很溜,寫起訴狀可能比較困難。人們在辦事大廳里,通過少數(shù)民族語言進(jìn)行人機(jī)交互,由一套智能系統(tǒng)直接生成起訴狀,這些智能化和智慧化的工作已經(jīng)融入日常。

第三階段就是現(xiàn)在的數(shù)字法院。不再是過往互聯(lián)網(wǎng)法庭等單個試點(diǎn),而是整體上結(jié)構(gòu)性的數(shù)字化更新。最高人民法院發(fā)布了《人民法院在線訴訟規(guī)則》、《人民法院在線運(yùn)行規(guī)則》《人民法院在線調(diào)解規(guī)則》,是從規(guī)則上創(chuàng)新,從機(jī)制到體制到審判模式都在革新,統(tǒng)一建設(shè)全國一張網(wǎng),覆蓋了從審判到執(zhí)行的全流程。

數(shù)字化的變革,影響到法律運(yùn)行的每個環(huán)節(jié),從立法到執(zhí)法到司法到守法。其中都有深度的變革可供研究,數(shù)字法學(xué)研究前景非常廣闊。

澎湃新聞:您2026年的研究計劃是什么,有哪些分享給青年學(xué)者的材料跟方法,對他們又有哪些期待跟建議?

韓旭至:我今年關(guān)注的重點(diǎn),一是平臺治理相關(guān),二是進(jìn)一步研究價值對齊。

如果大家對此話題感興趣,推薦關(guān)注上海人民出版社出版的“獨(dú)角獸·人工智能”叢書,翻譯的都是學(xué)界前沿的著作。對于之前沒有關(guān)注數(shù)字法,而現(xiàn)在想研究的同學(xué),我還是推薦《數(shù)字法理學(xué)》??梢杂纱藵L雪球式地獲取資料。先看相關(guān)作者的文獻(xiàn),再看參考資料中的文獻(xiàn),這些都是數(shù)字法學(xué)研究的關(guān)鍵文獻(xiàn)。

我建議,大家的學(xué)習(xí)或研究,要契合中國實(shí)際,研究真問題。要多研究產(chǎn)業(yè)界跟理論界都比較關(guān)注的問題,而不是自己臆想出來的、根本與實(shí)踐相去甚遠(yuǎn)的問題。數(shù)字法的研究還是要落到實(shí)處,它當(dāng)然要有理論性,但理論是要服務(wù)于整個社會的發(fā)展的。

    責(zé)任編輯:田春玲
    圖片編輯:王昀
    校對:張艷
    澎湃新聞報料:021-962866
    澎湃新聞,未經(jīng)授權(quán)不得轉(zhuǎn)載
    +1
    收藏
    我要舉報
            查看更多

            掃碼下載澎湃新聞客戶端

            滬ICP備14003370號

            滬公網(wǎng)安備31010602000299號

            互聯(lián)網(wǎng)新聞信息服務(wù)許可證:31120170006

            增值電信業(yè)務(wù)經(jīng)營許可證:滬B2-2017116

            ? 2014-2026 上海東方報業(yè)有限公司