亚洲日本一区二区三区在线_久久久不卡国产精品一区二区_精品日韩一区二区_国产一区二区在线观看app

鄧建鵬、趙治松:DeepSeek 的破局與變局——論生成式人工智能的監管方向

訪客 9個月前 (02-17) 閱讀數 307 #區塊鏈
文章標簽 前沿文章

作者:鄧建鵬、趙治松;來源:新疆師范大學學報

鄧建鵬、趙治松:DeepSeek 的破局與變局——論生成式人工智能的監管方向

本文2025年首發于《新疆師范大學學報》。

摘 要:隨著生成式人工智能的快速發展,DeepSeek 的問世與開源備受關注。DeepSeek 憑借對算法模式、知識蒸餾以及思維鏈技術的破局,實現了低成本訓練與高效輸出。技術的變革對生成式人工智能的監管具有兩面性:一方面,思維鏈和模型開源緩解了“算法黑箱”困境,為監管審查提供便利;另一方面,對隱私保護和數據合規、知識產權、“幻覺問題”以及模型安全性隱患等帶來新挑戰。DeepSeek 的爆火再度說明,生成式人工智能的監管應面向未來,將隱私保護與數據安全、技術創新與保護平衡、模型提示與反饋機制、模型安全性作為監管重點,避免技術濫用與惡意攻擊,保障并促進生成式人工智能安全、良性發展。

關鍵詞:DeepSeek;生成式人工智能;法律合規;監管;人工智能

作者簡介:鄧建鵬,中央財經大學法學院教授、博士生導師,金融科技法治研究中心主任;趙治松,中央財經大學法學院碩士研究生。

觀點提要

DeepSeek 的技術特點與法制問題:知識蒸餾技術與合規問題;思維鏈模式與合規問題;開源模型的監管優勢與新問題。

DeepSeek?對當前監管困境的積極影響:一方面,模型開源、思維鏈等技術有助于紓解“算法黑箱”困境。另一方面,以 DeepSeek 為代表的大模型主動開源,在增強人們信任的同時,也為監管機構提供了更加便利、透明的審查條件。

DeepSeek 技術變革帶來的新挑戰:隱私保護和數據合規挑戰加劇;知識產權方面的爭議;“幻覺問題”加重;模型安全性問題。

生成式人工智能監管問題的困境之一是監管措施要不斷適應技術的飛速發展。有學者認為,隱私保護、模型安全、技術標準、開源協議等更宜采用靈活多樣、合作試驗、跨國適用的行業標準等“軟法”加以規制,監管機關宜與企業、行業組織或企業合作聯盟等開展廣泛合作,通過多種機制促進“軟法”與“硬法”結合,規范生成式人工智能的發展。

自美國人工智能研發公司 OpenAI 推 出ChatGPT 以來,內容生成式人工智能實現了從單一模態的垂直部署到多模態的產業賦能,飛速發展的技術不斷改變著世界。2024 年 12 月底,中國人工智能研發公司 DeepSeek 發布并開源了DeepSeek-V3 模型,其性能媲美當前頂級閉源模型;2025 年 1 月,該公司發布推理模型 DeepSeek-R1,在多項測試中達到或超越 OpenAI o。不同于其他模型依托海量數據和算力的發展思路,DeepSeek 憑借組相對策略優化(Group Relative Policy Optimization,GRPO)算法模式、知識蒸餾(KnowledgeDistillation)和思維鏈(Long-CoT)技術受到廣泛關注。有學者認為,DeepSeek 以低至 1/10 的訓練成本實現了與頂尖產品相媲美的性能,在推理效率、場景適配等多個維度樹立了新標桿,實現了模型低成本的高效訓練和輸出,展示了卓越能力。

DeepSeek 以低成本實現高效訓練,代表中國生成式人工智能技術的最新重大突破,將進一步促進大模型技術的廣泛應用,但部分技術需要監管者思考。當前,有關生成式人工智能監管的學術研究主要集中在算法和數據合規兩方面,多關注虛假信息規制、倫理風險規制、侵權責任及豁免,等等。算法合規聚焦算法審查、算法解釋以及算法問責,數據合規聚焦數據來源合法性及數據隱私保護問題。DeepSeek 的技術應用在一定程度上有助于緩解當前人工智能監管的部分困境,例如,改善“算法黑箱”問題的可解釋性和透明性,模型開源一定程度上便利了監管審查,等等。但部分技術手段也對監管提出新挑戰,包括隱私保護和數據合規風險加劇、蒸餾技術導致知識產權爭議、“幻覺問題”加重及模型安全性隱患,等等。有學者認為,我們已經到了一個歷史轉折點:當下歷史的重大進程,有一部分是由非人類智能的決定推動的。正因如此,計算機網絡的易錯性才變得如此危險。當計算機成了歷史推動者時,這些錯誤就可能帶來災難。因此,在關注 DeepSeek 技術特征的同時,應重點探索前沿技術發展的監管趨勢。企業出于市場競爭和技術發展需求,通常會自發地優化算法解釋與追求算法透明,以提升產品競爭力和用戶信任。監管的重心應放在企業缺乏自驅力但又涉及公共利益與安全等方面,避免弱勢群體權益受損,防止技術濫用和惡意攻擊。

一、DeepSeek 的技術特點與法制問題

DeepSeek 采取諸如多頭潛在注意力機制(Multi-Head Latent Attention Mechanism)等一系列技術革新,部分技術屬于算法邏輯,并不影響監管規制,從監管角度關注 DeepSeek 的技術特點與其法制問題。

(一)知識蒸餾技術與合規問題

知識蒸餾技術是 DeepSeek 優化模型性能與提高資源利用效率的重要手段之一。其核心方法是通過訓練較小模型(“學生模型”)模仿較大模型(“教師模型”)的輸出或中間特征,以實現低成本的高效部署。即使用小模型模仿大模型的預測結果,這一預測結果并非簡單的答案,而是預測概率分布(類似“軟標簽”),能夠包含更多數據信息,故小模型在測試中表現更優。從技術層面看,雖然現階段蒸餾技術體現了良好的技術效果,但直接用預測結果做蒸餾的方法,效果并非最優,不及用模型中間層特征做蒸餾的效果,且知識蒸餾損失公式存在一定缺陷,小模型將部分應分開分析的數據混合在一起進行分析,會影響知識傳遞的效果。

從監管角度看,現階段蒸餾技術在法律方面的爭議主要集中在數據合規和知識產權爭議方面。如果“教師模型”采取瑕疵或不準確的數據訓練,那么,在知識傳遞過程中,會將“教師模型”的數據問題轉移并擴大到“學生模型”,進而可能擴大“幻覺問題”。蒸餾技術應用下的數據來源、處理方式、數據隱私保護等方面并沒有較為明確的法律規范,且數據瑕疵在傳遞過程中的放大問題也缺乏明確法律界定責任歸屬。蒸餾技術雖然已經較為成熟,但對于模型使用和侵權的界限相對模糊。蒸餾技術不是單純的代碼復制,而是一種深層次利用,開源模型雖允許使用,但無論開源許可還是行業規范均未明確蒸餾技術應用時的具體限制,對于閉源模型缺乏詳細規定,難以判斷蒸餾行為在何種程度屬于合理利用、在何種程度構成侵權,導致監管規范存在空白。

(二)思維鏈模式與合規問題

DeepSeek 技術的思維鏈模式是對指令提示模式的技術迭代,良好的效果可能逐步促進大模型從指令型向推理型發展。思維鏈技術指通過序列化的思維模式,提升大模型推理能力、思考過程的可解釋性、模型可控性和輸出的靈活性,適用于高度復雜任務。其與指令提示型大模型的區別在于,前者主要依賴預先設定的提示信息引導模型生成輸出,但在應對復雜的任務需求時存在一定局限。思維鏈模式模擬人類的思維過程,構建邏輯連貫的思維鏈條,使模型能夠逐步推理和分析,并展示思考過程,不僅有效提升了上下文理解能力,而且在處理長文本或多輪對話時能夠有效捕捉前文信息,保持邏輯連貫性,進而生成更準確、合理的回答。

從監管角度看,由于指令提示型大模型的“算法黑箱”,模型僅輸出最終結果,使其輸出結果中存在數據、隱私泄漏風險。思維鏈在推理過程中展示中間步驟,步驟中可能包含訓練數據中的隱私片段,侵犯個人隱私權或其他權益,觸發合規挑戰。此外,思維鏈可能會加重“幻覺問題”。指令提示型大模型只是單純給出結果,使用者在某種程度上能夠接受結果的不準確性。但思維鏈因具有“人類推理”特點,讓使用者清楚看到思維過程,可能將錯誤的推理邏輯或無事實依據的內容層層傳遞,導致最終結果偏離事實。錯誤的推理步驟可能使模型得出錯誤結論,使用者因看到思維過程進而更信任這一錯誤結果,可能造成如誤導決策進而引發經濟損失、侵犯他人權益等后果。因此,要進一步明確大模型“幻覺問題”的應對措施,有效提示并紓解“幻覺問題”的影響。

(三)開源模型的監管優勢與新問題

DeepSeek 作為開源模型,全面開放了代碼、數據和算法。有學者認為,開源模型或許將引領大模型發展方向,帶來新的商業機遇。從社會信任角度看,使用者和研發者可對開源模型進行技術分析,驗證其效果和能力,最大限度提升開發模型的能力,使社會公眾對模型的能力和技術效果有清晰認識;在技術創新方面,開源模型極大地激發了開發者的創造力,研發者和個人使用者均可圍繞DeepSeek 開源模型不斷進行二次開發,吸取或優化模型技術和改進方案;同時,開源特性能夠提升技術的透明度和信任度,技術人員可深入剖析模型運行邏輯,進而發現其潛在漏洞并及時修復。相較ChatGPT 等閉源模型而言,監管機構能夠實現對開源模型的穿透式監管,監督模型安全可靠運行。

從監管角度看,開源模型雖然促進了技術進步,但同時也帶來監管方面的新問題。開源協議雖包含規范模型使用的規則等,但惡意使用者可能違反協議,將模型用于商業目的、競爭性開發或模型的再分發。在安全責任方面,即使模型開發者諸如DeepSeek 在用戶協議中聲明對其使用后果不承擔責任,但單方面聲明并不意味著其可免除所有法律責任(生成式人工智能的研發者和服務提供者負有維護其基本安全的職責),若因模型本身存在安全漏洞而被惡意利用并造成損害,開發者不能完全免責。

二、DeepSeek 對監管的影響與挑戰

從技術發展角度看,DeepSeek 相關技術的應用在緩解監管困境的同時,也帶來新挑戰。

(一)對當前監管困境的積極影響

一方面,模型開源、思維鏈等技術有助于紓解“算法黑箱”困境。《互聯網信息服務算法推薦管理規定》《生成式人工智能暫行服務辦法》等規范對算法透明度和可解釋性多采用倡導性規則而非強行性規則。“算法黑箱”問題是生成式人工智能監管的難點。“算法黑箱”實質是對生成式人工智能算法的披露和解釋不足,在算法偏見沖擊下,公眾與生成式人工智能間必然會出現算法信任危機。但是,算法模型結構復雜,其決策過程難以被人類理解和解釋,使用者、監管者甚至研發者都難以基于理性對算法進行分析和判斷,因此,前期監管思路致力于提高算法透明度。有學者提出“歸因解釋”“反事實解釋”等方法路徑,有學者提出透明度報告、算法檢測等監管措施以及可觀察、可分解、可模擬的透明要求。但也有學者認為,算法透明并不具備顯著效果,即使技術上可行,但未必實現帶來預期效果。因此,技術限制、理論爭議、倡導性規范等使監管機構在評估模型安全性、可靠性和公平性等方面長期面臨重大困境。

DeepSeek 的發展表明,為增強模型理解能力、提升用戶信任,企業具有一定自驅力完成相關算法解釋和算法透明的技術要求,盡管可能出于商業目的,但也為緩解“算法黑箱”問題提供了實現路徑,進而助力完善監管科技。DeepSeek 使用的思維鏈模式通過模擬人類推理過程,使模型決策過程更加透明。模型處理任務時依據思維鏈逐步推理,使每一步推理依據和邏輯關系都相對清晰,與此同時,思維鏈將模型推理過程中的中間步驟完全展示并記錄,為使用者和監管機關提供更多可觀察和分析的信息,有助于監管機構和使用者深入了解模型從輸入數據到最終決策的過程,為評估模型決策的合理性和公正性提供依據。

另一方面,以 DeepSeek 為代表的大模型主動開源,在增強人們信任的同時,也為監管機構提供了更加便利、透明的審查條件。生成式人工智能開源與閉源模式競爭已久,諸如 OpenAI 等科技巨頭憑借強大的研發實力與資源優勢選擇閉源,旨在保障企業技術秘密與商業利益。雖然部分模型選擇開源,但其技術性能無法比肩 OpenAI 的閉源模型。DeepSeek 技術的新進展或許標志著開源模式成為生成式人工智能發展不可忽視的新趨勢,且這一新形態在監管方面具有一定的積極影響。

在閉源模型環境下,監管機構對大模型的審查受信息不對稱制約以及商業秘密限制,無法獲取模型源代碼和內部算法細節,監管機構只能通過對生成內容的外部觀察測試評估模型性能與合規性,相關的模型測試表明閉源模型的問題溯源存在明顯阻礙。相較閉源模型而言,開源模型具有開放性、場景適應性、專業用戶友好性、高度透明性、兼容性等特點,極大地便利了技術創新和監管審查。模型開源包括模型架構、訓練數據、模型參數等內容。在模型架構方面,可對算法進行全面測試,以評估算法的合理性、公平性和安全性;在訓練數據方面,可直接檢測數據的收集、清洗、標注和使用環節是否符合法律和技術標準,可以及時規避數據濫用或隱私侵犯風險;在模型參數方面,可直接審查開源代碼,詳細了解模型的數據處理流程、算法實現細節以及模型訓練過程。同時,模型開源有利于監管機構持續監管,相較算法審查及備案而言,監管機構可及時獲取模型最新動態,跟蹤模型發展,確保模型在整個生命周期符合監管要求。更為重要的是,模型開源可促使使用者及同行參與算法監督,技術研發者或競爭對手在使用或監督開源模型的過程中,可能發現潛在問題并上報至監管機構,有助于監管機構及時發現和解決問題,促進開源模型合規,降低法律和技術風險。

(二)DeepSeek 技術變革帶來的新挑戰

1. 隱私保護和數據合規挑戰加劇

生成式人工智能的數據合規主要包括數據來源、數據處理、數據存儲和傳輸等環節。DeepSeek的思維鏈和知識蒸餾技術為模型性能提升帶來突破,但也加劇了隱私保護和數據合規的挑戰。

在數據來源方面,生成式人工智能問世之初,有研究人員指出,數據的質量和來源是影響生成式人工智能發展的重要因素,生成式人工智能可能面臨訓練語料用盡的情況。如前文所述,DeepSeek采取的蒸餾技術實質是“教師模型”到“學生模型”的知識傳遞,蒸餾過程減少數據采集與標注成本,在降低訓練成本的同時大幅提高數據質量,但同時面臨兩個合規風險:一是若“教師模型”訓練數據存在合法性問題,那么,“學生模型”也將受到間接影響,使隱私保護和數據來源合法性的審查難度增大;二是這種方式可能存在知識產權爭議。

在數據處理方面,知識蒸餾可以高效地將知識從大型模型轉移到小型模型,為了使“學生模型”更好地學習“教師模型”的知識,其可能對數據進行一些特征提取和轉換操作,海量數據處理或將加重脫敏處理的數據重新可識別風險,進而增加用戶隱私泄露風險。同時,思維鏈技術在推理過程中涉及對數據的深度挖掘和分析,這種推理過程不再處于“黑箱”之中,而是展示出來并保存在日志中,推理過程就是數據信息處理過程。例如,當要求 DeepSeek 評價某位公眾人物時,其在思維鏈中會抓取各類網址,部分網址可能包含未經證實或已證實為虛假的信息。同樣,當有使用者要求其屏蔽不良信息時,思維鏈仍會將不良信息的相關內容在思考過程中展示出來。由此可見,數據暴露程度的提升,將使數據合規風險增大。

在數據存儲和傳輸環節,生成式人工智能依賴大量數據,其數據通常存儲在多個不同地理位置的服務器上,如何確保這些數據的安全性和完整性是其面臨的一大挑戰。根據 DeepSeek 的隱私政策可知,個人數據信息存儲在 DeepSeek 的中國境內服務器,但模型開源容易暴露數據。有使用者發現,DeepSeek 可公開訪問的 ClickHouse 數據庫,允許訪客全面控制數據庫操作,訪問包括 100 多萬行日志流在內的內部數據,其中,涉及聊天記錄、密鑰、后端詳細信息及其他高度敏感信息。雖然DeepSeek 立即對其進行修復,但其風險仍需關注。在數據共享和跨境流動問題方面,生成式人工智能更需要國際視野,但不同國家和地區的數據保護法規存在差異。近年來,個人信息的法律保護逐漸受到各國高度重視,例如,歐盟對個人信息等數據要求相對嚴格,《通用數據保護條例》(GDPR)對數據訪問、存儲、修改、刪除及數據跨境傳輸設置了嚴格條件。雖然世界各國在數據跨境“自由流動”和“數據跨境管制”間存在分歧,但數據安全是數據跨境的重要限制性原則。因此,我國生成式人工智能機構可通過進一步提高數據合規標準,進而提升在全球范圍內的競爭力。

2. 知識產權方面的爭議

知識蒸餾技術在實現低成本高效訓練的同時,或將引發一系列知識產權爭議。知識蒸餾的本質是利用“教師模型”的訓練效果。有觀點認為,將蒸餾技術用于構建直接競爭的大模型產品,屬于違反其服務條款的行為;也有觀點認為,利用先進大模型的輸出進行二次開發屬于行業慣例,并不存在爭議。

在模型蒸餾過程中,其實質是利用“教師模型”的訓練成果對“學生模型”進行知識輸入和高效利用。從技術角度分析,模型蒸餾過程中知識的利用與侵權的界限難以明確劃分,“學生模型”學習“教師模型”的知識,必然會在一定程度上與“教師模型”存在相似之處,但這種相似達到何種程度屬于越過合理利用的范疇,進而構成侵權,需要在技術層面進行更加清晰的檢測并設置標準。同時,不同模型架構和算法在蒸餾過程中展示的效果各不相同,進一步增加了技術標準的復雜性。雖然各大生成式人工智能或出于商業目的或出于技術創新目的,采取開源或 API 調用(應用程序接口)模式開放共享平臺,但無論開源還是 API 調用模式,其允許用戶使用、復制、修改都應受到一定限制,或制定協議許可,或出臺相關規定與規范。若生成式人工智能系統在蒸餾過程中未經授權使用其他公司的模型作為“教師模型”,或在知識利用與學習過程中過度依賴“教師模型”的獨特技術而缺乏獨創性,可能造成知識產權侵權。

從法律層面看,現有知識產權法律體系在應對模型蒸餾引發的爭議時存在一定滯后性。傳統知識產權法律主要對具體內容較為明確的創新成果進行保護,對生成式人工智能模型這種不透明、高度復雜、飛速動態發展的技術成果,法律對其的界定和保護范圍并不清晰。行業內相關爭議缺乏明確規范標準,現有的協議多采取回避態度。例如,GPL(軟件開源通用公共許可證)規定:“若軟件分發者對他人發起專利侵權訴訟,指控對方使用該軟件侵犯其專利,GPLv3 會自動終止對該訴訟方授予的所有專利許可。”知識產權的核心是在技術保護和激勵技術創新間尋找平衡點,蒸餾技術不僅影響原初大模型的社會信任與市場競爭力,而且對人工智能技術的創新和發展產生影響,但過于嚴苛的技術保護可能會使壟斷企業利用知識產權爭議作為維持其壟斷地位的手段。

3.“幻覺問題”加重

大模型的“幻覺問題”是所有模型的固有弊端,“幻覺問題”指模型生成的內容看似準確,但實際上是其編造的或者缺乏數據支撐,模型的“幻覺問題”嚴重影響模型輸出內容的可靠性,進而影響社會信任。隨著 DeepSeek 模型蒸餾技術及思維鏈技術的應用,雖然邏輯推理能力得到提升,但“幻覺問題”逐漸凸顯并加重。例如,在實際使用過程中,有使用者發現 DeepSeek 大模型在思維鏈推導過程和最后結果中輸出虛假和編造的文件、頁碼、專業名詞等,且模型表達內容、邏輯推演實施以及細節過于完善,普通使用者的知識儲備難以糾錯,即使使用者指出具體錯誤,模型仍會對相關內容進行再“編造”。

在模型訓練階段,“幻覺問題”主要受訓練數據質量的影響。例如,訓練數據中包含大量不準確、不完整的信息,模型在學習過程中容易吸收這些錯誤信息,進而在生成內容時輸出錯誤內容。如前文所述,蒸餾技術的知識遷移在提高數據質量的同時會放大數據存在的問題,利用蒸餾技術訓練的數據可能是存在瑕疵或錯誤的數據,經反復利用導致最終輸出的極端化──優質數據帶來準確、嚴密的內容,瑕疵數據會放大“幻覺問題”。同時,思維鏈技術提升模型推理能力的負面影響是導致普通使用者更加“相信”其輸出的內容。思維鏈是基于模型的嚴密推理,在推理過程中逐步處理可能存在偏差或不完整的數據,推理步驟越復雜,引入錯誤信息的概率越大。模型在處理部分專業領域的問題時,可能因缺乏足夠準確的數據或抓取信息不準確生成錯誤結論。

DeepSeek“幻覺問題”的加重提示我們,生成式人工智能擁有一定的自驅力,能夠提升算法的解釋性和透明性,但其“幻覺問題”可能隨著模型能力的增強而同步放大。雖然有學者提出,可通過建立精準的“外接”私有數據庫 RAG(Retrieval?Augmented Generation,檢索增強生成)提高人工智能的精準度,但這種方式會帶來極大的數據負荷,其更適合模型的個性化設計而非基礎模型。因此,亟須探索合理的監管措施,促使生成式人工智能積極應對“幻覺問題”,避免使用者因過度信任其輸出的內容而造成難以預測的損失。

4. 模型安全性問題

DeepSeek 模型發布后,曾遭大量境外網絡攻擊,直接影響系統的注冊、訪問和正常使用。此次攻擊是生成式人工智能模型問世以來罕見的大規模跨境攻擊,此次攻擊事件暴露出一系列典型的網絡安全問題,包括攻擊手段復雜化、跨境攻擊、網絡安全防護技術漏洞、應急響應能力不足、數據安全風險以及供應鏈安全風險,等等。上述問題不僅影響 DeepSeek 的正常運營,而且提示我們要更加重視大模型的安全問題。

生成式人工智能大模型在安全層面具有天然脆弱性,部分研究者將其可能遭受的攻擊歸結為模型竊取、數據重構、成員推斷、數據投毒、提示詞注入、間接提示詞注入、模型劫持、海綿樣本,等等。模型的架構和算法設計存在固有內在缺陷。模型處理輸入數據時,對數據的微小變化較為敏感,攻擊者能采取各種手段突破模型的防御,當前的應對方式主要是增強模型的魯棒性(模型或算法在面對各種不確定性、干擾、異常情況或不利因素時,依然能夠保持穩定運行和良好性能的能力)。隨著大模型從基礎的垂直部署模式到與醫療、金融、法律等高度專業領域結合的“AI+”模式,其在上述關鍵領域安全性問題的影響范圍和嚴重程度不斷增加。在商業應用中,技術創新雖然帶來高效和便捷,但確保新技術的安全性始終是各商業機構的首要任務,如果將新技術應用到現存商業模式中,需要全面評估其安全性和數據隱私保護措施。

三、生成式人工智能監管的重點方向

生成式人工智能監管問題的困境之一是監管措施要不斷適應技術的飛速發展。有學者認為,隱私保護、模型安全、技術標準、開源協議等更宜采用靈活多樣、合作試驗、跨國適用的行業標準等“軟法”加以規制,監管機關宜與企業、行業組織或企業合作聯盟等開展廣泛合作,通過多種機制促進“軟法”與“硬法”結合,規范生成式人工智能的發展。

(一)加強隱私保護與數據安全監管

明確個人數據的使用范圍和受侵害時的救濟方式,平衡個人數據保護和數字經濟發展的關系是適應當今社會數字經濟發展的重心,也應成為生成式人工智能監管的重點方向之一。

在數據收集階段,生成式人工智能的監管應確定相對明確的規范,要求明確數據收集的范圍和目的,確保數據收集的必要性和合法性。收集用戶數據時,應遵循最小化原則。大量數據泄露的事件表明,生成式人工智能應完善用戶同意機制,確保用戶對數據收集行為有清晰認知。DeepSeek 的隱私政策明確“在經安全加密技術處理、嚴格去標識化且無法重新識別特定個人的前提下,會將服務所收集的輸入內容及對應輸出的內容,用于 DeepSeek服務質量的提升和優化”。此類隱私條款廣泛應用于目前的大模型服務協議中,似乎已成為“以服務換取數據”的商業模式。生成式人工智能的監管并非絕對禁止這一商業模式,但應將選擇權交于使用者手中。

在數據處理階段,應對數據分類分級,并根據數據敏感程度等因素分類分級管理,采用差分隱私的方法,對不同級別的數據采取不同保護措施和使用限制。鑒于數據蒸餾帶來的合成數據利用,應進一步創建機器學習場景下數據處理的新權利和新規則,規定合成數據使用制度。隨著合成數據和大量數據的處理分析,去隱私化的數據在模型處理中重新可識別的風險不斷加劇。研發者在利用海量數據的同時,要以數據分類分級保護制度為依據,對數據全周期各環節的相關行為使用的技術進行規范。通過設置隱私數據的敏感詞,利用算法、數據分析等手段動態監測、反饋模型運行處理過程,以算法應對算法帶來的問題,及時識別并有效處理模型運行中出現的隱私、敏感數據。

在數據存儲和傳輸階段,應推動研發者采用加密和安全的存儲架構。可通過數據分級等制度,對敏感數據進行加密存儲,防止數據在存儲過程中被竊取或篡改;也可采用安全傳輸協議,確保數據傳輸的保密性和完整性。在數據跨境流動方面,各國技術發展的差異使其法律和立場不同,生成式人工智能要具有全球競爭力,研發者和服務提供者就需要提供能夠符合不同國家要求的大模型。因此,我國需進一步規范數據跨境傳輸、處理,凝練并提出符合自身主權、安全、發展利益的數據戰略,對數據接收方和處理者進行數據安全評估,提升數據安全保護能力,保障我國數據安全。

(二)技術創新與技術保護的平衡

知識蒸餾技術和模型開源會引發知識產權爭議,二者在技術上密不可分,知識蒸餾的對象通常會變為開源模型。在互聯網時代,有學者提出知識產權弱化和利益共享觀點,但知識產權過度弱化顯然無益于保護權利持有者持續技術創新的動力。針對所引發的知識產權爭議,需要規范蒸餾技術和開源行為,對此種爭議風險作出合理回應,進而化解技術創新和技術保護間的沖突。

第一,要準確界定行為性質,區分具體行為屬于“技術改進”還是“侵權復制”。若“學生模型”僅通過“教師模型”的輸出結果(諸如預測數據)進行訓練,需審查其是否超出原模型的允許使用范圍和保護范圍;若“學生模型”僅學習“教師模型”的通用知識和公開技術,且對關鍵創新點進行自主改進和創新,就不構成侵權,反之則構成侵權。對開源模型而言,開源并不是對權利的放棄,應是許可證保障下的新型著作權許可模式,其行為性質應受到許可證約束,其實質是開源者對權利處置及對開源社區規范的遵守。

第二,應建立針對大模型的特別審查機制。監管機關可要求公開蒸餾模型關鍵技術流程,例如,數據來源、對齊方法,等等。同時,舉證責任可向技術優勢方傾斜,可要求被控侵權方證明其模型的獨立性。對開源模型而言,其應以敏捷治理替代“命令—控制型”監管,利用制度機制和資源配置等方式在激勵創新的同時,對模型利用進行規范,避免濫用和惡意使用。

第三,監管機構應與開源社區建立合作機制。無論模型的蒸餾利用還是開源,都或多或少依賴開源社區的開源許可。開源許可屬于合同,但又依賴傳統的知識產權制度。監管機關可引導社區通過技術標準、科技倫理、行業標準等,建立符合當前技術趨勢的知識產權協議并動態更新,通過合作、包容、靈活的自律規范和自治性規范等“軟法”規范開源和蒸餾等行為,為開放知識產權提供渠道,為新技術的開發利用設置底線。

(三)健全模型的提示與反饋機制

雖然研究人員嘗試使用各種方式緩解大模型“幻覺問題”,但 DeepSeek 的測試表明,似乎大模型能力越強,模型的“幻覺問題”越令人信以為真。DeepSeek 在用戶協議中明確“本服務提供的所有輸出均由人工智能模型答復,可能出現錯誤或遺漏,僅供您參考,您不應將輸出的內容作為專業建議”。但這種隱蔽的格式化服務條款內容不應完全成為其單方面的免責依據。在技術發展的同時,服務提供者應健全模型的安全提示與反饋機制,在提示使用者風險的同時規范機構自身行為,為責任歸結提供依據。

從監管角度看,在鼓勵完善技術的同時,應要求生成式人工智能服務提供者采取充分提示與反饋機制規避風險。當前,生成式人工智能服務提供者的注意義務雖然不包含對生成內容負有一般性審查義務,但應包含對涉嫌侵權的內容采取顯著標識的義務。這種標識不應僅出現在服務協議等格式化條款內,而應對涉及金融、醫療、法律等專業領域的回答給予顯著提示。在模型反饋方面,監管機構應要求服務提供者建立完善用戶反饋渠道,及時收集用戶在使用模型過程中發現的問題和異常。目前,依據 DeepSeek 用戶協議,用戶發現侵權、違法、虛假信息的反饋渠道為郵箱反饋,此舉無法在用戶使用自然語言處理模型過程中發現模型推理、生成的幻覺或錯誤信息時進行針對性反饋。反饋渠道應便利、高效、有針對性。應鼓勵行業制定標準化流程,提供多種反饋渠道,方便用戶提交反饋信息。同時,可建立模型性能監測系統,公布“幻覺問題”的反饋率、響應率、處理率等,驅動研發者提升技術。

在“幻覺問題”處理方面,監管機關應加強法律的預防功能,而非制裁功能。當前,不宜要求生成式人工智能服務提供者對生成內容的真實性和準確性承擔全部責任,但生成式人工智能服務提供者應承擔運營主體責任,履行內容管控、溯源標記等明確義務,應采取有效應對措施,確保能夠溯源問題并及時改善。例如,對輸入模型的指令提示、模型輸出內容及決策過程中的關鍵步驟予以記錄,并通過日志等存儲方式,確保數據完整性和可追溯性。當模型出現問題時,生成式人工智能服務提供者應確保能夠通過溯源體系快速定位問題所在,采取針對性改進措施,提高模型可靠性。

(四)模型安全性監管

DeepSeek 的服務器數據泄露和遭受大規模攻擊表明,模型安全性能不僅是企業的問題,而且關系使用者個人隱私、社會利益以及國家安全,因此,模型安全性、保護數據安全及抗攻擊等性能應成為未來生成式人工智能監管的重點方向之一。

一方面,應制定模型安全標準。生成式人工智能治理標準可發揮“承接立法和監管、對接技術實踐”的重要作用,應鼓勵行業制定適用于生成式人工智能的安全技術標準,包括數據去隱私化、算法對抗、數據庫訪問、安全漏洞檢測與修復等,全面評估模型的安全性,并向監管機關提供檢測報告。研發者可以參考 OpenAI 的紅色對抗團隊,自行開展功能測試、性能測試、安全漏洞測試等多方面的對抗性測試,并鼓勵向社會公開。但是,這種標準和要求應為“軟標準”而非硬性要求。在技術飛速發展時期,不應制定過于嚴苛的安全標準給企業增加過高合規成本,而應以科技倫理為基本原則、風險管理為基本制度。可通過安全認證機制,對符合安全標準的模型予以醫療、金融等領域應用的行政許可,既可以提高模型安全性和可靠性,也有助于拓展模型的應用領域。

另一方面,應將模型安全性能的檢測、預警和風險預案作為監管重點,要求研發者利用數據監測等技術手段實時監測模型存儲、運行的數據安全狀況。可建立數據泄露預警機制,發現異常攻擊、數據泄露或安全威脅時能夠及時響應并上報,提高對數據安全風險的檢測和應對能力。同時,監管機關應定期檢查與測試,對安全性能等專業技術問題引入第三方評估機構,對存在嚴重安全隱患的模型采取風險提示或限期整改等行政手段,必要時向社會公布檢測結果。

四、結論與展望

DeepSeek 的技術應用在生成式人工智能研發領域引發廣泛關注與學習。DeepSeek 發布后,有團隊發布了技術指標可媲美 DeepSeek R1,但訓練成本不足 50 美金的新模型。技術發展帶來行業快速發展的同時,也給生成式人工智能監管帶來新挑戰。DeepSeek 的蒸餾技術、思維鏈模式及開源策略在提升模型性能、拓展應用場景和促進技術創新等方面發揮了重要作用。雖然 DeepSeek 的技術應用在一定程度上緩解了“算法黑箱”和監管審查的困境,但也為隱私保護和數據合規、知識產權、“幻覺問題”和模型安全性等方面帶來新挑戰。

未來,人工智能技術將持續發展,在引發科技革命的同時也帶來風險挑戰,監管的重要性愈發凸顯。因此,要著眼未來,預測生成式人工智能的發展趨勢,進一步規范數據收集、數據處理、數據存儲和傳輸等,有效保護個人隱私、加強數據合規體系建設;針對蒸餾、開源等技術,既要鼓勵行業標準和技術標準等“軟法”的應用,準確界定行為性質,平衡技術創新與技術保護,也要建立有效的模型提示、標識、反饋與溯源機制,弱化大模型的“幻覺風險”。未來,伴隨技術的發展成熟,可制定更為嚴格的模型安全標準,在充分發揮人工智能技術優勢的同時,防范技術風險、保障公眾利益和社會安全。面向未來技術的監管研究還應著眼國際視野,加強全球人工智能監管的協調與合作,在當代國際秩序中推動生成式人工智能監管的中國方案,應對人工智能發展的全球性挑戰。

文獻來源 |?《新疆師范大學學報(哲學社會科學版)》網絡首發

熱門
亚洲日本一区二区三区在线_久久久不卡国产精品一区二区_精品日韩一区二区_国产一区二区在线观看app
  • <strike id="ykeqq"><input id="ykeqq"></input></strike>
  • <strike id="ykeqq"><menu id="ykeqq"></menu></strike>
    <strike id="ykeqq"></strike>
    <fieldset id="ykeqq"></fieldset>
    <del id="ykeqq"><dfn id="ykeqq"></dfn></del>
    欧美一区二区三区四区夜夜大片| 欧美三级视频| 乱中年女人伦av一区二区| 牛人盗摄一区二区三区视频| 欧美视频手机在线| 好看的日韩视频| 久久国产欧美精品| 欧美理论电影网| 国产亚洲欧美日韩美女| 午夜精品国产精品大乳美女| 欧美成人性生活| 国产女同一区二区| 亚洲欧美日韩国产成人精品影院| 欧美电影电视剧在线观看| 国产精品亚洲网站| 香蕉久久国产| 欧美日韩亚洲天堂| 在线精品在线| 欧美成人午夜激情视频| 国产精一区二区三区| 亚洲在线免费视频| 久久国产精品久久久久久电车| 欧美精品一区二区三区蜜桃| 久久九九有精品国产23| 亚洲在线视频网站| 欧美三区在线| 亚洲性av在线| 久久噜噜噜精品国产亚洲综合| 欧美日韩一区在线观看视频| 国产香蕉97碰碰久久人人| 亚洲一区三区视频在线观看| 欧美理论电影网| 在线看国产一区| 欧美精品一区二区三区高清aⅴ| 国产精品视频男人的天堂| 国产精品人人做人人爽人人添 | 国产精品尤物福利片在线观看| 亚洲欧美综合国产精品一区| 免费观看日韩| 激情综合网址| 欧美高清自拍一区| 在线观看日韩| 欧美日韩二区三区| 亚洲免费视频成人| 国产精品久线观看视频| 欧美中文字幕第一页| 国产精品入口福利| 久久一二三四| 中日韩午夜理伦电影免费| 欧美精品不卡| 亚洲欧美日韩人成在线播放| 欧美色图五月天| 久久国产精品黑丝| 国产真实乱偷精品视频免| 欧美成人综合| 亚洲欧美日韩国产综合精品二区| 国产精品盗摄久久久| 久久青草福利网站| 国产一区二区精品久久99| 欧美18av| 亚洲欧美欧美一区二区三区| 国产精品嫩草影院av蜜臀| 久久久青草婷婷精品综合日韩| 国产一区二区激情| 欧美经典一区二区三区| 欧美一级在线播放| 国产一区二区三区观看| 欧美精品一区二区三区视频| 性做久久久久久久免费看| 欧美日韩综合在线| 久久精品72免费观看| 国产伊人精品| 国产精品国产精品| 久久久久久久波多野高潮日日| 伊人成人开心激情综合网| 国产精品国产三级国产aⅴ入口| 久久激五月天综合精品| 影音先锋日韩资源| 国产精品成人一区二区| 久久综合九色欧美综合狠狠| 亚洲影院色在线观看免费| 国产欧美日韩一区| 久久综合电影一区| 亚洲综合色激情五月| 国产在线观看一区| 国产精品v欧美精品v日韩精品| 免费成人在线视频网站| 在线观看成人小视频| 欧美日韩三级电影在线| 欧美在线一区二区三区| 国产欧美日韩高清| 欧美日韩视频一区二区| 另类av一区二区| 羞羞色国产精品| 在线观看一区欧美| 国产精品永久免费观看| 欧美日韩一区二区三区在线| 老司机一区二区三区| 欧美一级片一区| 中文亚洲免费| 国产一区二区av| 国产精品视频xxx| 欧美三级午夜理伦三级中文幕 | 欧美淫片网站| 亚洲午夜久久久久久久久电影网| 国产欧美日韩在线视频| 国产精品爱久久久久久久| 欧美黄色aa电影| 美女视频黄免费的久久| 久久精品国产免费看久久精品| 亚洲免费视频观看| 在线观看欧美日韩| 精品88久久久久88久久久| 国产香蕉97碰碰久久人人| 国产精品久久久亚洲一区| 欧美日韩国产在线一区| 欧美日韩国产a| 欧美日韩国产成人在线观看| 欧美r片在线| 亚洲免费婷婷| 亚洲一区久久| 1024精品一区二区三区| 国内激情久久| 国产伊人精品| 红桃视频国产精品| 激情一区二区| 在线观看日韩av先锋影音电影院| 狠狠88综合久久久久综合网| 国产一区二区视频在线观看| 国产视频精品免费播放| 国产午夜精品一区二区三区视频| 国产性色一区二区| 国产一区在线看| 狠狠色狠狠色综合日日tαg | 久久久久久久久岛国免费| 欧美一区网站| 久久精品伊人| 久久婷婷成人综合色| 久久亚洲综合网| 欧美成人69| 欧美日本亚洲韩国国产| 欧美日韩国产va另类| 欧美日一区二区在线观看 | 在线国产日韩| 亚洲伊人久久综合| 午夜久久影院| 久久久亚洲精品一区二区三区| 浪潮色综合久久天堂| 欧美国产极速在线| 欧美日韩亚洲激情| 国产精品久久久999| 国产欧美日本在线| 精品二区久久| 亚洲女同同性videoxma| 久久国内精品视频| 免费在线成人av| 欧美日韩日韩| 国产精品亚发布| 国产麻豆成人精品| 国产精品稀缺呦系列在线| 国产精品久久| 国产日韩欧美一区| 韩国欧美一区| 亚洲一区二区三区777| 亚洲一区二区三区激情| 午夜精品999| 欧美一区二区三区精品电影| 久久久国产一区二区三区| 久久综合久色欧美综合狠狠| 欧美成人综合网站| 欧美色大人视频| 国产日韩在线不卡| 亚洲天堂av在线免费| 午夜在线成人av| 米奇777在线欧美播放| 欧美人与性动交a欧美精品| 国产精品爱啪在线线免费观看| 国产午夜亚洲精品羞羞网站| 中文国产一区| 欧美制服丝袜| 欧美高清在线| 国产精品嫩草影院av蜜臀| 激情综合色综合久久| 久久免费国产精品| 欧美一区二区三区在线播放| 久久在线视频| 欧美日韩免费观看一区三区| 国产免费成人| 亚洲伊人色欲综合网| 老司机久久99久久精品播放免费 | 久久久精品性| 欧美激情1区2区| 国产精品一二三| 亚洲小说欧美另类社区| 久久久久久亚洲综合影院红桃| 欧美另类久久久品| 国内精品写真在线观看| 欧美一区二区三区在线看| 欧美大片免费久久精品三p| 国产精品日产欧美久久久久|