作者:張烽
人工智能(AI)無疑是全球最炙手可熱的科技風口,AI技術正以前所未有的速度重塑各行各業。然而,在一片繁榮喧囂的背后,一個殘酷的現實卻是絕大多數AI業務,尤其是初創公司,并未找到穩定、可持續的盈利路徑。它們陷入了“叫好不叫座”的窘境,技術繁榮與商業虧損并存。
AI業務的盈利困境,并非源于技術本身的失敗,而是其中心化的發展模式導致了結構性矛盾。具體而言,可歸結為以下三大原因:
極致中心化:天價成本與寡頭壟斷。當前的主流AI,尤其是大模型,是典型的“重資產”行業。其訓練和推理過程需要消耗巨量的算力(GPU)、存儲和電力。這導致了兩極分化:一頭是擁有雄厚資本的科技巨頭(如Google, Microsoft, OpenAI),能夠負擔數億甚至數十億美元的投入;另一頭則是大量初創公司,不得不將絕大部分融資“上貢”給云服務商以獲取算力,利潤空間被極度擠壓。這種模式形成了“算力寡頭”,扼殺了創新活力。例如,即使是OpenAI,在其發展早期也嚴重依賴微軟的巨額投資和Azure云計算資源,才得以支撐ChatGPT的研發與運營。對于絕大多數玩家而言,高昂的固定成本使其難以實現規模盈利。
數據困境:質量壁壘與隱私風險。AI的燃料是數據。中心化AI公司為了獲取高質量、大規模的訓練數據,通常面臨兩大難題。其一,數據獲取成本高昂。無論是通過付費采集、數據標注,還是利用用戶數據,都涉及巨大的資金和時間投入。其二,數據隱私與合規風險巨大。隨著全球數據法規(如GDPR、CCPA)的收緊,未經用戶明確授權收集和使用數據的行為隨時可能引發法律訴訟和巨額罰款。例如,多家知名科技公司都曾因數據使用問題面臨天價罰單。這形成了一個悖論:沒有數據無法發展AI,但獲取和使用數據又舉步維艱。
價值分配失衡:貢獻者與創造者被排除在收益之外。在當前的AI生態中,價值分配極不公平。AI模型的訓練依賴于無數用戶產生的行為數據、創作者生產的內容(文本、圖片、代碼等),以及全球開發者貢獻的開源代碼。然而,這些核心貢獻者卻幾乎無法從AI模型創造的巨額商業價值中獲得任何回報。這不僅是倫理問題,更是一種不可持續的商業模式。它挫傷了數據貢獻者和內容創作者的積極性,從長遠來看,會侵蝕AI模型持續優化和創新的根基。一個典型的案例是,許多藝術家和作家指控AI公司使用他們的作品進行訓練并牟利,卻未給予任何補償,這引發了廣泛的爭議和法律糾紛。
DeAI(Decentralized AI)并非一個單一技術,而是一種融合了區塊鏈、密碼學和分布式計算的新范式。它旨在通過去中心化的方式,重構AI的生產關系,從而有針對性地解決上述三大痛點,開辟盈利的可能。
DeAI通過“眾包”模式,將算力需求分散到全球范圍內的閑置節點(個人電腦、數據中心等)。?這類似于“Airbnb for GPU”,形成了一個全球性的、競爭性的算力市場,能顯著降低算力成本。參與者通過貢獻算力獲得代幣激勵,實現了資源的優化配置。
DeAI通過“聯邦學習”和“同態加密”等技術,實現了“數據不動,模型動”。?它無需將原始數據集中到一處,而是將模型分發到各數據源進行本地訓練,只聚合加密后的參數更新。這從根本上保護了數據隱私,同時合法合規地利用了分散的數據價值。數據所有者可以自主決定是否提供數據并從中獲利。
DeAI通過“代幣經濟學”和“智能合約”,構建了一個透明、公平的價值分配體系。?數據貢獻者、算力提供者、模型開發者乃至模型使用者,都可以根據其貢獻度,通過智能合約自動獲得相應的代幣獎勵。這使得AI從一個由巨頭控制的“黑箱”,轉變為一個由社區共建、共治、共享的開放經濟體。
將傳統的中心化AI業務遷移至DeAI范式,需要在技術、業務和治理三個層面進行系統性重構。
算力層依托于去中心化物理基礎設施網絡(DePIN)項目,如Akash Network、Render Network等,構建彈性的、低成本的分布式算力池,替代傳統的中心化云服務。
數據層采用聯邦學習作為核心訓練框架,結合同態加密、安全多方計算等密碼學技術,確保數據隱私和安全。建立基于區塊鏈的數據市場,如Ocean Protocol,讓數據在確權和安全的前提下進行交易。
模型層將訓練好的AI模型以“AI智能合約”的形式部署在區塊鏈上,使其變得透明、可驗證、且無需許可即可調用。模型的每一次使用和產生的收益都能被精準記錄和分配。
從SaaS到DaaS(數據即服務)與MaaS(模型即服務),企業不再僅僅是售賣API調用次數,而是作為生態的構建者,通過發行功能型代幣或治理型代幣,激勵社區參與網絡建設。收入來源從單一的服務費,擴展為生態價值增長帶來的代幣增值、交易手續費分紅等。
因此,構建一個去中心化的任務平臺,將數據標注、模型微調、特定場景應用開發等任務,以“賞金”形式發布,由全球社區成員承接并獲取獎勵,極大降低運營成本并激發創新活力。
基于社區治理,通過持有治理代幣,社區的參與者(貢獻者、用戶)有權對關鍵決策進行投票,例如模型參數的調整方向、國庫資金的使用、新功能的開發優先級等。這實現了真正的“用戶即所有者”。
基于開放和透明,將所有代碼、模型(部分可開源)、交易記錄和治理決策都上鏈,保證過程的公開透明,建立無需信任的協作關系,這本身就是一種強大的品牌資產和信任背書。
以傳統物流數據平臺向DeAI轉型為例,傳統物流數據平臺的困境在于,它雖匯集了海運、陸運、倉儲等各方數據,但參與者因擔憂商業機密泄露而“不愿共享”,導致數據孤島,平臺價值有限。向DeAI轉型的核心是在不暴露原始數據的前提下,釋放數據價值并公平激勵:
技術上構建可信計算網絡。平臺不再集中存儲數據,而是轉型為基于區塊鏈的協調層。采用聯邦學習等技術模式,讓AI模型“空降”到各企業(如船公司、倉庫)的本地服務器進行訓練,只聚合加密后的參數更新,共同優化全局預測模型(如貨船到港時間、倉庫爆倉風險),實現“數據不動,價值動”。
業務上推行數據資產化與代幣激勵。發行平臺實用型積分,物流企業通過貢獻數據(模型參數)來“挖礦”獲得積分獎勵。而下游客戶(如貨主)支付代幣來查詢高精度的“預測結果”(例如:某航線未來一周的準點率),而非購買原始數據。收益通過智能合約自動分配給數據貢獻方。
治理上構建產業DAO,關鍵決策(如新功能開發、費率調整)由代幣持有者(即核心參與者)共同投票治理,將平臺從私營公司主導轉變為產業共同體。
平臺從一個試圖抽取數據中介費的中心化機構,蛻變為整個物流產業鏈共建、共治、共享的神經系統,通過解決信任問題,極大提升了行業協同效率和抗風險能力。
盡管DeAI前景廣闊,但其發展仍處于早期階段,面臨著一系列不容忽視的挑戰。
合規性與法律不確定性。數據法規方面,即使數據不移動,聯邦學習等模式在處理個人數據時,仍需嚴格遵守GDPR等法規中關于“目的限制”、“數據最小化”和用戶權利(如被遺忘權)的要求。項目方必須設計合規的數據授權與退出機制。
證券法規方面,項目發行的代幣極易被各國監管機構(如美國SEC)認定為證券,從而面臨嚴格的監管審查。如何在設計代幣經濟模型時規避法律風險,是項目生存的關鍵。
內容責任方面,如果一個部署在鏈上的DeAI模型產生了有害、偏見或非法的內容,責任主體是誰?是模型開發者、算力提供者還是治理代幣持有者?這為現有的法律體系帶來了新的課題。
安全與性能挑戰方面,模型安全即部署在公開鏈上的模型可能面臨新型的攻擊向量,如針對智能合約的漏洞利用,或通過投毒數據對聯邦學習系統進行惡意破壞。
性能瓶頸即區塊鏈本身的交易速度(TPS)和存儲限制,可能無法支持高頻率、低延遲的大模型推理請求。這需要Layer2擴容方案和鏈下計算的有效結合。
協作效率即分布式協作雖然公平,但決策和執行效率可能低于中心化公司。如何在效率與公平之間取得平衡,是DAO治理需要持續探索的藝術。
DeAI作為一次生產關系的革命,通過分布式技術、代幣經濟和社區治理,有望打破巨頭的壟斷,釋放全球范圍內閑置的算力和數據價值,構建一個更加公平、可持續且可能更具盈利性的AI新生態。
當前AI工具的發展,距離實現理想的去中心化人工智能還有相當長的一段路要走。目前我們仍處于以中心化服務為主導的早期階段,但一些探索已經指明了未來的方向。

當前的探索與未來挑戰。雖然理想的DeAI尚未實現,但業界已經在進行有價值的嘗試,這有助于我們看清未來的路徑與需要翻越的障礙。
如多代理系統的協作雛形。一些項目正在探索構建AI代理相互協作、共同進化的環境。例如,AMMO項目旨在創建一個“人與AI的共生網絡”,其設計的多代理框架和RL Gyms模擬環境,讓AI代理能在復雜場景中學習協作與競爭。這可以看作是構建DeAI世界底層交互規則的一種嘗試。
又如初步的激勵模型嘗試。在DeAI的構想中,貢獻數據的用戶和提供算力的節點都應獲得公平的回報。一些項目正嘗試通過基于加密的激勵系統,將價值直接重新分配給生態的貢獻者。當然,這套經濟模型如何能大規模、穩定且公平地運轉,仍是巨大挑戰。
再如邁向更自主的AI:Deep Research類產品展示了AI在特定任務(如信息檢索、分析)上的強大自主性。它們能自主規劃、執行多步操作并迭代優化結果,這種任務自動化能力是未來DeAI網絡中AI代理獨立工作的基礎。
對于在紅海中掙扎的AI從業者而言,與其在舊范式內卷,不如勇敢地擁抱DeAI這片新藍海。這不僅是技術路線的轉換,更是一次商業哲學的重塑——從“榨取”到“激勵”,從“封閉”到“開放”,從“壟斷利潤”到“普惠增長”。