Telegram 創辦人宣布「AI 算力網路 Cocoon」上線:可用 GPU 挖 TON、100% 隱私運算
Telegram 創辦人宣布 Cocoon 去中心化算力網路上線:主打讓邊緣算力解決需求、100% 隱私,讓 GPU 持有者可出租算力賺取 TON,挑戰雲端巨頭壟斷。
(前情提要:Telegram創辦人Pavel Durov警告:自由網路瀕危,監控時代吞噬數位自由)
(背景補充:快訊》Telegram 創辦人 Pavel Durov 獲準離開法國,TON 急速跳漲 20%)
本文目錄
Telegram 創辦人 Pavel Durov 昨(1)日宣布心野心之作:Cocoon (Confidential Compute Open Network) 正式宣佈主網上線。
標誌著 Telegram 生態係正式跨足 AI 基礎設施領域,並向 Amazon AWS 和 Microsoft Azure 等中心化雲端巨頭發起直接挑戰。
Durov 在公告中自豪地表示:
它發生了。我們的去中心化機密運算網路 Cocoon 已經上線。來自使用者的首批 AI 請求正以 100% 的機密性由 Cocoon 處理中,而 GPU 持有者也已經開始賺取 TON。
什麼是 Cocoon?不只是「另一個」去中心化網路
Cocoon 是一個建立在 TON 網路之上的去中心化實體基礎設施網路。其核心願景是解決當前 AI 發展的兩大痛點:昂貴的運算成本與數據隱私的喪失。
不同於傳統雲端服務將數據傳送至中心化伺服器處理,Cocoon 媒合了兩端的需求:
算力需求方(AI 開發者):需要便宜且安全的算力來運行 AI 模型。
算力提供方(GPU 持有者):擁有閒置的高效能顯示卡(GPU),希望能透過出租算力獲利。
核心技術:如何在「不信任」中建立「信任」?
根據官方說明,Cocoon 有以下兩大特色:
100% 隱私保護:透過受信任執行環境(TEEs,如 Intel TDX 等技術),Cocoon 確保 AI 運算的過程是在一個加密的「黑盒子」中進行。這意味著,即便是提供算力的 GPU 礦工,也無法查看或攔截其硬體上正在處理的數據或 AI 模型內容。
去中心化架構:沒有單一的中介機構控制數據流向,從根本上杜絕了像科技巨頭那樣濫用使用者數據訓練模型或進行審查的可能性。
對抗科技巨頭:打破 Amazon 與 Microsoft 的壟斷
Pavel Durov 在公告中直言不諱地提出挑戰:「Amazon 和 Microsoft 等中心化運算提供商充當了昂貴的中介,推高了價格並降低了隱私。」
Cocoon 試圖通過市場機制來打破這種壟斷。藉由去中心化的競價模式,開發者有望獲得比傳統雲端更低廉的推理成本,而透過 TON 作為結算層,確保全球 GPU 提供者能獲得即時且透明的收益。
生態系整合:Telegram 是最大後援
Cocoon 的誕生就有富爸爸,背後擁有 Telegram 超過 10 億用戶作為支撐。
Telegram Mini Apps 賦能:未來的 Telegram 機器人與小程序,有望能直接調用 Cocoon 的算力,實現「隱私優先」的 AI 功能(如私密聊天機器人、文檔分析等)。
GPU 挖礦:對於擁有消費級高階顯卡(如 NVIDIA RTX 4090)或企業級顯卡(如 H100, A100)的用戶來說,Cocoon 提供了一個新的挖礦途徑,透過貢獻算力賺取 TON 代幣。
正如 Durov 所言:「Cocoon 想把控制權和隱私帶回它們所屬的地方:用戶手中。」不過說實話,如何透過邊緣算力解決 AI 算力需求,在落地執行上,還有很多需要解決的痛點,能否實現其遠大的願景,還有待時間觀察。