
在 10 月底在迪拜举行的 Blockchain Life 2025 大会上,Telegram 创始人兼TON生态系统创始人 Pavel Durov 宣布将推出了一个名为 Cocoon(Confidential Compute Open Network)的新平台。
AI 模型的训练(training)和推理(inference)都依赖硬件, 其中 training 需要高级显卡(英伟达), 而 inference 阶段的硬件要求比 training 小很多,可以用分布式共享硬件来组网,Cocoon 就是用在分布式推理上。
问题是,如果inference的硬件需求很小的话,单个公司完全可以负担得起这个推理硬件需要,那分布式推理网络还有市场吗?
结论是当“不能把数据发给任何人”变成刚需时,再大的公司也只能选择带 TEE 的分布式网络。Cocoon 正是目前唯一把 “分布式 + 硬件隐私 + 经济激励” 三者完全打通的项目。除了数据隐私以外,有 AI 推理需求的产品,面对“突发流量”也可以选择 Cocoon 来应对突发峰值流量。
就在 12 月 1 日,Cocoon (https://cocoon.org) 正式发布,当前的官网文档描述了整体架构,同时有空闲 GPU 的开发者已经可以部署 Worker 服务来体验流程,不过消费者还需要等待一段时间,等待客户端集成文档发布。
COCOON 是一个基于 TON 区块链的去中心化 AI 推理平台,旨在让 GPU 所有者提供计算资源,用于隐私敏感的 AI 模型执行应用。它通过可信执行环境(Trusted Execution Environment,TEE),特别是 Intel TDX,确保数据(提示和响应)的机密性和完整性。平台采用三层架构,包括客户端(Clients)、代理(Proxies)和工作者(Workers),所有通信均通过 RA-TLS(远程证明传输层安全)加密,并借助链上注册和硬件证明建立信任。支付结算则完全在 TON 区块链上进行,实现安全、可验证的模型推理。

Thanks to Awesome Doge https://cocoon.doge.tg/
客户端(Client)
这是应用层库,用于发送推理请求。它与代理建立 RA-TLS 连接,并根据根合约验证代理的 TEE 证明。客户端负责向代理预支付完成请求的费用。目前设计用于后端服务器(如 Telegram 后端),未来将开发轻量级版本支持移动/桌面应用。