0G Labs启动DiLoCoX-107B公开再训练,承诺全流程透明与开源
okx 3月25日消息,0G Labs 宣布已重新启动 DiLoCoX-107B 的公开再训练流程,训练过程将实现完全透明,包括参与节点、训练过程、参数更新及性能指标等均可被外界验证。据悉,0G Labs已于 2025 年 7 月完成参数规模达 1070 亿的去中心化 AI 模型 DiLoCoX-107B 训练,称其规模较近期受到关注的 Bittensor 72B 模型高出约 48%,并提前约 8 个月实现突破。该模型基于其去中心化 AI 基础设施构建,并与中国移动合作完成训练,在普通 1Gbps 网络条件下实现多节点协同训练,相关论文已发布于 arXiv。0G Labs表示,待再训练完成后将开源模型权重、检查点以及完整的基准测试结果,并推动训练到推理全流程的可验证性,旨在构建一个更具开放性与可信度的去中心化 AI 训练范式。
