欢迎您访问广东某某机械环保科有限公司网站,公司主营某某机械、某某设备、某某模具等产品!
全国咨询热线: 400-123-4567

新闻资讯

哈希游戏| 哈希游戏平台| 哈希游戏APP

HAXIYOUXI-HAXIYOUXIPINGTAI-HAXIYOUXIAPP

哈希游戏- 哈希游戏平台- 官方网站Biteye与PANews联合发布AI Layer1研报:寻找链上DeAI的沃土

作者:小编2025-06-09 18:15:06

  哈希游戏- 哈希游戏平台- 哈希游戏官方网站

哈希游戏- 哈希游戏平台- 哈希游戏官方网站Biteye与PANews联合发布AI Layer1研报:寻找链上DeAI的沃土

  区块链技术凭借其去中心化、透明和抗审查的特性,为AI行业的可持续发展提供了新的可能性。目前,Solana、Base等主流区块链上已经涌现出众多“ Web3 AI”应用。但深入分析可以发现,这些项目仍存在诸多问题:一方面,去中心化程度有限,关键环节和基础设施仍依赖中心化云服务,meme属性过重,难以支撑真正意义上的开放生态;另一方面,与Web2世界的AI产品相比,链上AI在模型能力、数据利用和应用场景等方面仍显局限,创新深度和广度有待提升。

  AI Layer 1的核心在于构建一个开放的算力、存储等资源的共享网络。与传统区块链节点主要聚焦于账本记账不同,AI Layer 1的节点需要承担更复杂的任务,不仅要提供算力、完成AI模型的训练与推理,还需贡献存储、数据、带宽等多样化资源,从而打破中心化巨头在AI基础设施上的垄断。这对底层共识和激励机制提出了更高要求:AI Layer 1必须能够准确评估、激励并验证节点在AI推理、训练等任务中的实际贡献,实现网络的安全性与资源的高效分配。唯有如此才能保证网络的稳定与繁荣,并有效降低整体算力成本。

  Sentient 是一个开源协议平台,正在打造一条 AI Layer1 区块链(初始阶段为 Layer 2,之后将迁移至 Layer 1),通过结合 AI Pipeline 和区块链技术,构建去中心化的人工智能经济体。其核心目标是通过“OML”框架(开放、可盈利、忠诚)解决中心化 LLM 市场中的模型归属、调用追踪和价值分配问题,使 AI 模型实现链上所有权结构、调用透明化和价值分润化。Sentient 的愿景是让任何人都能够构建、协作、拥有并将 AI 产品货币化,从而推动一个公平、开放的 AI Agent 网络生态。

  Sentient Foundation 团队汇聚了全球顶尖的学术专家、区块链创业者和工程师,致力于构建一个社区驱动、开源且可验证的AGI平台。核心成员包括普林斯顿大学教授 Pramod Viswanath 和印度科学研究所教授 Himanshu Tyagi,分别负责 AI 安全性与隐私保护,同时由 Polygon 联合创始人 Sandeep Nailwal 主导区块链战略与生态布局。团队成员背景横跨 Meta、Coinbase、Polygon 等知名企业,以及普林斯顿大学、印度理工学院等顶尖高校,覆盖 AI/ML、NLP、计算机视觉等领域,协力推动项目落地。

  SentientAGI 已发布多个“Dobby”系列模型,主要基于 Llama 模型,聚焦自由、去中心化和加密货币支持的价值观。其中,leashed 版本风格较为约束和理性,适合稳健输出的场景;unhinged 版本偏向自由大胆,具备更丰富的对话风格。Dobby 模型已经被集成到多个 Web3 原生项目中,如 Firework AI 和 Olas,用户也可以在 Sentient Chat 中直接调用这些模型进行互动。Dobby 70B 是有史以来最去中心化的模型,拥有超过 60 万名所有者(持有 Dobby 指纹 NFT 的人同时也是该模型的共同拥有者)。

  Sentient 还计划推出 Open Deep Search,这是一个试图超越 ChatGPT 和 Perplexity Pro 的搜索代理系统。该系统结合了 Sensient 的搜索功能(如查询重述、文档处理)与推理代理,通过开源 LLM(如 Llama 3.1 和DeepSeek)提升搜索质量。在 Frames Benchmark 上,其性能已超过其他开源模型,甚至接近部分闭源模型,展现了强大的潜力。

  Sentient Chat 是一个去中心化聊天平台,结合了开源大型语言模型(如 Dobby 系列)与先进的推理代理框架,支持多代理集成和复杂任务执行。平台内嵌的推理代理可以完成搜索、计算、代码执行等复杂任务,为用户提供高效的交互体验。此外,Sentient Chat 还支持链上智能体的直接集成,目前包括占星学 Agent Astro247、加密分析 Agent QuillCheck、钱包分析 Agent Pond Base Wallet Summary 和灵修指引 Agent ChiefRaiin。用户可以根据需求选择不同的智能代理进行互动。Sentient Chat 将作为代理的分发和协调平台使用。用户的提问可以被路由到任意一个已集成的模型或代理,以提供最优的响应结果。

  凭借 Polygon 联合创始人 Sandeep Nailwal 的资源支持,以及顶级 VC 和行业伙伴的背书,Sentient 在资源整合和市场关注度上处于领先地位。不过在当前市场对高估值项目逐渐祛魅的背景下,Sentient 能否交付真正具有影响力的去中心化 AI 产品,将是其能否成为去中心化 AI 所有权标准的重要考验。这些努力不仅关乎 Sentient 自身的成功,也对整个行业的信任重建和去中心化发展具有深远影响。

  Sahara AI 是一个为 AI × Web3 新范式而生的去中心化基础设施致力于构建一个开放、公平且协作的人工智能经济。项目通过去中心化账本技术,实现数据集、模型和智能 Agent 的链上管理与交易,确保数据和模型的主权与可追溯性。同时,Sahara AI 引入透明、公平的激励机制,让所有贡献者,包括数据提供者、标注员和模型开发者,都能在协作过程中获得不可篡改的收入回报。平台还通过一个无需许可的“版权”系统,保护贡献者对 AI 资产的所有权和归属,并鼓励开放共享和创新。

  Sahara 不只是一个科研项目,而是由一线技术创业者与投资人联合推动、具备落地导向的深科技平台。其核心架构有可能成为 AI × Web3 应用落地的关键支点。Sahara AI 已获得 Pantera Capital、Binance Labs、红杉中国等头部机构累计 4,300 万美元的投资支持;由南加州大学终身教授、2023 年度三星研究员 Sean Ren 和前 Binance Labs 投资总监 Tyler Zhou 共同创立,核心团队成员来自斯坦福大学、加州大学伯克利分校、微软、谷歌、币安等顶尖机构,融合了学术界与产业界的深厚积累。

  在此基础上,为了鼓励用户提交高质量的数据与服务,通过介紹双重激励机制,不仅可获得 Sahara 提供的奖励,还能获得生态伙伴的额外回报,实现一次贡献、多方收益。以数据贡献者为例,一旦其数据被模型反复调用或用于生成新应用,即可持续获取收益,真正参与 AI 价值链。这一机制不仅延长了数据资产的生命周期,也为协作与共建注入了强大动能,例如,BNB Chain 上的 MyShell 就通过 DSP 众包生成定制数据集,提升模型性能,用户则获得 MyShell 代币激励,形成双赢闭环。

  Sahara AI Developer Platform 是一个面向开发者与企业的一站式 AI 构建与运营平台,提供从数据获取、模型训练到部署执行与资产变现的全流程支持。用户可以直接调用 Sahara DSP 中的高质量数据资源,将其用于模型的训练与微调;处理完成的模型可在平台内进行组合、注册并上架至 AI 市场,通过 Sahara 区块链实现所有权确权与灵活授权。Studio 同时整合去中心化计算能力,支持模型训练与 Agent 的部署运行,确保计算过程的安全性与可验证性。开发者还可将关键数据和模型存储,进行加密托管和权限控制,防止未授权访问。通过 Sahara AI AI Developer Platform,开发者无需自建基础设施,即可以更低门槛构建、部署并商业化 AI 应用,并通过协议化机制全面融入链上 AI 经济体系。

  Sahara AI 的生态层串连了资料提供者、AI 开发者、消费者、企业用户与跨链合作伙伴。无论是想贡献资料、开发应用、使用产品,还是推动企业内部 AI 化,都能发挥作用并找到收益模式。资料标注者、模型开发团队与算力供应者可以将其资源注册为链上资产,透过 Sahara AI 的协议机制进行授权与分润,让每一次被使用的资源都能自动获得回报。开发者则能通过一站式的平台串接资料、训练模型、部署 Agent,在 AI Marketplace 中直接商业化他们的成果。

  一般用户无需技术背景,也可参与资料任务、使用 AI App、收藏或投资链上资产,成为 AI 经济的一部分。对企业来说,Sahara 提供从资料众包、模型开发到私有部署与收益变现的全流程支持。除此之外,Sahara 支援跨链部署,任何公链生态都可使用 Sahara AI提供的协议与工具来建构 AI 应用、接入去中心化 AI 资产,实现与多链世界的兼容与扩展。这使得 Sahara AI不只是单一平台,更是一个链上 AI 生态的底层协作标准。

  Sahara AI 让AI不再局限于开发人员或者大的AI公司,让AI更加开放包容和民主化。对于普通用户,无须编程知识即参与贡献并获取收益,Sahara AI 打造的是一个人人都能参与的去中心化 AI 世界。对于技术开发人员,Sahara AI 打通Web2和Web3开发路径,提供了去中心化但灵活强大的开发工具和高质量的数据集。对于 AI 基础设施提供者,Sahara AI 提供了模型、数据、算力与服务的去中心化变现新路径。Sahara AI 不仅仅只做公链基础设施,还下场做核心应用,利用区块链技术促进AI版权系统的发展。现阶段 Sahara AI 已经和多个顶级AI机构达成合作,取得初步成功。后续是否成功,还应观察主网上线后的性能表现,生态产品发展和采用率以及经济模型能否在TGE后驱动用户继续为数据集做贡献。

  Infernet 采用了灵活简单的轻量化框架,由于其易用性和高效性,在推出后迅速吸引了 8,000 多个独立节点加入。这些节点具备多样化的硬件能力,包括 GPU 和 FPGA,能够为 AI 推理和零知识证明生成等复杂任务提供强大的计算能力。然而,为了保持系统的简洁性,Infernet 放弃了一些关键功能,例如通过共识协调节点或集成稳健的任务路由机制。这些限制使 Infernet 难以满足更广泛的 Web2 和 Web3 开发者的需求,从而促使 Ritual 推出了更加全面和强大的 Ritual Chain。

  Ritual Chain 是专为 AI 应用设计的下一代 Layer 1 区块链,旨在弥补 Infernet 的局限性,并为开发者提供更加稳健和高效的开发环境。通过 Resonance 技术,Ritual Chain 为 Infernet 网络提供了简洁且可靠的定价和任务路由机制,大幅优化了资源分配效率。此外,Ritual Chain 基于 EVM++ 框架,这是对以太坊虚拟机(EVM)的向后兼容扩展,具备更强大的功能,包括预编译模块、原生调度(scheduling)、内置账户抽象(Account Abstraction, AA)以及一系列先进的以太坊改进提案(EIPs)。这些特性共同构建了一个功能强大、灵活且高效的开发环境,为开发者提供了全新的可能性。

  原生调度解决了任务定时触发和条件执行的需求。传统区块链通常依赖中心化的第三方服务(如 keeper)来触发任务执行,但这种模式存在中心化风险和高额成本。Ritual Chain 通过内置调度器彻底摆脱了对中心化服务的依赖,开发者可以直接在链上设置智能合约的入口点和回调频率(callback frequency)。区块生产者会维护挂起调用的映射表,在生成新区块时优先处理这些任务。结合 Resonance 的资源动态分配机制,Ritual Chain 能够高效且可靠地处理计算密集型任务,为去中心化 AI 应用提供了稳定的保障。

  此外,Ritual 还与多个成熟项目展开了深度合作,推动去中心化 AI 生态的发展。例如,与 Arweave 的合作为模型、数据和零知识证明提供了去中心化的永久存储支持;通过与 StarkWare 和 Arbitrum 的集成,Ritual 为这些生态系统引入了原生的链上 AI 能力;此外,EigenLayer 提供的再质押机制为 Ritual 的证明市场增加了主动验证服务,进一步增强了网络的去中心化和安全性。

  当前去中心化人工智能系统的发展正面临三大核心技术瓶颈:执行(Execution)、验证(Verification)与通信(Communication)。这些瓶颈不仅限制了大模型训练能力的释放,也制约了全球算力资源的公平整合与高效利用。Gensyn 团队在系统性研究基础上,提出了三项具有代表性的创新机制——RL Swarm、Verde 以及 SkipPipe,针对上述问题分别构建了解决路径,推动了去中心化 AI 基础设施从概念走向落地。

  为应对这一挑战,Gensyn 提出 RL Swarm,一种点对点的强化学习后训练系统。其核心思路是将训练过程转化为一个分布式协作博弈。该机制分为“共享—批判—决策”三阶段:首先,节点独立完成问题推理并公开共享结果;随后,各节点对同伴答案进行评价,从逻辑性与策略合理性等角度提出反馈;最后,节点基于群体意见修正自身输出,生成更稳健的答案。该机制有效融合个体计算与群体协同,尤其适用于数学与逻辑推理等需要高精度和可验证性的任务。实验显示,RL Swarm 不仅提升了效率,也显著降低了参与门槛,具备良好的扩展性和容错性。

  Verde 的关键思想是“最小可信裁定”:当验证者怀疑供应者训练结果有误时,仲裁合约只需重算计算图中首个存在争议的操作节点,而无需重演整个训练过程。这大幅度降低了验证负担,同时确保了至少一方诚实时的结果正确性。为解决不同硬件间浮点非确定性问题,Verde 还配套开发了 Reproducible Operators(可复现操作符库),强制对常见数学操作如矩阵乘法设置统一执行顺序,从而实现跨设备的位级一致输出。这一技术显著提升了分布式训练的安全性与工程可行性,是目前去信任验证体系中的重要突破。

  整个机制建立在训练者记录关键中间状态(即检查点)的基础上,多个验证者被随机指派去复现这些训练步骤,从而判断输出的一致性。一旦有验证者复算结果与训练者存在分歧,系统不会粗暴地重跑整个模型,而是通过网络仲裁机制精确定位二者在计算图中首次发生分歧的操作,仅对该操作进行重放比对,从而以极低的开销实现争议裁决。通过这种方式,Verde 在无需信任训练节点的前提下,既保证了训练过程的完整性,又兼顾了效率与可扩展性,是为分布式 AI 训练环境量身定制的验证框架。

  Gensyn 针对这一问题提出 SkipPipe:一种支持跳跃执行与动态路径调度的高容错流水线训练系统。SkipPipe 引入了“跳跃比例(skip ratio)”机制,允许某些微批数据在特定节点负载过高时跳过部分模型层,同时使用调度算法动态选择当前最优计算路径。实验显示,在地理分布广、硬件差异大、带宽受限的网络环境下,SkipPipe 训练时间可降低高达 55%,并在高达 50% 节点故障率时仍能维持仅 7% 的损失,展现出极强的韧性和适应性。

  在投资布局方面,Polychain Capital自2019年起孵化Bittensor,目前持有价值约2亿美元的TAO代币;Dao5持有约价值5000万美元的TAO,也是Bittensor 生态系统的早期支持者。2024年,Pantera Capital和Collab Currency通过战略投资进一步加码。同年8月,灰度集团将TAO纳入其去中心化AI基金,标志着机构投资者对项目价值的高度认可和长期看好。

  Bittensor尽管展现出卓越潜力,但作为前沿技术探索,仍面临多维度挑战。在技术层面,分布式AI网络面临的安全威胁(如模型窃取与对抗攻击)比中心化系统更为复杂,需持续优化隐私计算与安全防护方案;经济模型方面,早期存在通胀压力,子网代币市场波动性较高,需警惕可能的投机泡沫;监管环境上,虽然SEC已将TAO归类为效用型代币,但全球各地区监管框架差异仍可能限制生态扩张;同时,面对资源雄厚的中心化AI平台激烈竞争,去中心化解决方案需在用户体验和成本效益方面证明其长期竞争优势。

  随着2025年减半周期临近,Bittensor发展将聚焦四大战略方向:进一步深化子网专业化分工,提升垂直领域应用的服务质量与性能;加速与DeFi生态的深度整合,借助新引入的EVM兼容性拓展智能合约应用边界;通过dTAO机制在未来100天内平稳将网络治理权重从TAO逐步转向Alpha代币,推动治理去中心化进程;同时积极拓展与其他主流公链的互操作性,扩大生态边界与应用场景。这些协同发展的战略举措将共同推动Bittensor向机器智能市场经济的宏伟愿景稳步迈进。

  提交的数据以顺序方式组织,这种顺序被称为数据流(data flow),可以被理解为日志条目列表或固定大小数据扇区的序列。在 0G 中,每一块数据都可以通过一个通用的 偏移量(offset) 快速定位,从而实现高效的数据检索和挑战查询。默认情况下,0G 提供一个称为 主数据流(main flow) 的通用数据流,用于处理大部分应用场景。同时,系统还支持 专用数据流(specialized flows),这些数据流专门接受特定类别的日志条目,并提供独立的连续地址空间,针对不同的应用需求进行优化。

  在性能层面,0G 预计主网 TPS 将提升至 3,000 到 10,000 的范围,性能较此前实现了 10 倍增长,确保网络能够满足 AI 推理和高频交易等任务伴随的高强度的计算需求。然而,在算力市场和模型方面,0G 仍需要长足的建设。目前,0G 的算力业务还局限于 AI 推理服务,在模型训练任务的支持上,还需要更多的定制化设计和技术创新。作为 AI 发展的核心组成,模型和算力不仅是推动产品升级和大规模应用的关键,也是 0G 实现其成为最大 AI Layer 1 生态系统目标的必经之路。

  Kite AI 基于其核心共识机制“Proof of Attributed Intelligence”(PoAI),构建了一条 EVM 兼容的 Layer 1 区块链,致力于打造一个公平的 AI 生态系统,旨在确保数据提供者、模型开发者以及 AI Agent 创作者在 AI 价值创造中的贡献能够被透明记录并获得公正回报,从而打破由少数科技巨头垄断的 AI 资源格局。目前Kite AI 将发展重点聚焦在 C 端应用层,并通过子网架构和交易市场等形式,保障AI资产的开发、确权和变现。

  Vana 是专为“用户数据变现与AI训练”构建的新一代数据底层 AI Layer 1。它跳出了大公司垄断数据的限制,让个人能真正拥有、管理并分享自己的数据。用户可通过“数据DAO” (用户共管、分享并获益于AI训练数据的去中心化自治组织),在保留数据所有权的前提下,将社交、健康、消费等数据汇集后用于AI训练,并参与分红。此外,Vana在设计上重视隐私与安全,采用隐私计算和加密验证技术保护用户的数据安全。

  Nillion 是一个专注于数据隐私和安全计算的“盲计算网络”,为开发者和企业提供了一套隐私增强技术(如多方安全计算MPC、同态加密、零知识证明等),可实现在不解密原始数据的前提下进行数据的存储、共享和复杂计算。这让诸如AI、去中心化金融(DeFi)、医疗、个性化应用等场景能够更安全地处理高价值和敏感信息,而不必担心数据泄露风险。目前,Nillion生态已经支持包括AI隐私计算、个性化智能体、私有知识库等众多创新应用,吸引了Virtuals、NEAR、Aptos、Arbitrum 等合作伙伴。

  Mira Network 是一个专为AI输出做”去中心化验证”的创新网络,旨在为自主 AI 打造可信赖的验证层。Mira 的核心创新采用集成评估技术在后台同时运行多个不同的语言模型,将 AI生成的结果细分为具体断言后交由分布式模型节点独立验证,只有当绝大多数模型达成共识并认定内容为”事实”时才输出给用户。通过这种多模型共识机制,Mira 将单一模型25%的幻觉率显著降低至仅3%,相当于错误率降低90%以上。Mira摒弃了对中心化大机构或单一大模型的依赖,采用分布式节点和经济激励机制,成为众多Web2和Web3 AI应用的可验证基础设施层,真正实现从AI副驾驶,向具备自主决策能力且可信任的AI系统跃迁。

  Prime Intellect 是一个聚焦在去中心化AI训练和算力基础设施的平台,致力于整合全球计算资源,推动开源AI模型的协同训练。其核心架构包括点对点的算力租赁市场和开放的训练协议,允许任何人将闲置硬件贡献到网络,用于大模型训练与推理,从而缓解了传统AI高度集中、门槛高且资源浪费的问题。同时,Prime Intellect开发了开源分布式训练框架(如OpenDiLoco),支持数十亿参数大模型的跨地域高效训练,并在算法创新与特殊赛道深耕,比如基于元基因组的METAGENE-1模型和面向数学推理的INTELLECT-MATH项目。2025年,Prime Intellect还推出了SYNTHETIC-1计划,利用众包与强化学习,打造全球最大开源推理与数学代码验证数据集。