2026年3月29日星期日

AI行业动态与开源工具汇总:Sora关停时间表、大模型训练优化、面试笔记与可视化教程

本文汇总了2026年3月底的AI行业关键资讯与开源项目,包括OpenAI宣布Sora将于2026年4月起分阶段关停、xAI联合创始人离职动态、大模型训练与推理优化技术(如无梯度训练、显存压缩)、以及多个实用开源工具,如中文AI面试笔记、三步可视化训练工具和300+大模型API价格汇总JSON。适合AI从业者、研究者及技术爱好者了解行业趋势与获取学习资源。

Tags:

AI 日报 · 2026年03月29日

AI资讯

1、xAI联创全员出走仅剩马斯克,合并估值1.25万亿

2、Axiom用Lean实现可验证推理获2亿美元A轮

3、卡帕西背书Flapping Airplanes:Megakernels加速大模型推理

4、VLM-GPA引导3D人体重建:对齐偏好抑制幻觉

5、Anthropic估值争议:Mythos泄露与军方审计压力

6、Hermes Agent开源自进化智能体,越用越强

7、EGGROLL无梯度训练十亿参数模型新路

8、开源TITANS训练库:前向更新记忆实现测试时学习

9、CS-MoE跨层共享专家池,减冗余提效能

10、谷歌TurboQuant将LLM显存压缩6倍零损

11、Claude Code上新自动模式:分类器替代人工审批

12、Meta携高校推出Hyperagents实现自我优化

13、CERN用HLS4ML把小模型烧进芯片纳秒筛数据

14、AI挤压科研入门岗,学术人才管道或断裂

15、OpenAI关停Sora:视频生成退场转向企业与代码

最新开源

1、开源递归自我改进框架:让AI代理越用越强

2、EcoMOF-AI用机器学习预测MOF吸碳性能

3、Colab上从零搭建TensorFlow聊天机器人教程

4、精选生成式AI论文清单:每周阅读精炼推荐

5、一份JSON汇总300+大模型API最新报价

6、Sentrix AI:边缘自治安防网激活旧CCTV

7、开源中文AI面试笔记:覆盖大模型与工程实战

8、三步可视化训练AI模型:免GPU零门槛


📰 最新资讯


01 · xAI联创全员出走仅剩马斯克,合并估值1.25万亿

 🏷 行业动态

xAI联合创始人相继离职,12人团队仅剩马斯克。公司被指方向曾走偏、正重建且管理压力高,同时Grok新模型发布延期、月烧钱近10亿美元。SpaceX收购并合并后估值或达1.25万亿美元,叠加引入外部高管,反映其在战略与整合上的不确定性。

主要亮点:

  • • 12名联合创始人仅剩马斯克在位
  • • Grok迭代延期且每月消耗近10亿美元
  • • SpaceX收购整合,合并估值或达1.25万亿美元

详情链接:https://finance.sina.com.cn/stock/usstock/c/2026-03-28/doc-inhsqhwn0897929.shtml?cre=tianyi&mod=pchp&loc=9&r=0&rfunc=37&tj=cxvertical_pc_hp&tr=12


02 · Axiom用Lean实现可验证推理获2亿美元A轮

 🏷 行业动态

AI初创Axiom完成2亿美元A轮融资、估值16亿美元,瞄准大模型"可信"难题。其以Lean形式化语言生成可机器检查的证明,把推理过程变成可验证的数学证明链条。系统在普特南竞赛满分并形式化证明数论猜想,面向量化金融等高准确场景。

主要亮点:

  • • 以Lean输出形式化证明,推理每步可机器核验
  • • 普特南竞赛12题全对,展示系统推理与验证能力
  • • 完成埃尔德什问题部分题目形式化证明,学界大咖加盟

详情链接:https://eu.36kr.com/zh/p/3741102950563847


03 · 卡帕西背书Flapping Airplanes:Megakernels加速大模型推理

 🏷 技术突破

卡帕西公开支持新实验室Flapping Airplanes,其获红杉等1.8亿美元种子轮。团队提出Megakernels,将推理计算与通信融合进单一GPU核,宣称提速6.7倍并降能耗。此举直指"堆算力"瓶颈与数据枯竭,或重塑大模型成本结构与扩展定律认知。

主要亮点:

  • • 红杉、GV、Index领投1.8亿美元种子轮,卡帕西公开站台
  • • Megakernels融合计算与通信进单核,推理速度称提升6.7倍
  • • 反对堆算力与依赖互联网数据,瞄准数据枯竭与成本拐点

详情链接: https://x.com/karpathy/status/2016590919143952466


04 · VLM-GPA引导3D人体重建:对齐偏好抑制幻觉

 🏷 研究论文

南洋理工等提出VLM-GPA框架,用视觉语言模型"裁判"对扩散式3D人体重建进行群体偏好对齐,缓解肢体穿模、脚底悬空与遮挡失真。裁判具备规则/原型双记忆与自我反思,能归纳新判据。方法在权威数据集刷新SOTA,野外误差较此前最佳生成式模型降8.2%,已被CVPR 2026接收。

主要亮点:

  • • VLM裁判代理介入生成过程,针对人体重建幻觉做纠偏
  • • 规则记忆+原型记忆双机制,存物理准则与成败案例
  • • 自我反思自动总结新规则,野外误差降低8.2%并刷新记录

详情链接: https://arxiv.org/abs/2602.19180


05 · Anthropic估值争议:Mythos泄露与军方审计压力

 🏷 行业动态

审计文件称Anthropic 3800亿美元估值倚重"安全叙事",但泄露的Mythos内部资料指其代号Capybara的模型具备更强、可能偏进攻性的网络能力,且通过公开版不一致性作为"阻尼场"遮蔽真实水平。军方要求放宽军事用途限制被拒后,将其列为供应链风险并拉黑,凸显安全品牌与高风险能力的结构性冲突。

主要亮点:

  • • 泄露称Capybara性能远超公开模型版本
  • • 以部署不一致性作"阻尼场"掩盖精确能力
  • • 军方施压放宽限制遭拒后列入黑名单

详情链接: https://www.tmtpost.com/7926731.html


06 · Hermes Agent开源自进化智能体,越用越强

 🏷 开源项目

Nous Research 开源 Hermes Agent(MIT),可部署在自有服务器的自主智能体,具备跨会话持久记忆与"技能文档化"自我强化机制,支持多平台消息网关、cron 定时与子Agent并行。它将Agent从在线助手推向可持续运转的"数字员工"基础设施,竞争焦点转向长期技能与记忆积累。

配图
配图

主要亮点:

  • • 多层记忆+自动生成SKILL.md,复用并持续迭代能力
  • • 部署在VPS/Docker/SSH等,离线也能24小时自主执行
  • • 统一连接多平台消息与定时任务,记忆与技能全局共享

详情链接: https://x.com/grok/status/2032331665033298224


07 · EGGROLL无梯度训练十亿参数模型新路

 🏷 技术突破

英伟达与牛津推出EGGROLL,用进化策略替代反向传播,在不算梯度、不用小数的前提下从零预训练十亿参数模型。通过将满秩矩阵拆分并并行突变筛选,吞吐量接近批量推理,挑战对高精度硬件与大规模GPU集群的依赖。

主要亮点:

  • • 无需反向传播与梯度,成功训练十亿参数模型
  • • 满秩矩阵拆成两小矩阵突变,保留有效更新
  • • 支持数十万并行突变,吞吐量接近批量推理

详情链接: https://x.com/gaganghotra_/status/2037967406669484501


08 · 开源TITANS训练库:前向更新记忆实现测试时学习

 🏷 开源项目

开发者开源HuggingFace风格的titans-trainer,复现Google TITANS架构:在每个块引入可前向更新的长期记忆MLP,缓解灾难性遗忘并支持测试时学习。BioTitan用25万细胞数据逼近Geneformer需3000万数据的表现,2轮训练+两张RTX3090即可完成,代码与权重已发布。

主要亮点:

  • • TITANS块内长期记忆MLP,前向传播中更新权重
  • • 无需微调或LoRA,支持测试时学习适配新领域
  • • BioTitan以小数据低算力训练,性能接近更大模型

详情链接: https://github.com/pafos-ai/titans-trainer


09 · CS-MoE跨层共享专家池,减冗余提效能

 🏷 研究论文

CS-MoE 提出跨层共享的混合专家 Transformer,通过全局共享专家池打破层间隔离,缓解传统密集与标准 MoE 的参数冗余。在相同总参量与计算量下,仅激活约55%参数即可超越密集模型,0.6B-8B 训练困惑度全面领先,为受限算力下扩展模型容量提供新路径。

主要亮点:

  • • 跨层共享全局专家池,实现语义算子纵向复用
  • • 固定层专属专家+动态共享专家,兼顾稳定与灵活
  • • 同等预算仅激活55%参数,性能超越密集基线

详情链接: https://github.com/CESTC-REAL/Self-MoE/blob/main/CS-MoE-view.pdf


10 · 谷歌TurboQuant将LLM显存压缩6倍零损

 🏷 研究论文

谷歌提出TurboQuant,专攻LLM推理中最"吃显存"的KV缓存,把32位数值压到3位,实现6倍内存缩减且几乎零精度损失。它无需重训即可迁移到任意模型,并用PolarQuant随机旋转与QJL纠错抑制压缩失真。在H100上推理提速8倍,16GB显存占用降至3GB以下,显著降低本地部署与长上下文成本。

主要亮点:

  • • KV缓存32位压到3位,内存缩减6倍零精度损失
  • • 无需重新训练即可应用任意模型,落地门槛低
  • • H100推理提速8倍,16GB显存降至3GB以下

详情链接: https://x.com/gaganghotra_/status/2037919971104395437


11 · Claude Code上新自动模式:分类器替代人工审批

 🏷 产品更新

Anthropic 为 Claude Code 引入自动模式,针对频繁权限弹窗导致的审批疲劳。系统以模型分类器取代人工确认,采用输入探针与输出分类两层架构,并在剥离推理与工具输出的前提下评估工具调用风险。三层放行/拦截逻辑提升体验与安全平衡,测试误拦仅0.4%,为智能编程助手权限治理提供新范式。

主要亮点:

  • • 用Sonnet 4.6分类器替代人工权限审批流程
  • • 仅看用户消息与工具调用,剥离推理与输出防误导
  • • 三层过滤+多次拦截终止会话,误拦0.4%漏报17%

详情链接: https://www.anthropic.com/engineering/claude-code-auto-mode


12 · Meta携高校推出Hyperagents实现自我优化

 🏷 研究论文

Meta与多所高校联合研发"hyperagents"系统:不仅能完成特定任务,还能在执行过程中优化自身获取更好结果的机制。研究强调其跨任务领域通用性,为自我加速型AI提供新范式,体现智能系统在任务能力与自我改进架构上的双重进展。

主要亮点:

  • • 任务执行同时优化自身机制,结果可持续提升
  • • 方法论跨领域适用,可迁移到多种任务场景
  • • 为自我加速型AI发展提供系统架构新路径

详情链接: https://the-decoder.com/metas-hyperagents-improve-at-tasks-and-improve-at-improving/


13 · CERN用HLS4ML把小模型烧进芯片纳秒筛数据

 🏷 技术突破

CERN为应对LHC每年约40000EB海量数据,采用HLS4ML将PyTorch/TensorFlow训练的小型模型编译到FPGA/ASIC,用查找表预计算实现近乎零计算的纳秒级推断。一级触发约1000块FPGA在50ns内决策,仅保留0.02%事件;2031高亮度升级将促使专用芯片进一步演进,展示"小模型+专用硬件"在极限实时场景的价值。

主要亮点:

  • • HLS4ML将小模型直接编译到FPGA/ASIC执行
  • • 查找表预计算替代重运算,实现50ns内评估
  • • 一级触发仅留0.02%事件,后续CPU/GPU深度过滤

详情链接: https://theopenreader.org/Journalism:CERN_Uses_Tiny_AI_Models_Burned_into_Silicon_for_Real-Time_LHC_Data_Filtering


14 · AI挤压科研入门岗,学术人才管道或断裂

 🏷 行业动态

Nature 采访48位学者指出,写代码、跑模型、数据分析等入门科研任务正被AI快速替代,实验室对研究程序员与初级岗位需求骤降。美国自2023年以来入门招聘降35%,AI相关削减中63%集中在初级层。短期效率提升,长期却可能切断青年科研训练路径,削弱未来原创问题提出能力。

主要亮点:

  • • 纯认知型科研杂务被AI迅速接管,初级岗位首当其冲
  • • 美国入门招聘自2023降35%,63%削减发生在初级层
  • • 效率换来训练断层,未来或缺乏能提出新问题的人才

详情链接:https://www.nature.com/articles/d41586-026-00444-9


15 · OpenAI关停Sora:视频生成退场转向企业与代码

 🏷 行业动态

OpenAI宣布Sora进入分阶段关闭:2026年4月先停应用,9月再停API。此举显示其从创意视频生成转向代码生成与企业级产品,反映行业资金与算力正加速流向更可衡量的生产力场景,视频生成赛道或迎来新一轮洗牌。

主要亮点:

  • • Sora将分阶段停运:2026年4月停App,9月停API
  • • 战略重心转向代码生成与企业级产品开发
  • • 行业资源从创意工具转向生产力工具的信号更明确

详情链接: https://the-decoder.com/openai-sets-two-stage-sora-shutdown-with-app-closing-april-2026-and-api-following-in-september/


🔭 最新开源


01 · 开源递归自我改进框架:让AI代理越用越强

 🏷 开源项目

GitHub Trending 项目 recursive-improve 以 Python 实现"代理递归自我改进"思路,让智能体在执行任务后自评、归因与迭代策略,形成持续优化闭环。它为构建更稳健、可演化的 Agent 工作流提供可复用骨架,推动自动化研发与长任务执行效率提升。

主要亮点:

  • • 递归改进闭环:执行-反思-修正-再执行的Agent范式
  • • Python开源实现,便于接入现有Agent与工具链
  • • 面向长任务与自动化流程,提高稳定性与自适应能力

详情链接: https://github.com/kayba-ai/recursive-improve


02 · EcoMOF-AI用机器学习预测MOF吸碳性能

 🏷 开源项目

EcoMOF-AI 是一款开源工具,利用机器学习预测金属有机框架(MOF)的二氧化碳吸附表现,帮助研究者在实验前快速筛选高潜力材料,降低试错成本并加速碳捕集材料研发。项目以 JavaScript 实现,强调可用性与工程化落地潜力。

主要亮点:

  • • 机器学习驱动的MOF二氧化碳吸附性能预测
  • • 用于材料快速筛选,减少实验迭代与成本
  • • 开源实现(JavaScript),便于集成与二次开发

详情链接: https://github.com/Linus-He/ecomof-ai


03 · Colab上从零搭建TensorFlow聊天机器人教程

 🏷 开源项目

该开源项目提供一套在Google Colab中从零实现AI聊天机器人的实践路线,基于TensorFlow与Jupyter Notebook,配合简易交互界面快速体验训练与对话流程。降低入门门槛,便于教学演示、原型验证与二次扩展。

主要亮点:

  • • 在Google Colab即可运行,免本地环境配置
  • • 基于TensorFlow实现训练与推理的完整流程
  • • 提供简单交互界面,便于快速测试对话效果

详情链接: https://github.com/Don-Youssef/ai-chatbot-colab


04 · 精选生成式AI论文清单:每周阅读精炼推荐

 🏷 开源项目

该 GitHub 项目汇集作者每周深度阅读后筛出的生成式AI论文与文章,强调"值得花时间"的精选而非大而全索引。为研究者与工程团队提供快速发现关键进展、把握技术脉络与趋势的入口,降低信息过载成本。

主要亮点:

  • • 基于持续周更阅读沉淀的精选推荐
  • • 覆盖论文与技术文章,聚焦实用价值
  • • 非穷举索引,帮助快速建立领域认知

详情链接: https://github.com/zTehRyaN/awesome-genai-papers


05 · 一份JSON汇总300+大模型API最新报价

 🏷 开源项目

BenchGecko 开源 llm-pricing,用单一 JSON 文件集中收录 300+ LLM API 价格,并按周更新,便于快速对比不同模型的调用成本。它降低了定价信息碎片化带来的选型门槛,支持企业做预算评估、自动化路由与性价比优化,推动更透明的模型采购与成本治理。

主要亮点:

  • • 单一JSON聚合300+模型API定价信息
  • • 每周更新,减少定价变动带来的信息滞后
  • • 便于做成本对比、预算测算与模型路由策略

详情链接: https://github.com/BenchGecko/llm-pricing


06 · Sentrix AI:边缘自治安防网激活旧CCTV

 🏷 开源项目

Sentrix AI 是一套分布式自治安防网格,将传统 CCTV 融合为统一的"神经生态",在边缘侧分散计算实现从被动监控到主动拦截的跃迁。它把沉睡的存量硬件升级为可协同、可响应的防护系统,为安防智能化与低成本升级提供新路径。

主要亮点:

  • • 分布式自治安防网格,实现多点协同防御
  • • 边缘去中心化处理,降低延迟并提升鲁棒性
  • • 融合存量CCTV为统一智能体系,减少改造成本

详情链接: https://github.com/arpitpatel1364/Sentrix-AI


07 · 开源中文AI面试笔记:覆盖大模型与工程实战

 🏷 开源项目

GitHub Trending 项目整理中文 AI/NLP 面试要点,涵盖大模型、机器学习、深度学习、Python 以及方案设计与工具链,面向求职与复习场景提供系统化知识框架与实践导向梳理,帮助快速补齐短板、提升面试表达与工程思维。

主要亮点:

  • • 聚焦大模型面试:原理、训练推理与常见考点
  • • 覆盖ML/DL与Python核心知识,便于快速查漏补缺
  • • 强调方案设计与工具链,贴近真实业务落地面试

详情链接: https://github.com/xbsheng/ai-interview-note


08 · 三步可视化训练AI模型:免GPU零门槛

 🏷 开源项目

sinpoce/ai-trainer-lite 是一款轻量级开源训练工具,主打"三步训练专属AI模型",覆盖文本分类、图像分类与表格AutoML,并提供Gradio可视化界面。无需GPU与机器学习背景即可上手,降低模型训练门槛,有助于中小团队快速验证业务场景与原型落地。

主要亮点:

  • • 三步流程完成训练,面向非算法用户
  • • 支持文本/图像分类与表格AutoML一体化
  • • Gradio界面可视化操作,无需GPU部署

详情链接: https://github.com/sinpoce/ai-trainer-lite


以上内容由 AI 汇总,数据来源于网络公开平台。

OpenClaw插件ClawTeam优化版:解决多智能体超时通信问题,支持长时间复杂任务

本文介绍香港大学开源项目ClawTeam的OpenClaw优化版本,该插件解决了原生多智能体系统超时强制终止、无法通信、工作区干扰等痛点。支持股票分析、技术研究、代码审查等复杂任务,提供一键安装脚本,适合需要长时间运行、多智能体协作的OpenClaw进阶用户。

Tags:

图片

你好,我是元小二,专注分享 AI 提效、一人公司实践和个人成长。这里有 OpenClaw、Claude Code、自动化流程、虚拟产品,也有理财、思考和生活系统。

欢迎关注,也欢迎后台留言告诉我,你对哪部分内容感兴趣。


朋友们,今天要和大家分享一个让我兴奋了好几天的发现。
我最近一直在研究一个问题:OpenClaw的多智能体系统,到底有多拉胯?

说实话,用了一段时间之后,我发现OpenClaw自带的sub agents有个致命缺陷——它是请求响应模式,子智能体之间根本不能互相说话,超时了直接强制终止,还共享工作区互相干扰。

Alt text

这就像你组了一个团队,但团队成员之间不能开会,不能沟通,还坐在同一张桌子上互相抢资料。

这哪是团队,这叫散沙!


一、然后我发现了这个东西

香港大学开源了一个项目叫 ClawTeam。香港大学官方仓库:
https://github.com/HKUDS/ClawTeam

Alt text

但问题来了——ClawTeam为了兼容Claude Code、Codex等一堆工具,对OpenClaw的支持并不完美。

后来我发现了另外一个仓库,是根据香港大学这个仓库做的优化,专门为OpenClaw做了深度优化:

  • ✅ 修复了多个原版bug

  • ✅ 加入了会话隔离

  • ✅ 权限自动审批,防止卡死

  • ✅ inbox去重复

  • ✅ 一键安装脚本

这个仓库地址:https://github.com/win4r/ClawTeam-OpenClaw

Alt text

二、它到底比原生的强在哪?

我对ClawTeam的评价是:这才是真正的多智能体。

原生OpenClaw的sub agents:

  • 没有持久状态

  • 子智能体互相看不见

  • 超时直接死掉

ClawTeam蜂群:

  • 持久任务看板,依赖自动解锁

  • 用git work tree隔离,互不干扰

  • 工作者之间可以直接inbox通信

  • 没有超时限制,可以跑好几个小时

  • 实时观察外部看板移动表盘

最关键的一点:你只需要用一句大白话描述任务,ClawTeam自动帮你组建团队。

Alt text

三、我亲测的三个案例

案例一:股票投资分析

我让它分析苹果、微软、英伟达三支股票的投资价值。

它自己组建了七个AI分析师并行工作:

  • 价值分析师(巴菲特风格)

  • 成长分析师

  • 技术分析师(K线+指标)

  • 基本面分析师

  • 情绪分析师

  • 风险经理

  • 投资组合经理(最终拍板)

Alt text

几分钟后,给出了三只股票的完整报告,信心度评分,还有建议资金配比。

我什么都没配置,就说了一句话。


案例二:技术趋势研究

让它分析本地优先AI工具在2026年的开发者采用趋势,并给出未来12个月走向判断。

它自动启动了五个agent并行研究团队,最后给出了详细的走向判断和技术压注建议。

这种任务以前我至少要花半天时间自己搜索整理,现在几分钟搞定。


案例三:代码安全审查

让它审查一个记忆插件,检查漏洞、性能和架构质量问题。

自动构建审查团队,完成后给出完整审查报告文档,直接发给我。

这件事我之前让普通OpenClaw弄了很久都搞不定,换成ClawTeam,一次通过。


四、怎么安装?

非常简单,三种方式任选:

方式一(最懒): 把GitHub仓库的链接直接发给OpenClaw,让它读安装说明自动安装。记得模型选强一点的,思考级别调到High。

方式二(手动): 按照README里的命令,自己在命令行一步步执行。

方式三(小白专属): 把README贴给其他ai,让它给你逐步指引,照着做就行。

安装完之后,重启一下OpenClaw gateway:

claude gateway restart

然后新开一个session,直接用自然语言描述任务,ClawTeam就启动了。最简单的还是选第一种吧。


五、我想对还在用原生sub agents的朋友说

不是原生sub agents不好,而是复杂任务需要真正的团队协作

做简单任务,用原生智能体就够了。

但如果你要做深度研究、长时间运行的复杂任务,原生的超时机制和无法通信的问题会让你抓狂。

ClawTeam解决的,正是这些最痛的痛点。

赶快去试试吧,期待你的反馈。

多用好工具,我的朋友。人生是一场无限游戏,乾坤未定,你我均是黑马。


👇关注公众号【元小二学AI】,点击菜单栏,后台回复关键词【openclaw】领取从小白到高手的进阶教程。



温馨提示:

公众号修改了推送规则,很多人发现收到的消息不及时。

为了能够第一时间收到消息,不错过优质的AI教程,请星标⭐置顶本公众号,以便第一时间获取精选内容!




          我们的口号:学好AI,享受生活


关注【元小二学AI】,你会持续看到更接地气的 AI 学习内容。

这里不讲太多空概念,更关注普通人怎么把 AI 真正用到工作、内容创作和日常生活里。

包括工具实操、提效流程、自动化思路,以及一人公司场景下的真实应用。

你能在这里找到教程、案例、脚本思路和实战经验,少走弯路,早点把 AI 变成自己的帮手。














AI行业动态与开源工具汇总:Sora关停时间表、大模型训练优化、面试笔记与可视化教程

本文汇总了2026年3月底的AI行业关键资讯与开源项目,包括OpenAI宣布Sora将于2026年4月起分阶段关停、xAI联合创始人离职动态、大模型训练与推理优化技术(如无梯度训练、显存压缩)、以及多个实用开源工具,如中文AI面试笔记、三步可视化训练工具和300+大模型API价格...