2026年3月29日星期日

AI行业动态与开源工具汇总:Sora关停时间表、大模型训练优化、面试笔记与可视化教程

本文汇总了2026年3月底的AI行业关键资讯与开源项目,包括OpenAI宣布Sora将于2026年4月起分阶段关停、xAI联合创始人离职动态、大模型训练与推理优化技术(如无梯度训练、显存压缩)、以及多个实用开源工具,如中文AI面试笔记、三步可视化训练工具和300+大模型API价格汇总JSON。适合AI从业者、研究者及技术爱好者了解行业趋势与获取学习资源。

Tags:

AI 日报 · 2026年03月29日

AI资讯

1、xAI联创全员出走仅剩马斯克,合并估值1.25万亿

2、Axiom用Lean实现可验证推理获2亿美元A轮

3、卡帕西背书Flapping Airplanes:Megakernels加速大模型推理

4、VLM-GPA引导3D人体重建:对齐偏好抑制幻觉

5、Anthropic估值争议:Mythos泄露与军方审计压力

6、Hermes Agent开源自进化智能体,越用越强

7、EGGROLL无梯度训练十亿参数模型新路

8、开源TITANS训练库:前向更新记忆实现测试时学习

9、CS-MoE跨层共享专家池,减冗余提效能

10、谷歌TurboQuant将LLM显存压缩6倍零损

11、Claude Code上新自动模式:分类器替代人工审批

12、Meta携高校推出Hyperagents实现自我优化

13、CERN用HLS4ML把小模型烧进芯片纳秒筛数据

14、AI挤压科研入门岗,学术人才管道或断裂

15、OpenAI关停Sora:视频生成退场转向企业与代码

最新开源

1、开源递归自我改进框架:让AI代理越用越强

2、EcoMOF-AI用机器学习预测MOF吸碳性能

3、Colab上从零搭建TensorFlow聊天机器人教程

4、精选生成式AI论文清单:每周阅读精炼推荐

5、一份JSON汇总300+大模型API最新报价

6、Sentrix AI:边缘自治安防网激活旧CCTV

7、开源中文AI面试笔记:覆盖大模型与工程实战

8、三步可视化训练AI模型:免GPU零门槛


📰 最新资讯


01 · xAI联创全员出走仅剩马斯克,合并估值1.25万亿

 🏷 行业动态

xAI联合创始人相继离职,12人团队仅剩马斯克。公司被指方向曾走偏、正重建且管理压力高,同时Grok新模型发布延期、月烧钱近10亿美元。SpaceX收购并合并后估值或达1.25万亿美元,叠加引入外部高管,反映其在战略与整合上的不确定性。

主要亮点:

  • • 12名联合创始人仅剩马斯克在位
  • • Grok迭代延期且每月消耗近10亿美元
  • • SpaceX收购整合,合并估值或达1.25万亿美元

详情链接:https://finance.sina.com.cn/stock/usstock/c/2026-03-28/doc-inhsqhwn0897929.shtml?cre=tianyi&mod=pchp&loc=9&r=0&rfunc=37&tj=cxvertical_pc_hp&tr=12


02 · Axiom用Lean实现可验证推理获2亿美元A轮

 🏷 行业动态

AI初创Axiom完成2亿美元A轮融资、估值16亿美元,瞄准大模型"可信"难题。其以Lean形式化语言生成可机器检查的证明,把推理过程变成可验证的数学证明链条。系统在普特南竞赛满分并形式化证明数论猜想,面向量化金融等高准确场景。

主要亮点:

  • • 以Lean输出形式化证明,推理每步可机器核验
  • • 普特南竞赛12题全对,展示系统推理与验证能力
  • • 完成埃尔德什问题部分题目形式化证明,学界大咖加盟

详情链接:https://eu.36kr.com/zh/p/3741102950563847


03 · 卡帕西背书Flapping Airplanes:Megakernels加速大模型推理

 🏷 技术突破

卡帕西公开支持新实验室Flapping Airplanes,其获红杉等1.8亿美元种子轮。团队提出Megakernels,将推理计算与通信融合进单一GPU核,宣称提速6.7倍并降能耗。此举直指"堆算力"瓶颈与数据枯竭,或重塑大模型成本结构与扩展定律认知。

主要亮点:

  • • 红杉、GV、Index领投1.8亿美元种子轮,卡帕西公开站台
  • • Megakernels融合计算与通信进单核,推理速度称提升6.7倍
  • • 反对堆算力与依赖互联网数据,瞄准数据枯竭与成本拐点

详情链接: https://x.com/karpathy/status/2016590919143952466


04 · VLM-GPA引导3D人体重建:对齐偏好抑制幻觉

 🏷 研究论文

南洋理工等提出VLM-GPA框架,用视觉语言模型"裁判"对扩散式3D人体重建进行群体偏好对齐,缓解肢体穿模、脚底悬空与遮挡失真。裁判具备规则/原型双记忆与自我反思,能归纳新判据。方法在权威数据集刷新SOTA,野外误差较此前最佳生成式模型降8.2%,已被CVPR 2026接收。

主要亮点:

  • • VLM裁判代理介入生成过程,针对人体重建幻觉做纠偏
  • • 规则记忆+原型记忆双机制,存物理准则与成败案例
  • • 自我反思自动总结新规则,野外误差降低8.2%并刷新记录

详情链接: https://arxiv.org/abs/2602.19180


05 · Anthropic估值争议:Mythos泄露与军方审计压力

 🏷 行业动态

审计文件称Anthropic 3800亿美元估值倚重"安全叙事",但泄露的Mythos内部资料指其代号Capybara的模型具备更强、可能偏进攻性的网络能力,且通过公开版不一致性作为"阻尼场"遮蔽真实水平。军方要求放宽军事用途限制被拒后,将其列为供应链风险并拉黑,凸显安全品牌与高风险能力的结构性冲突。

主要亮点:

  • • 泄露称Capybara性能远超公开模型版本
  • • 以部署不一致性作"阻尼场"掩盖精确能力
  • • 军方施压放宽限制遭拒后列入黑名单

详情链接: https://www.tmtpost.com/7926731.html


06 · Hermes Agent开源自进化智能体,越用越强

 🏷 开源项目

Nous Research 开源 Hermes Agent(MIT),可部署在自有服务器的自主智能体,具备跨会话持久记忆与"技能文档化"自我强化机制,支持多平台消息网关、cron 定时与子Agent并行。它将Agent从在线助手推向可持续运转的"数字员工"基础设施,竞争焦点转向长期技能与记忆积累。

配图
配图

主要亮点:

  • • 多层记忆+自动生成SKILL.md,复用并持续迭代能力
  • • 部署在VPS/Docker/SSH等,离线也能24小时自主执行
  • • 统一连接多平台消息与定时任务,记忆与技能全局共享

详情链接: https://x.com/grok/status/2032331665033298224


07 · EGGROLL无梯度训练十亿参数模型新路

 🏷 技术突破

英伟达与牛津推出EGGROLL,用进化策略替代反向传播,在不算梯度、不用小数的前提下从零预训练十亿参数模型。通过将满秩矩阵拆分并并行突变筛选,吞吐量接近批量推理,挑战对高精度硬件与大规模GPU集群的依赖。

主要亮点:

  • • 无需反向传播与梯度,成功训练十亿参数模型
  • • 满秩矩阵拆成两小矩阵突变,保留有效更新
  • • 支持数十万并行突变,吞吐量接近批量推理

详情链接: https://x.com/gaganghotra_/status/2037967406669484501


08 · 开源TITANS训练库:前向更新记忆实现测试时学习

 🏷 开源项目

开发者开源HuggingFace风格的titans-trainer,复现Google TITANS架构:在每个块引入可前向更新的长期记忆MLP,缓解灾难性遗忘并支持测试时学习。BioTitan用25万细胞数据逼近Geneformer需3000万数据的表现,2轮训练+两张RTX3090即可完成,代码与权重已发布。

主要亮点:

  • • TITANS块内长期记忆MLP,前向传播中更新权重
  • • 无需微调或LoRA,支持测试时学习适配新领域
  • • BioTitan以小数据低算力训练,性能接近更大模型

详情链接: https://github.com/pafos-ai/titans-trainer


09 · CS-MoE跨层共享专家池,减冗余提效能

 🏷 研究论文

CS-MoE 提出跨层共享的混合专家 Transformer,通过全局共享专家池打破层间隔离,缓解传统密集与标准 MoE 的参数冗余。在相同总参量与计算量下,仅激活约55%参数即可超越密集模型,0.6B-8B 训练困惑度全面领先,为受限算力下扩展模型容量提供新路径。

主要亮点:

  • • 跨层共享全局专家池,实现语义算子纵向复用
  • • 固定层专属专家+动态共享专家,兼顾稳定与灵活
  • • 同等预算仅激活55%参数,性能超越密集基线

详情链接: https://github.com/CESTC-REAL/Self-MoE/blob/main/CS-MoE-view.pdf


10 · 谷歌TurboQuant将LLM显存压缩6倍零损

 🏷 研究论文

谷歌提出TurboQuant,专攻LLM推理中最"吃显存"的KV缓存,把32位数值压到3位,实现6倍内存缩减且几乎零精度损失。它无需重训即可迁移到任意模型,并用PolarQuant随机旋转与QJL纠错抑制压缩失真。在H100上推理提速8倍,16GB显存占用降至3GB以下,显著降低本地部署与长上下文成本。

主要亮点:

  • • KV缓存32位压到3位,内存缩减6倍零精度损失
  • • 无需重新训练即可应用任意模型,落地门槛低
  • • H100推理提速8倍,16GB显存降至3GB以下

详情链接: https://x.com/gaganghotra_/status/2037919971104395437


11 · Claude Code上新自动模式:分类器替代人工审批

 🏷 产品更新

Anthropic 为 Claude Code 引入自动模式,针对频繁权限弹窗导致的审批疲劳。系统以模型分类器取代人工确认,采用输入探针与输出分类两层架构,并在剥离推理与工具输出的前提下评估工具调用风险。三层放行/拦截逻辑提升体验与安全平衡,测试误拦仅0.4%,为智能编程助手权限治理提供新范式。

主要亮点:

  • • 用Sonnet 4.6分类器替代人工权限审批流程
  • • 仅看用户消息与工具调用,剥离推理与输出防误导
  • • 三层过滤+多次拦截终止会话,误拦0.4%漏报17%

详情链接: https://www.anthropic.com/engineering/claude-code-auto-mode


12 · Meta携高校推出Hyperagents实现自我优化

 🏷 研究论文

Meta与多所高校联合研发"hyperagents"系统:不仅能完成特定任务,还能在执行过程中优化自身获取更好结果的机制。研究强调其跨任务领域通用性,为自我加速型AI提供新范式,体现智能系统在任务能力与自我改进架构上的双重进展。

主要亮点:

  • • 任务执行同时优化自身机制,结果可持续提升
  • • 方法论跨领域适用,可迁移到多种任务场景
  • • 为自我加速型AI发展提供系统架构新路径

详情链接: https://the-decoder.com/metas-hyperagents-improve-at-tasks-and-improve-at-improving/


13 · CERN用HLS4ML把小模型烧进芯片纳秒筛数据

 🏷 技术突破

CERN为应对LHC每年约40000EB海量数据,采用HLS4ML将PyTorch/TensorFlow训练的小型模型编译到FPGA/ASIC,用查找表预计算实现近乎零计算的纳秒级推断。一级触发约1000块FPGA在50ns内决策,仅保留0.02%事件;2031高亮度升级将促使专用芯片进一步演进,展示"小模型+专用硬件"在极限实时场景的价值。

主要亮点:

  • • HLS4ML将小模型直接编译到FPGA/ASIC执行
  • • 查找表预计算替代重运算,实现50ns内评估
  • • 一级触发仅留0.02%事件,后续CPU/GPU深度过滤

详情链接: https://theopenreader.org/Journalism:CERN_Uses_Tiny_AI_Models_Burned_into_Silicon_for_Real-Time_LHC_Data_Filtering


14 · AI挤压科研入门岗,学术人才管道或断裂

 🏷 行业动态

Nature 采访48位学者指出,写代码、跑模型、数据分析等入门科研任务正被AI快速替代,实验室对研究程序员与初级岗位需求骤降。美国自2023年以来入门招聘降35%,AI相关削减中63%集中在初级层。短期效率提升,长期却可能切断青年科研训练路径,削弱未来原创问题提出能力。

主要亮点:

  • • 纯认知型科研杂务被AI迅速接管,初级岗位首当其冲
  • • 美国入门招聘自2023降35%,63%削减发生在初级层
  • • 效率换来训练断层,未来或缺乏能提出新问题的人才

详情链接:https://www.nature.com/articles/d41586-026-00444-9


15 · OpenAI关停Sora:视频生成退场转向企业与代码

 🏷 行业动态

OpenAI宣布Sora进入分阶段关闭:2026年4月先停应用,9月再停API。此举显示其从创意视频生成转向代码生成与企业级产品,反映行业资金与算力正加速流向更可衡量的生产力场景,视频生成赛道或迎来新一轮洗牌。

主要亮点:

  • • Sora将分阶段停运:2026年4月停App,9月停API
  • • 战略重心转向代码生成与企业级产品开发
  • • 行业资源从创意工具转向生产力工具的信号更明确

详情链接: https://the-decoder.com/openai-sets-two-stage-sora-shutdown-with-app-closing-april-2026-and-api-following-in-september/


🔭 最新开源


01 · 开源递归自我改进框架:让AI代理越用越强

 🏷 开源项目

GitHub Trending 项目 recursive-improve 以 Python 实现"代理递归自我改进"思路,让智能体在执行任务后自评、归因与迭代策略,形成持续优化闭环。它为构建更稳健、可演化的 Agent 工作流提供可复用骨架,推动自动化研发与长任务执行效率提升。

主要亮点:

  • • 递归改进闭环:执行-反思-修正-再执行的Agent范式
  • • Python开源实现,便于接入现有Agent与工具链
  • • 面向长任务与自动化流程,提高稳定性与自适应能力

详情链接: https://github.com/kayba-ai/recursive-improve


02 · EcoMOF-AI用机器学习预测MOF吸碳性能

 🏷 开源项目

EcoMOF-AI 是一款开源工具,利用机器学习预测金属有机框架(MOF)的二氧化碳吸附表现,帮助研究者在实验前快速筛选高潜力材料,降低试错成本并加速碳捕集材料研发。项目以 JavaScript 实现,强调可用性与工程化落地潜力。

主要亮点:

  • • 机器学习驱动的MOF二氧化碳吸附性能预测
  • • 用于材料快速筛选,减少实验迭代与成本
  • • 开源实现(JavaScript),便于集成与二次开发

详情链接: https://github.com/Linus-He/ecomof-ai


03 · Colab上从零搭建TensorFlow聊天机器人教程

 🏷 开源项目

该开源项目提供一套在Google Colab中从零实现AI聊天机器人的实践路线,基于TensorFlow与Jupyter Notebook,配合简易交互界面快速体验训练与对话流程。降低入门门槛,便于教学演示、原型验证与二次扩展。

主要亮点:

  • • 在Google Colab即可运行,免本地环境配置
  • • 基于TensorFlow实现训练与推理的完整流程
  • • 提供简单交互界面,便于快速测试对话效果

详情链接: https://github.com/Don-Youssef/ai-chatbot-colab


04 · 精选生成式AI论文清单:每周阅读精炼推荐

 🏷 开源项目

该 GitHub 项目汇集作者每周深度阅读后筛出的生成式AI论文与文章,强调"值得花时间"的精选而非大而全索引。为研究者与工程团队提供快速发现关键进展、把握技术脉络与趋势的入口,降低信息过载成本。

主要亮点:

  • • 基于持续周更阅读沉淀的精选推荐
  • • 覆盖论文与技术文章,聚焦实用价值
  • • 非穷举索引,帮助快速建立领域认知

详情链接: https://github.com/zTehRyaN/awesome-genai-papers


05 · 一份JSON汇总300+大模型API最新报价

 🏷 开源项目

BenchGecko 开源 llm-pricing,用单一 JSON 文件集中收录 300+ LLM API 价格,并按周更新,便于快速对比不同模型的调用成本。它降低了定价信息碎片化带来的选型门槛,支持企业做预算评估、自动化路由与性价比优化,推动更透明的模型采购与成本治理。

主要亮点:

  • • 单一JSON聚合300+模型API定价信息
  • • 每周更新,减少定价变动带来的信息滞后
  • • 便于做成本对比、预算测算与模型路由策略

详情链接: https://github.com/BenchGecko/llm-pricing


06 · Sentrix AI:边缘自治安防网激活旧CCTV

 🏷 开源项目

Sentrix AI 是一套分布式自治安防网格,将传统 CCTV 融合为统一的"神经生态",在边缘侧分散计算实现从被动监控到主动拦截的跃迁。它把沉睡的存量硬件升级为可协同、可响应的防护系统,为安防智能化与低成本升级提供新路径。

主要亮点:

  • • 分布式自治安防网格,实现多点协同防御
  • • 边缘去中心化处理,降低延迟并提升鲁棒性
  • • 融合存量CCTV为统一智能体系,减少改造成本

详情链接: https://github.com/arpitpatel1364/Sentrix-AI


07 · 开源中文AI面试笔记:覆盖大模型与工程实战

 🏷 开源项目

GitHub Trending 项目整理中文 AI/NLP 面试要点,涵盖大模型、机器学习、深度学习、Python 以及方案设计与工具链,面向求职与复习场景提供系统化知识框架与实践导向梳理,帮助快速补齐短板、提升面试表达与工程思维。

主要亮点:

  • • 聚焦大模型面试:原理、训练推理与常见考点
  • • 覆盖ML/DL与Python核心知识,便于快速查漏补缺
  • • 强调方案设计与工具链,贴近真实业务落地面试

详情链接: https://github.com/xbsheng/ai-interview-note


08 · 三步可视化训练AI模型:免GPU零门槛

 🏷 开源项目

sinpoce/ai-trainer-lite 是一款轻量级开源训练工具,主打"三步训练专属AI模型",覆盖文本分类、图像分类与表格AutoML,并提供Gradio可视化界面。无需GPU与机器学习背景即可上手,降低模型训练门槛,有助于中小团队快速验证业务场景与原型落地。

主要亮点:

  • • 三步流程完成训练,面向非算法用户
  • • 支持文本/图像分类与表格AutoML一体化
  • • Gradio界面可视化操作,无需GPU部署

详情链接: https://github.com/sinpoce/ai-trainer-lite


以上内容由 AI 汇总,数据来源于网络公开平台。

没有评论:

发表评论

AI行业动态与开源工具汇总:Sora关停时间表、大模型训练优化、面试笔记与可视化教程

本文汇总了2026年3月底的AI行业关键资讯与开源项目,包括OpenAI宣布Sora将于2026年4月起分阶段关停、xAI联合创始人离职动态、大模型训练与推理优化技术(如无梯度训练、显存压缩)、以及多个实用开源工具,如中文AI面试笔记、三步可视化训练工具和300+大模型API价格...