2026年4月14日星期二

DeepSeek V4定档4月下旬 Meta Muse Spark冲榜前五 蚂蚁集团夺冠AIGC检测

2026年4月11日AI日报:DeepSeek V4定档4月下旬,分层模式上线;Meta新模型Muse Spark带动AI应用冲进App Store前五;蚂蚁集团在CVPR 2026 NTIRE挑战赛双赛道夺冠,推动AIGC检测实战升级。适合AI从业者、开发者关注大模型发布、开源项目及行业趋势。

Tags:

AI 日报 · 2026年04月11日

AI资讯

1、DeepSeek V4定档4月下旬,分层模式率先铺路

2、Claude Code上线Monitor实现后台实时监控

3、灵初发布10万小时具身数据集,Psi-R2登顶榜单

4、普林斯顿开源Vero视觉推理框架刷新多项基准

5、NVIDIA开源Kimodo模型生成3D人体与机器人动作

6、DMax重塑扩散语言模型并行解码效率

7、CIA首份AI自主情报报告落地并全面接入助手

8、法国AI训练举证倒置法案冲击本土模型竞争力

9、AI仿真人短剧首登榜首,短剧行业格局生变

10、腾讯云FlexKV获三大框架官方集成支持

11、无问芯穹发布端云一体安全脱敏龙虾盒子

12、Meta与KAUST提出神经计算机新范式

13、蚂蚁集团双赛道夺冠推动AIGC检测实战升级

14、联想发布AI主机战略,推动全场景智能落地

15、Meta新模型Muse Spark带动AI应用冲进前五

最新开源

1、GitHub热门AI论文清单系统梳理LLM前沿

2、Drashtika Yukti展示AI原生系统工程能力

3、Insightpilot以RAG驱动PDF情报提取与决策洞察

4、多智能体编排框架加速AI系统生产级落地


📰 最新资讯


01 · DeepSeek V4定档4月下旬,分层模式率先铺路

 🏷 模型发布

DeepSeek创始人梁文锋透露,旗舰模型DeepSeek V4将于2026年4月下旬发布。在正式上线前,平台已先行引入“快速模式”和“专家模式”双层能力架构,兼顾高频交互效率与复杂推理需求,显示其正朝着更细分、更实用的智能产品形态演进,也将进一步加剧大模型市场竞争。

配图
配图

主要亮点:

  • • DeepSeek V4预计于2026年4月下旬发布
  • • 快速模式支持日常对话及图片文件识别
  • • 专家模式强化复杂逻辑与深度思考能力

02 · Claude Code上线Monitor实现后台实时监控

 🏷 产品更新

Claude Code发布全新Monitor工具,能够在后台持续监听外部进程输出,并将结果以流式方式实时反馈到对话界面。该功能显著提升人机协作效率,减少等待与重复查询,体现出AI编程助手向更主动、更实时的工作流进一步演进。

配图
配图

主要亮点:

  • • 支持后台持续监听外部进程输出
  • • 进程结果可流式传入对话界面
  • • 减少重复询问并提升响应效率

03 · 灵初发布10万小时具身数据集,Psi-R2登顶榜单

 🏷 技术突破

灵初智能推出具身智能领域首个可直接预训练的10万小时全模态人类手部操作数据集,并开源1000小时,同时发布Psi双系统架构。其Psi-R2在MolmoSpace评测登顶,推理时延压至100毫秒内,展现出数据、模型到商业化落地的完整竞争力。

主要亮点:

  • • 10万小时全模态数据集,覆盖294场景4821任务
  • • 引入触觉与30%失败样本,强化泛化和反事实推理
  • • Psi-R2登顶MolmoSpace,成功率较同类高近10倍

详情链接: 

https://www.psibot.ai/from-human-skill-to-robotic-mastery/


04 · 普林斯顿开源Vero视觉推理框架刷新多项基准

 🏷 开源项目

普林斯顿团队开源视觉推理强化学习框架 Vero,并同步发布 60 万样本的 Vero-600K 数据集、代码与模型。其通过任务路由奖励和单阶段强化学习,在无需私有思考数据的情况下显著提升通用视觉推理能力,23 项基准超越 Qwen3-VL-8B-Thinking,推动开源多模态推理迈向新高度。

主要亮点:

  • • 发布60万高质量样本Vero-600K数据集
  • • 任务路由奖励机制提升多任务评测效果
  • • 30项测试中23项超越Qwen3-VL-8B

详情链接: 

https://vero-reasoning.github.io/


05 · NVIDIA开源Kimodo模型生成3D人体与机器人动作

 🏷 开源项目

NVIDIA 在 Hugging Face 发布运动扩散模型 Kimodo,可基于文本描述与运动学约束生成 3D 人体及机器人动作。模型训练于 700 小时光学动捕数据,支持复杂动态场景建模,为机器人仿真、数字人动画和开发者集成提供了高质量开源方案。

主要亮点:

  • • 基于700小时光学动捕数据训练
  • • 支持文本提示结合运动学约束生成动作
  • • 开放模型权重助力机器人与数字人应用

详情链接: 

https://x.com/_akhaliq/status/2042661929760567757


06 · DMax重塑扩散语言模型并行解码效率

 🏷 技术突破

DMax提出面向扩散语言模型的全新解码范式,把并行生成改造成可逐步纠错的自我修正过程,显著缓解误差累积难题。其通过统一训练与软并行解码,在保持准确率的同时大幅提升吞吐表现,为高效、可落地的并行生成打开了新空间。

主要亮点:

  • • 将并行解码改为渐进式自我修正流程
  • • 统一掩码与均匀扩散训练增强纠错能力
  • • GSM8K和MBPP吞吐提升且准确度保持稳定

详情链接: 

https://arxiv.org/pdf/2604.08302


07 · CIA首份AI自主情报报告落地并全面接入助手

 🏷 行业动态

美国中央情报局首次确认已用AI生成完全自主情报报告,并计划把AI助手整合进全部分析平台。这不仅意味着情报生产开始从辅助走向自动化,也预示政府机构正加速用AI重塑筛选、研判与报告生成流程,行业示范效应强烈。

主要亮点:

  • • CIA首次产出AI完全自主生成的情报报告
  • • AI助手将覆盖全部情报分析平台与流程
  • • 政府情报分析正从辅助迈向核心自动化

详情链接: 

https://the-decoder.com/cia-plans-to-integrate-ai-assistants-into-all-analysis-platforms/


08 · 法国AI训练举证倒置法案冲击本土模型竞争力

 🏷 行业动态

法国参议院通过新法案,将AI训练中的版权合规举证责任转移给企业:只要存在使用受保护作品的迹象,企业就需自证未侵权。此举抬高大模型训练合规成本,对已完成训练的海外巨头影响有限,却可能显著压制法国本土企业融资、研发与市场竞争空间。

主要亮点:

  • • AI训练版权争议改为企业自证清白
  • • 历史已训练巨头受影响小,本土公司承压
  • • 法案约束在欧声明企业,开源本地运行豁免

详情链接: 

https://x.com/ylecun/status/2042714515708445010


09 · AI仿真人短剧首登榜首,短剧行业格局生变

 🏷 行业动态

红果短剧平台首次将真人与AI短剧合并排名,AI作品《菩提临世真人AI版》登顶热播榜,显示AI生成内容已在用户热度层面正面超越实拍短剧。这不仅是内容生产方式的拐点,也预示短剧行业在成本、效率与创作模式上将迎来新一轮重构。

配图
配图

主要亮点:

  • • 红果首次合并真人与AI短剧榜单排名
  • • AI仿真人短剧热度首次超过实拍作品
  • • 短剧生产模式或因AI进入加速重构期

10 · 腾讯云FlexKV获三大框架官方集成支持

 🏷 产品更新

腾讯云将大模型推理优化技术 FlexKV 正式并入 NVIDIA Dynamo、vLLM 与 TensorRT-LLM 官方版本,成为通用 KV Cache 卸载方案。开发者几乎零改造即可启用,借助四级缓存、分布式复用与感知路由,显著缓解显存瓶颈,降低推理成本并提升大规模部署效率。

主要亮点:

  • • 合入三大主流推理框架官方版本
  • • 无需补丁改系统,改基础配置即可启用
  • • 四级缓存容量可扩展至显存百倍以上

详情链接: 

https://github.com/taco-project/FlexKV


11 · 无问芯穹发布端云一体安全脱敏龙虾盒子

 🏷 产品更新

无问芯穹推出 InfiniClaw Box,以“本地脱敏—云端处理—本地回填”架构兼顾隐私保护与大模型算力需求,实现文本、图像、音视频全模态安全处理。产品结合知识库校验、隐私重构和芯片级优化,面向政务、金融、医疗等高敏场景,推动端云协同安全应用落地。

主要亮点:

  • • 三段式端云架构实现原始隐私数据不出端
  • • 支持文本图像音频视频全模态安全脱敏
  • • 芯片级优化带来端侧算子加速10%至40%

详情链接: 

https://finance.sina.com.cn/tech/roll/2026-04-10/doc-inhtzhty0267802.shtml


12 · Meta与KAUST提出神经计算机新范式

 🏷 研究论文

Meta AI与KAUST联合提出“神经计算机”概念,尝试把计算、内存与输入输出统一进神经网络内部,让模型直接成为可执行系统。这一方向有望突破AI执行依赖外部操作系统的瓶颈,为Agent、世界模型和下一代智能计算架构打开全新空间。

主要亮点:

  • • 统一计算、内存与I/O于单一神经状态
  • • 提出图灵完备与机器原生语义四条件
  • • 验证短时控制可行并规划长期路线图

详情链接: 

https://arxiv.org/abs/2604.06425


13 · 蚂蚁集团双赛道夺冠推动AIGC检测实战升级

 🏷 技术突破

蚂蚁集团在CVPR 2026 NTIRE挑战赛中斩获两项冠军,聚焦复杂真实场景鲁棒性与人脸增强异常检测,体现出其在深度伪造和AIGC识别上的领先能力。这一突破有望显著提升支付、内容审核和金融认证等高风险场景的风控效率与可信度。

配图
配图

主要亮点:

  • • CVPR顶会挑战赛双赛道同时夺冠
  • • 覆盖复杂场景鲁棒检测与人脸异常识别
  • • 助力支付风控与金融认证安全升级

14 · 联想发布AI主机战略,推动全场景智能落地

 🏷 行业动态

联想在新财年提出“AI主机”这一全新品类,标志着其AI战略从天禧生态进一步迈向全场景智能。通过将AI能力从软件层延伸到硬件原生融合,联想希望面向企业与个人用户实现规模化部署,加速AI终端与行业应用普及,对智能计算产业链与终端形态升级具有重要带动作用。

配图
配图

主要亮点:

  • • 新财年推出AI主机新品类,强化AI终端布局
  • • AI从软件应用迈向硬件原生深度融合
  • • 覆盖企业与个人场景,推动规模化落地

15 · Meta新模型Muse Spark带动AI应用冲进前五

 🏷 模型发布

Meta推出由Alexandr Wang团队主导开发的新AI模型Muse Spark,迅速点燃市场热情,带动Meta AI应用在美国App Store排名从第57位飙升至第5位,首日下载量明显放大。这一表现反映出优质模型发布对消费级AI产品增长与行业关注度的强劲拉动作用。

配图
配图

主要亮点:

  • • Muse Spark发布后迅速激发用户下载热潮
  • • Meta AI美国区排名从57位升至第5位
  • • Alexandr Wang领衔团队增强市场关注度

🔭 最新开源


01 · GitHub热门AI论文清单系统梳理LLM前沿

 🏷 开源项目

这是一个聚焦AI与大语言模型的精选论文阅读仓库,系统汇集基础理论与前沿研究成果,帮助开发者、研究者快速建立知识框架并追踪最新方向。尽管项目刚起步,但其策展式整理方式对学习路线规划和行业研究参考具有实用价值。

主要亮点:

  • • 覆盖基础AI到前沿LLM研究论文
  • • 以策展清单形式提升论文检索效率
  • • 适合作为研究入门与持续跟踪资料

详情链接: 

https://github.com/ResourceChest/ai-llm-papers


02 · Drashtika Yukti展示AI原生系统工程能力

 🏷 开源项目

GitHub Trending 上出现的 Drashtika Yukti 账号,聚焦 LLM、Agentic AI、RAG 与知识图谱等方向,体现出面向企业级 AI 原生系统的工程化布局。尽管当前热度与 Star 数较低,但其技术栈覆盖当下智能应用核心模块,具备持续开源演进与行业落地潜力。

主要亮点:

  • • 聚焦LLM、RAG与知识图谱融合实践
  • • 强调Agentic AI驱动的AI原生系统构建
  • • 虽处早期阶段但技术方向贴近产业前沿

详情链接: 

https://github.com/Drashtika-Yukti/-Drashtika-Yukti-


03 · Insightpilot以RAG驱动PDF情报提取与决策洞察

 🏷 开源项目

Insightpilot-ai 是一个面向文档智能分析的开源项目,结合 FAISS、Sentence Transformers 与 Groq LLM,对 PDF 内容进行检索增强生成,自动提取结构化洞察、风险识别与战略建议。它降低了复杂文档分析门槛,为投研、合规和企业知识管理带来更高效的新方案。

主要亮点:

  • • 融合FAISS与向量检索提升文档理解效率
  • • 可从PDF中自动提取风险与战略建议
  • • 基于Groq LLM实现结构化情报输出

详情链接: 

https://github.com/Faraz6180/Insightpilot-ai


04 · 多智能体编排框架加速AI系统生产级落地

 🏷 开源项目

agentic-workflow-orchestrator 是一款面向多智能体 AI 系统的高性能开源编排框架,结合 LangGraph 与 AutoGen,帮助开发者更高效地构建、扩展并部署复杂协作流程。其提供生产就绪模板,降低从原型到上线的门槛,对企业级智能体应用落地具有明显推动作用。

主要亮点:

  • • 融合 LangGraph 与 AutoGen 构建多智能体协作
  • • 提供高性能编排能力与可扩展架构设计
  • • 内置生产级部署模板降低上线复杂度

详情链接: 

https://github.com/Ealow1971/agentic-workflow-orchestrator


以上内容由 AI 汇总,数据来源于网络公开平台。

Seeance2。0人脸过审方法:飞书工作流长期有效

Seeance2.0人脸过审一直有效的方法,工作流在飞书链接中提供,适合需要人脸验证通过的用户。

Tags:

工作流在飞书里

https://my.feishu.cn/wiki/KrKow7S6ziML2IkuhWdc0vlQnnc?from=from_copylink


Hermes Agent开源框架实测:自主学习机制与安装对比OpenClaw

本文实测Hermes Agent开源框架,对比OpenClaw的安装与记忆系统。Hermes支持一行命令安装,通过计数器与后台文件实现自主学习,记录工作经验与用户偏好。适合需要自动化整理信息、处理重复性任务的用户。OpenClaw生态更丰富但升级易崩,Hermes更稳定省心。

Tags:


我的龙虾(OpenClaw)又崩了。

升级到2026.4.2,TG直接挂了。折腾大半天,发现是插件权限被悄悄改了,也没个提示。

这种事不是第一次了。每次升级都纠结,不升级用不了新功能,升级又要给它擦屁股。

刷到一个叫Hermes Agent的框架,也开源,也能接各种平台。不知道好不好用,先装上试试吧。


一行命令装好

装Hermes比装OpenClaw简单太多。一行命令:


    
    
    
    
  
    curl -fsSL https://raw.githubusercontent.com/NousResearch/hermes-agent/main/scripts/install.sh | bash

回车,等着就行。

图片

脚本自动装好所有依赖,对比OpenClaw那套流程,时间成本减少一半。

记得OpenClaw的安装,可是劝退了不少人

Hermes Agent安装过程中会让你选配置,Telegram、微信这些,选完直接授权。

图片

装完就能用。

有个小坑:装完要执行下面这条命令。

图片

我漏了这步,结果提示zsh: command not found: hermes,折腾好一会儿。

搞定后,发了第一句话。

图片

嗯,很顺。

TG之外我还配了微信。

图片

整体下来,安装、部署、配通道,Hermes和OpenClaw相比,真的太省心了

越用越聪明,是不是吹的

装之前我对「自我进化」这个说法是打问号的。有些人喜欢把普通功能包装成黑科技。

装好后让它帮我干件事:去Google搜点东西,把内容提取出来给我。

图片

跑得挺顺。但有个细节——跑完后弹出一行:「Skill 'chrome-appscript' created」,这个技能被自动创建了。

图片

我没让它建,它自己建的。

有点意思。我翻了下Hermes Agent的源码,想看看这个「自主学习」到底是怎么实现的。

所以它到底怎么学的?

图片

Hermes内部有两个计数器。每聊10轮,或每调用10次工具,就在后台悄悄起一个分身。这个分身拿到完整对话记录,带着一个问题回顾全文:这轮对话有没有值得记住的东西?

值得记就写进文件,不值得就安静退出。整个过程你感知不到。

它记三种笔记:工作经验、用户偏好、可复用流程,三个文件全记下来。

下次对话前,Hermes先读一遍自己的笔记再上场。所以你会发现它不再犯同样的错,处理类似任务越来越快。

记忆不是无限的,写满了就划掉不重要的,只留最有价值的。

不是模型微调,不是什么黑科技。就是两个计数器、一个后台线程、几个文本文件。纯工程方案,简单粗暴但有效。

图片

那OpenClaw能不能做到?也不是不能。我对比了两个项目的代码,看看它们的记忆系统有什么区别。

图片

两款工具理念不一样:Hermes强调自主学习,OpenClaw是有监督的学习。简单说,Hermes更省心但你不知道它学了啥,OpenClaw更可控但要你自己调教。

OpenClaw还是Hermes?看你要什么

之前写过几篇OpenClaw的文章,有读者问「有没有替代品」。现在可以回答了:有,但要看你要什么。

Hermes赢在哪:

安装体验完胜。一行命令vs一个多小时,没什么好比的。

安全性上,OpenClaw今年被曝了好几个严重漏洞,Hermes目前还没有。

OpenClaw赢在哪:

生态。这个没法比。ClawHub上有5700多个社区Skill,Hermes的生态才刚起步。你要的功能如果刚好有现成的,OpenClaw省心太多。

社区成熟度。345K星vs32K星,遇到问题找解决方案的难度完全不同。

多Agent编排。如果你要搞多个Agent协同工作,OpenClaw的编排能力更强。

说白了,OpenClaw是个什么都能干的工具箱,Hermes是个会长记性的助手。要广度选前者,要深度选后者。


说点实际的,这东西能帮你干啥

说了半天,最实际的问题:这东西到底能帮我干啥?

自动化信息整理。 我现在让Hermes每天自动抓Reddit和X上的热门AI话题,整理好推给自己。

重复性的活越做越快。 这是Hermes最值钱的地方。每天让它做差不多的事——整理日报、处理邮件、翻译文档——它会自己把流程沉淀成Skill。

不过话说回来,偶尔用一次两次,Hermes的优势你感受不到。它适合那种每天都在用、活儿还差不多的场景。用得越多,越值。

接下来我准备让它帮我自动签到、打卡,看看能不能跑通这种重复性的活儿。


用了一天,说几句实话

到现在用了一天,除了安装体验碾压,其他方面Hermes能干的,OpenClaw也能干。

但让我期待的是稳定性。我真的受不了OpenClaw升级即崩的问题了。

后面会继续用一段时间,看看「越用越聪明」到底是不是真的。有新发现再来更新。


你用AI自动化过什么活?评论区聊聊。

觉得有用?转发给你身边也在折腾AI Agent的朋友。

我会持续实测各种AI工具,感兴趣可以点个关注。

                 

2026年4月13日星期一

GSD开源项目:解决Claude Code上下文腐烂问题,GitHub 5万Star

GSD是一个开源上下文工程框架,上线5天在GitHub收获近5万Star。它通过多Agent协作和独立上下文窗口,解决Claude Code等AI工具在长程任务中的“上下文腐烂”问题。支持自动拆解任务、并行执行、断点续干,覆盖12+ AI编码工具。适合开发者、独立制作人及需要AI完成复杂调研或方案设计的用户。

Tags:

开源 5 天,5 万 Star。

这个数据放在 GitHub 历史上都算比较顶的。

最近如果你刷 X 或者小红书,大概率刷到过一个叫 GSD(Get Shit Done)的开源项目。

评论区里有人叫它 Claude Code 的灵魂伴侣,也有人说它是 Vibe Coding 的终结者。

看了一下,确实有点东西。

图片

01

GSD 是个啥

一句话说清楚:GSD 是一个上下文工程框架,让 AI 在处理长程复杂任务时,始终保持高质量的稳定输出。

它解决的问题特别具体。

图片

不管你用 AI 写代码、做调研、搭产品还是搞方案,只要任务一长、对话一多,AI 的输出质量就会断崖式下跌。

回答越来越短,需求开始漏,逻辑也开始乱。

这个现象有个名字,叫上下文腐烂(Context Rot)。

GSD 就是来解决这个问题的。

估计很多人和我一样,比如用 Claude Code 的时候,有一个重要任务的时候老想看看目前 Context 的情况。

看看要不要 clear 或压缩一下再跑。

图片

它不是让你跟 AI 聊着天把活干了,而是把你的大任务拆成一个个小任务。

每个小任务交给独立的 Agent 在全新的上下文窗口里执行,中间有研究员帮你调研、规划师帮你拆任务、执行者帮你干活、验证者帮你检查。

整个过程中,你的主窗口始终保持干净,不会被历史垃圾塞满。

图片

目前这个项目在 GitHub 上斩获了 49,200+ Star,全球排名 407。作者是个独立开发者。

开源地址:https://github.com/gsd-build/get-shit-done

02

核心特性

看了一下这个项目,有几个点非常扎实。

① 彻底解决上下文腐烂

这是 GSD 最核心的卖点。

传统用法里,你跟 AI 聊了 50 轮之后,上下文窗口快满了,AI 的输出质量就开始拉胯。

GSD 的做法是,每个子任务都在一个全新的 200k token 上下文窗口里独立执行。

你的主对话窗口只负责协调,始终保持在 30-40% 的使用率。

说白了,就是让 AI 永远在巅峰状态干活,不会越干越差。

② 多 Agent 并行协作

GSD 不是让一个 AI 从头干到尾,而是把任务拆分之后分给不同的专职 Agent:

  • 研究员负责调研技术方案和领域知识
  • 规划师负责把任务拆成可执行的原子计划
  • 执行者负责在独立上下文里写代码、干活
  • 验证者负责检查交付成果是否达标

而且独立的任务会自动并行执行,不是排着队一个一个来。

图片

GSD 把任务分成不同的 Wave,同一个 Wave 里的任务同时跑,有依赖关系的排到后面的 Wave。效率拉满。

③ 结构化的任务指令

每个执行计划都是 XML 格式的,精确到具体文件路径、执行步骤、验证标准、完成条件。

AI 不用猜你要什么,照着指令一步步做就行。

举个例子,一个典型的计划长这样:

 <task type="auto">                                    <name>创建登录接口</name>    <files>src/app/api/auth/login/route.ts</files>                                                  <action>                                                                                          用 jose 库做 JWT(别用 jsonwebtoken,有 CommonJS 兼容问题)。                                   验证用户凭据。                                                                                  成功后返回 httpOnly cookie。                                                                  </action>                                                                                       <verify>curl 请求登录接口返回 200 + Set-Cookie</verify>                                         <done>有效凭据返回 cookie,无效凭据返回 401</done>                                            </task>  

清晰、精确、可验证。

AI 照着这个干活,出错率大幅下降。

④ 自动状态追踪和断点续干

GSD 会自动维护一套完整的项目状态文件:项目愿景、需求文档、路线图、决策记录、阻塞项、已完成的工作。

这些东西跨会话持久保存,你今天干到一半关了电脑,明天打开接着干,上下文完全不丢。

甚至还有个 /gsd-pause-work 命令,专门用来生成交接文档。

关机前跑一下,下次回来 /gsd-resume-work,无缝衔接。

⑤ 一行命令安装,覆盖 12+ AI 工具

不只是 Claude Code,GSD 支持的工具非常多:

Claude Code、OpenCode、Gemini CLI 等等,基本市面上主流的 AI 编码工具全覆盖了。

安装就一行命令。

跑起来之后会让你选用哪个工具、装全局还是装当前项目,选完就搞定了。

03

完整工作流

图片

GSD 的使用流程非常清晰,按顺序走就行。我用一个从零搭产品的场景来串一遍:

第一步:初始化项目

/gsd-new-project

跑起来之后,GSD 会先问你一堆问题,搞清楚你到底想做什么、有什么约束、技术偏好是啥。

然后自动派研究员去做领域调研,再把需求拆成 v1、v2 和暂不考虑三档,最后生成一份路线图。

你确认路线图没问题,就可以开始干活了。

第二步:讨论细节

/gsd-discuss-phase 1

路线图上每个阶段只有一两句话的描述,不够详细。

这一步就是让你把具体偏好和想法告诉系统。比如你想用什么布局风格、接口格式怎么做、错误处理怎么搞。

系统会把你的偏好整理成一份 CONTEXT 文档,后续的研究和规划都会参考。

你聊得越细,最终交付的东西就越贴近你的想法。

第三步:规划阶段

/gsd-plan-phase 1

系统自动派研究员去调研实现方案,然后规划师生成 2-3 个原子任务计划,每个计划都有精确的 XML 结构。

还有个检查员会验证计划是否覆盖了所有需求,不通过就打回去重做,直到通过为止。

第四步:执行阶段

/gsd-execute-phase 1

这是最爽的部分。

所有计划按依赖关系分成不同 Wave,同一 Wave 里的任务并行跑。

每个任务都在独立的 200k token 上下文窗口里执行,互不干扰。每完成一个任务就自动生成一个 Git commit。

你基本可以走开去干别的,回来一看,活干完了,Git 历史还特别干净。

第五步:验收成果

/gsd-verify-work 1

系统会把每个可交付的成果列出来,带着你一项一项确认。

哪没问题就过,哪有问题就自动派调试 Agent 去查原因,然后生成修复计划,跑一遍 /gsd-execute-phase 就修好了。

嫌一步步太麻烦?还有个快速模式:

/gsd-quick

适合那种不需要完整流程的临时任务。

或者直接用 /gsd-next,系统自动判断你现在该干啥,一步到位。

04

不只是写代码

虽然 GSD 目前最大的用户群是开发者,但它的核心能力:上下文管理、多 Agent 协作、结构化任务拆解。

其实适用于任何需要 AI 长时间、高质量完成的复杂任务。

比如你想让 AI 帮你做一份深度行业调研报告,传统做法是不断追问,聊着聊着 AI 就开始敷衍你了。

用 GSD 的话,它会自动拆分成调研、分析、撰写、验证几个阶段,每个阶段独立执行,最终交付的质量稳定得多。

再比如你想从零搭建一个产品的完整方案,从市场分析到技术选型到架构设计到实施计划,这种多阶段的长程任务,正是 GSD 最擅长的场景。

作者自己就是最好的例子。

他在 README 里写得很直接:我是一个独立开发者,我不写代码,Claude Code 写。

GSD 就是他用来驱动 Claude Code 给他干活的系统。

Amazon、Google、Shopify、Webflow 的工程师也在用这个东西。

05

怎么上手

安装非常简单:

npx get-shit-done-cc@latest

如果你用 Claude Code,官方建议搭配这个参数跑:

claude --dangerously-skip-permissions

原因是 GSD 的设计理念就是自动化执行,如果你不想每隔几秒钟就点一次确认,跳过权限检查会让体验流畅很多。

装完之后在 Claude Code 里输入 /gsd-help,能看到所有可用命令。

如果你已经有一个进行中的项目,先跑 /gsd-map-codebase 让它扫描一下现有代码,再跑 /gsd-new-project 初始化就行。

06

点击下方卡片,关注逛逛 GitHub

这个公众号历史发布过很多有趣的开源项目,如果你懒得翻文章一个个找,你直接关注微信公众号:逛逛 GitHub ,后台对话聊天就行了:

图片

DeepSeek V4定档4月下旬 Meta Muse Spark冲榜前五 蚂蚁集团夺冠AIGC检测

2026年4月11日AI日报:DeepSeek V4定档4月下旬,分层模式上线;Meta新模型Muse Spark带动AI应用冲进App Store前五;蚂蚁集团在CVPR 2026 NTIRE挑战赛双赛道夺冠,推动AIGC检测实战升级。适合AI从业者、开发者关注大模型发布、开源...