2026年4月30日星期四

Claude Code 4个实用技巧:解决闪屏、粘贴编辑与额度监控

本文介绍4个让 Claude Code 更顺手的实用技巧:通过环境变量开启全屏渲染模式解决屏幕闪烁和内存占用;配置 CotEditor 实现粘贴内容可编辑;安装 Claude HUD 插件实时显示上下文与使用额度;以及利用官网 AI 助手快速查找命令用法。适合开发者提升终端 AI 编程工具的操作效率。

Tags:

  见字如面,我是艾康。
点击关注👆防止迷路。







 

字数 2338,阅读大约需 5 分钟

如果说,你也有在使用 Claude Code,不知道你在使用过程中有没有遇到以下情况:

  • • 工具一频繁调用,屏幕就开始闪
  • • 复制一段长文本粘贴进去,想改两个字改不了,只能整段删了重粘
  • • 用到一半弹出提示「使用额度用完了,5 小时后恢复」,可你完全不知道啥时候快用完
  • • 想搞明白某个 slash command 怎么用,满网搜半天,找到的教程还是半年前的旧版本

我都遇到过,一个不少。

今天这篇文章就来给大家分享一些在终端用好 Claude Code 的小技巧,调整完之后,使用 Claude Code 的频率相信会更高。

废话不多说,直接开始。

一、开启全屏渲染模式

先解决最直观的,屏幕闪烁。

默认模式下,Claude Code 是顺着标准滚动输出来渲染的,这就会带来几种情况:

  • • 工具一频繁调用,屏幕跟着输出在闪
  • • 长对话写到几千行之后,内存占用会逐渐爬上去
  • • 输入框跟着内容滚来滚去,找不到光标在哪

例如这样(动图没加速,是真的这么闪🤣)👇

img

开启全屏渲染模式之后,这三个问题都解决了。

它的工作方式跟 vim 或 htop 类似,把界面画在终端的备用屏幕缓冲区上,只渲染当前可见的消息。

所以无论对话有多长,内存都是平的。输入框固定在屏幕最下方,不会跟着内容跑。

用一张表格对比的话,就是这样:



特性
默认模式
全屏渲染模式
渲染方式
标准滚动输出
全屏渲染(如 vim)
输入框位置
随内容滚动
固定在底部
闪烁问题
会闪烁
减少闪烁
内存占用
长对话逐渐增加
保持平稳
鼠标支持
支持点击、拖选、滚轮、URL 点击
启用方式
默认
CLAUDE_CODE_NO_FLICKER=1 claude
img

启用方式很简单,在终端启动 Claude Code 时加上一个环境变量:


    
     
    CLAUDE_CODE_NO_FLICKER=1 claude

每次都敲这一长串太麻烦,我建议直接做成别名:


    
     
    echo "alias cc='CLAUDE_CODE_NO_FLICKER=1 claude'" >> ~/.zshrc && source ~/.zshrc

之后每次输入cc就行,非常方便。

一个隐藏的小惊喜: 开启全屏渲染之后,鼠标也能用了。

图片
在工具结果上点一下可以展开看完整输出,再点一下折叠,文件路径直接点击就能在默认应用里打开。

URL 点一下就能在浏览器里打开,鼠标滚轮可以滚动对话,按住拖选还能直接复制(鼠标释放时自动进剪贴板)

开启之后,用起来非常顺手。

一个小提醒👀: 全屏渲染目前还是研究预览功能,需要 Claude Code v2.1.89 或更高版本。

如果你想关掉,运行 /tui default 即可。

二、让粘贴的内容可以编辑

相信使用过 Claude Code 的用户一定都非常难受一个点,那就是:把一段文档复制粘贴进去,终端里只显示一个占位符[Pasted text +16 lines]

粘进去之后想改两个字,改不了,只能整段删了重粘。

如果你像我一样在用 Typeless 这种 AI 输入法,会更难受。

Typeless 默认输出在终端里也是用占位符的形式展示的,所以每次说错一个字,要么删掉重说,要么在其他地方改完再粘贴进来。

Claude Code 其实留了一个口子:按 Ctrl+G 可以进入 vim 编辑模式。

但这个方案对没接触过的人来说门槛偏高,连普通文本编辑都得先记快捷键,它更适合程序员的工作习惯。

更好的方案,是装一个 GUI 编辑器,让 Claude Code 在 Ctrl+G 的时候打开它,而不是 vim。

我用的是 CotEditor,它是一个文本编辑器,免费,轻量,启动快。

工具长这个样子👇

img

配置过程一共三步。

第一步:装 CotEditor 命令行工具

CotEditor 自带了一个 cot 命令,但默认没注册到系统。在 App Store 装好 CotEditor 之后,运行:


    
     
    sudo ln -s /Applications/CotEditor.app/Contents/SharedSupport/bin/cot /usr/local/bin/cot

这一步要输电脑密码,正常的。然后验证一下:


    
     
    cot --version

能打出版本号就装好了。

img

如果你电脑装了 Homebrew,也可以一行搞定:


    
     
    brew install --cask coteditor

第二步:给 cot 这个命令行工具包一层壳

在终端执行以下命令:


    
     
    mkdir -p ~/.local/bin && cat > ~/.local/bin/cot-editor << 'SCRIPT'
#
!/bin/bash
Wrapper for cot --wait
cot --wait "$@" 2>/dev/null
exit 0
SCRIPT
chmod +x ~/.local/bin/cot-editor

这段命令在干嘛:创建一个 cot-editor 脚本,里面调用 cot --wait,把错误输出吞掉,最后强制返回 0。

这样无论 CotEditor 是不是真的有 AppleScript 报错,Claude Code 都能正常拿到你编辑的内容。

第三步:配 PATH 和 EDITOR

在终端执行以下命令:


    
     
    grep -q '^export PATH=.*\.local/bin' ~/.zshrc || echo 'export PATH="$HOME/.local/bin:$PATH"' >> ~/.zshrc

grep -q '^export EDITOR=' ~/.zshrc || echo "export EDITOR='cot-editor'" >> ~/.zshrc

source ~/.zshrc

这段命令逐一解释一下:

PATH 让终端能找到刚才创建的 cot-editor 命令。

EDITOR 让 Claude Code 在你按 Ctrl+G 的时候知道该调起哪个编辑器。

grep -q 那一段是防重复,如果已经配过就跳过,不会重复写入。

配完之后,下次粘进去一大段,按 Ctrl+G,CotEditor 会弹出来,你直接在里面改,关掉窗口,改动就同步回 Claude Code 了,非常丝滑。

img

这部分是 Mac 方案,因为我自己用的就是 Mac。Windows 用户可以把这个方案丢给你的 Claude Code 问它如何实现🤣。

三、装一个能「一直看见」的插件:Claude HUD

第三个是一个 Claude Code 的 statusline 插件,主要用来实时显示正在发生的事情——上下文使用率、活跃工具、运行中的 Agent 和待办进度。始终在你的输入下方可见。

Github 地址:https://github.com/jarrodwatts/claude-hud/blob/main/README.zh.md

装好之后,输入框下方会出现一行(或者两行、三行,看你怎么配),实时显示:

  • • 当前模型 + 项目路径 + git 分支
  • • 上下文使用进度条(绿 → 黄 → 红)
  • • 5 小时使用额度进度条 + 重置倒计时
  • • (可选)正在调用的工具、运行中的 Agent、待办进度
img

最有用的两条是上下文进度条和使用率进度条,一抬眼就知道还能写多少,不会被中途打断。

装的过程也是三步,在 Claude Code 里直接执行:


    
     
    /plugin marketplace add jarrodwatts/claude-hud
/plugin install claude-hud
/claude-hud:setup

配完之后重启 Claude Code(macOS 上要彻底退出再重新 claude),HUD 就出现了。

大概长这样👇

img

几个小Tips:

1、默认是英文标签。跑 /claude-hud:configure 可以切中文,顺便还能选「完整 / 核心 / 极简」三个预设

2、使用率显示只对订阅用户生效,纯 API key 用户看不到(API 用户按 token 付费,本来也没有 5 小时窗口的概念)

3、工具活动、Agent、待办这三行默认是关闭的,需要在 /claude-hud:configure 里手动打开

四、遇到不会的,去官网 AI 助手问

最后一个其实不算调整,算是一个小习惯。

可能在使用 Claude Code 的时候经常会冒出各种小疑问:这个 slash command 是干嘛的、hook 怎么写、/tui 和 CLAUDE_CODE_NO_FLICKER 有什么区别、为什么我配的 EDITOR 没生效等等问题。

之前我是怎么做的呢?

我都是在谷歌上面去搜索对应的关键词,通过其他人的一些教程去进行解决。

后来我就发现了,其实有一个更好的方式:直接去  https://code.claude.com/docs 官方文档站,右上角有个 AI 助手,点击直接问就行。

img

这个 AI 助手有两个核心优势:

  • • 不消耗你的 token。 它不在你的 Claude Code 会话里,怎么问都不会占用你的上下文窗口。
  • • 每个回答都附带文档出处。 你可以直接点过去看原文,确认没误解,也方便顺藤摸瓜挖更多细节。

它背后检索的就是官方文档,比网上的各种博客文章更靠谱,我现在遇到不确定的命令,第一反应都是开它问。

如果你压根懒得开网页,当然直接问 Claude Code 自己也行。

写在最后

以上四点就是我在使用 Claude Code 中的一些小技巧,希望对大家有用。

整个过程调整起来其实不到 30 分钟,但调整完之后,用起来会顺手得多。

如果说部分内容你自己不会操作,你也可以把这篇文章里面的内容发给你的 Claude Code,直接让它帮你搞定🤣。

一图流总结如下👇

img

 

图片

以上,就是本文全部内容,如果觉得这篇文章对你有启发,点赞、比心、分享三连就是对我最大的支持,谢谢~

往期推荐阅读
•  Obsidian 从入门到进阶合集

• AI把我推成“知名”博主后,我发现了一条产业链

• 用 Gemini 解锁 YouTube 新用法,信息获取效率提升 10 倍

• 有了 NotebookLM 后,还需要 Obsidian 吗?

• 我试了 NotebookLM 学习法后,彻底抛弃传统学习方式

• NotebookLM 再次升级,来自谷歌的年终礼物

• 我用 NotebookLM 解锁 PPT 的 5 种玩法,实现了 PPT 自由

• AI 时代,你的上下文才是最值钱的资产

• 2026 年如何用好 AI,我发现这些能力更重要

• Openclaw 这么火,可你真的需要它吗?

• 万物皆可命令行:AI 时代,软件正在长出第二套界面

• 全网都在抄 Karpathy 的知识库,但大多数人只学到了皮毛

MiniCPM-o 4。5技术报告发布:端侧全双工AI助手,消费级显卡免费可用

面壁智能联合清华大学发布MiniCPM-o 4.5技术报告,9B参数模型实现端到端全双工全模态交互。无需联网,消费级显卡(如RTX 5070 12GB显存)即可本地部署,数据隐私安全。同步开放免费在线Demo、全模态API及Windows/macOS安装包Comni,Hugging Face下载量已超25万。适合开发者及AI爱好者体验离线实时音视频交互。

Tags:

你有没有想过,不用联网、仅用一张消费级显卡,就能在个人电脑上拥有一个「边看、边听、边说、还能主动提醒」的类人 AI 助手?

它既能实时感知环境变化、同步理解你的意图,又能全程保护隐私。

这就是 MiniCPM-o 4.5 所能做到的。

在技术创新下,它仅凭 9B 参数,实现了业界首个端到端全双工全模态大模型,让端侧 AI 普惠成为现实。

其自 2026 年 2 月模型发布以来,在 Hugging Face 上的下载量已突破 25 万+。

  • 模型用例展示:https://openbmb.github.io/minicpm-o-4_5-omni/

  • 在线体验(无需注册/下载):https://minicpmo45.modelbest.cn/

今天,面壁智能联合 OpenBMB 开源社区、清华大学 THUNLP 实验室和 THUMAI 实验室正式发布 MiniCPM-o 4.5 技术报告

首次公开面壁智能在全双工全模态交互领域的核心技术:Omni-Flow 流式全模态框架

技术报告:https://github.com/OpenBMB/MiniCPM-o/blob/main/docs/MiniCPM_o_45_technical_report.pdf

图片

在技术报告发布的同时,MiniCPM-o 4.5 同步推出在线体验 Demo、全模态全双工 API、端侧安装包 Comni 和 Demo 仓库。

在线体验 Demo

在线 Demo 是 MiniCPM-o 4.5 的原型示例网页应用,展现传统轮次交互、语音双工交互、视频双工交互三大类应用原型,并完整开放模型支持的全部配置,包括 prompt 和参考音频设置。

Demo 可在手机、电脑端直接访问,并配套提供排队、录制、保存、分享、回看等功能,提升用户体验。

  • 手机端:https://minicpmo45.modelbest.cn/mobile/

  • 电脑端:https://minicpmo45.modelbest.cn/

全模态全双工 API

同步开放的 MiniCPM-o 4.5 API 支持全模态全双工实时交互,全双工下无需 VAD 机制控制对话轮次,便于开发者基于 MiniCPM-o 4.5 构建应用。

API使用https://api.modelbest.cn/minicpmo45/v1端点,目前免费开放。详细使用方式见 API 文档。

MiniCPM-o 4.5 API 文档:https://api.modelbest.cn/minicpmo45/docs

Windows / macOS 端侧安装包 Comni

MiniCPM-o 4.5 已基于 llama.cpp 完成模型量化和推理性能优化,实测最低 12GB 显存的 RTX 5070 即可流畅运行全双工模式(RTF0.4),极大降低了个人端侧部署的准入门槛。

为进一步降低端侧部署的操作门槛,桌面软件 Comni 集成了模型下载、环境安装和 Demo 运行能力,提供 Windows / macOS 版本。

在电脑上启动本地服务后,除了在本地浏览器中使用外,强烈推荐通过手机用局域网连接,进行全双工视频通话。

软件包下载链接如下:

平台: Windows
下载链接: GitHub:https://github.com/tc-mb/llama.cpp-omni/releases/latest/download/Comni-Setup-win64.exe;ModelScope:https://modelscope.cn/models/OpenBMB/MiniCPM-o-4_5-gguf/resolve/master/app/Comni-Windows-x64.exe硬件要求:12GB+ 显存 GPU,如 RTX 5070 / RTX 5080 / RTX 5090 / RTX 4090
平台: macOS
下载链接: GitHub:https://github.com/tc-mb/llama.cpp-omni/releases/latest/download/Comni-macOS-arm64.dmg;ModelScope:https://modelscope.cn/models/OpenBMB/MiniCPM-o-4_5-gguf/resolve/master/app/Comni-macOS-arm64.dmg硬件要求:M1-M5 Max / M5 Pro 建议内存 16G 以上

(上方视频展示了 MiniCPM-o 4.5 在个人笔记本上的完整部署与运行过程,包括全双工语音对话、实时视觉理解、主动提醒等能力演示)

Demo 仓库开源和 Linux 部署

上述 Demo 的全栈代码已开源,Linux 用户可克隆代码仓并部署完整的 Demo 服务。

这也是首批可本地部署的全双工全模态交互演示项目之一。

GitHub:https://github.com/OpenBMB/MiniCPM-o-Demo

为什么「全双工」是 AI 交互的下一站?

人类交流是流畅、并行的。我们边听边思考,甚至可以打断对方。

但过去,AI 与人类的交互模式是半双工的,像用对讲机:你说完,它才能处理;它说的时候,又听不见你的新指令。

AI 与人类的不同频,使得大多数用户无法在与大模型产品的交互中获得良好的体验感,甚至由于交流的「时空割裂」逐渐失去耐心。长此以往,大模型在多模态场景的落地无疑大大受阻。

而 MiniCPM-o 4.5 在全球范围内首创「全双工全模态」,模型能在持续感知环境(看视频、听声音)的同时进行思考和响应,这让 AI 从一个被动的工具变成了一个可以主动帮助人类的真正助手。

这背后离不开面壁智能与清华大学共同研发的 Omni-Flow 流式全模态框架。本次技术报告也首次披露了 Omni-Flow 的技术核心:

简单来说,它创造了一个共享的「时间轴」,把视觉、音频、语言等所有信息流都对齐到毫秒级的时间片上。模型在每个极小的时间片内,完成一次「感知-思考-响应」的循环。

这套机制从底层赋予了模型持续感知即时反应的能力,是 MiniCPM-o 实现全双工的基石。

此外,MiniCPM-o 4.5 本次发布并坚持开源可本地部署的 Web Demo,这对开发者与用户意味着:

  • 绝对的隐私安全:全天候陪伴式 AI 会接触大量敏感信息。数据不出本地,是最好的隐私保护。

  • 断网也能跑的可靠性:没有网络也能用。即使在隧道、野外,你的 AI 助手也不会「掉线」。

  • 开发者的游乐场:完整的 Demo 前后端代码已开源。你可以基于此快速构建自己的全双工多模态应用,无论是智能座舱、无障碍辅助还是具身智能,MiniCPM-o 4.5 都能成为你将想象变成现实的助推器。

技术报告深度解读:揭秘 MiniCPM-o 4.5 的实现之道

MiniCPM-o 4.5 采用端到端全模态架构,总参数量 9B。核心设计包括:

  • 全模态端到端架构:多模态编码器/语音解码器与 LLM 通过逐token级隐藏状态紧密连接,在高压缩率下实现通用视觉、听觉感知和语音对话。

  • 时分复用机制:将并行多模态流划分为周期性时间片内的顺序信息组,实现高效的流式处理。

  • 可配置语音建模:支持文本+音频双系统提示,通过参考音频和角色提示词即可实现声音克隆角色扮演。

  • 双模式支持:同一模型支持传统的轮次交互模式与Omni-Flow全模态全双工模式。

1)实时交互:Omni-Flow 流式全模态框架

传统多模态模型将交互视为一系列孤立的回合,而 Omni-Flow 将其重塑为一个连续的过程

img

图1:交互范式的演进,MiniCPM-o 4.5 实现了最右侧的全双工流式交互

如图所示,Omni-Flow 将视觉、音频输入流和模型的文本、语音输出流,在时间上进行精确切片和对齐。模型不再是被动地等待用户输入完成,而是以极高的频率(例如每秒一次)持续刷新自己的“世界观”,并自主决定在哪个时间点介入(说话或提醒)。

这套机制原生支持了打断、插话等高级交互行为,彻底摆脱了对外部 VAD (语音活动检测) 等辅助工具的依赖。

2)端到端架构:9B 模型如何协同工作?

为了实现 Omni-Flow,面壁智能团队设计了一套高效的端到端全模态架构,总参数量 9B。

img

图2:MiniCPM-o 4.5 的端到端全模态架构

其核心组件包括:

  • 视觉编码器(0.4B):SigLIP-ViT,负责「看」。

  • 音频编码器(0.3B):Whisper-Medium,负责「听」。

  • LLM 基座(8B):Qwen3-8B,负责「思考」和理解。

  • 语音 Token 解码器(0.3B):轻量级 Llama 架构,负责将 LLM 的「想法」(文本)转化为语音单元。

  • 声码器: 将语音单元合成为最终的波形。

这个架构最巧妙的设计之一是:LLM 基座只生成文本 Token,而专业的语音合成任务「外包」给了一个更小、更专业的语音解码器

这避免了让大模型直接处理复杂的声学任务,从而保证了其核心的语言和推理能力不受损害。同时通过各模块的token级稠密连接,保证了模型能力的高上限。

同时通过各模块的token级稠密连接,保证了模型能力的高上限。

3)为实时而生:TAIL 语音生成方案

流式语音的一大难题是延迟。为了让语音听起来自然,模型通常需要「预读」一大段文本,但这会导致输出的语音远远滞后于用户的输入。在需要「即时打断」的全双工场景里,这是致命的。

因此,面壁智能团队提出了 TAIL(Time-Aligned Interleaving)方案,可以让每个语音块的生成都紧紧跟随实时最新的文本内容,而不是让文本「抢跑」太多。

同时,通过一个轻量级的「预读」(pre-look) 机制,解决了跨词发音的连贯性问题。最终,TAIL 在保证音频流畅悦耳的同时,将语音输出与交互发生的延迟降到了最低。

4)性能表现:9B 模型硬刚业界顶尖

参数规模小不等于模型性能弱。MiniCPM-o 4.5 在多个维度的评测中,展现了与 SOTA 大模型掰手腕的实力。

img
  • 推理效率:在显存方面,MiniCPM-o 4.5 的 INT4 量化版仅需 12GB 显存即可运行,几乎是 Qwen3-Omni INT4 版本的一半,使得其在消费级显卡上的本地部署成为可能。在性能方面,MiniCPM-o 4.5 的推理速度也更快,其 INT4 版本的解码速度达到了 212 tokens/s,比 Qwen3 快了 40% 以上,响应延迟更低。

img
  • 综合视觉能力:在 OpenCompass、MMBench 等多个视觉基准上,9B 的 MiniCPM-o 4.5 与 Gemini 2.5 Flash 表现相当

图片
  • 全模态与全双工交互:在需要联合音视频理解的基准上,MiniCPM-o 4.5 全面超越了 Gemini 2.5 Flash 和 Qwen3-Omni。在全双工视频理解基准 LiveSports-3K-CC 上,其胜率(54.4%)更是大幅领先专用的流式视频模型。

图片
  • 语音生成:无论是中文还是英文,MiniCPM-o 4.5 的语音生成质量(字符/单词错误率更低)和情感表现力都优于 Qwen3-Omni 和业界领先的 CosyVoice2。

图片

真 · 全双工,潜力无限

全双工全模态大模型不是一个遥远的概念,而是会催生一系列全新的应用,例如:

  • 主动式伴侣:在你烹饪、修理或运动时,给你实时的指导和提醒。

  • 无障碍辅助:成为视障人士的「眼睛」,为视障人士持续观察环境,主动播报绿灯亮起、水杯将满等关键环境信息,帮助他们安全生活。

  • 智能座舱:持续监控路况和驾驶员状态,主动提示「左侧有可用车位」并引导泊车,提供更智能、更及时的安全预警和驾驶辅助。

  • 具身智能:作为机器人的「大脑」,持续感知动态环境并自主决策交互时机。

这些场景的共同点是:需求并非一次性问答,而是需要 AI 作为「沉默的观察者」和「及时的提醒者」融入动态生活流——这正是传统轮次对话模型无法胜任的。

MiniCPM-o 4.5 是原生全双工模型,摆脱了对VAD的依赖。这意味着:支持 general 声音感知(环境噪音、音乐等,不仅是语音);画面变化跟进更快(native全双工,无需等上句说完);AI 说话时可被实时引导改变内容。

当然,MiniCPM-o 4.5 目前还存在可提升空间,如长时间交互的稳定性、主动行为的丰富性等。

多模态智能的下一个前沿,不仅在于模型能力的扩展,更在于重新思考智能表达的交互范式。Omni-Flow 和 MiniCPM-o 4.5 是面壁智能在这一方向上的关键探索。

开放与协作将持续推动人机交互演进。欢迎所有开发者试用模型、参与讨论、贡献代码,共同探索人机交互的未来!

  • 技术报告PDF:https://github.com/OpenBMB/MiniCPM-o/blob/main/docs/MiniCPM_o_45_technical_report.pd

  • 在线体验:https://minicpmo45.modelbest.cn/

  • 在线体验(手机端推荐):https://minicpmo45.modelbest.cn/mobile/

  • GitHub Demo(含本地安装包):https://github.com/OpenBMB/MiniCPM-o-Demo

  • Hugging Face 下载链接:https://huggingface.co/openbmb/MiniCPM-o-4_5

  • ModelScope 下载链接:https://www.modelscope.cn/models/OpenBMB/MiniCPM-o-4_5

对于 Demo 安装、Api 调用或模型使用中您遇到任何问题、或者想分享交流,欢迎扫码加入飞书群。

img

Claude Code 4个实用技巧:解决闪屏、粘贴编辑与额度监控

本文介绍4个让 Claude Code 更顺手的实用技巧:通过环境变量开启全屏渲染模式解决屏幕闪烁和内存占用;配置 CotEditor 实现粘贴内容可编辑;安装 Claude HUD 插件实时显示上下文与使用额度;以及利用官网 AI 助手快速查找命令用法。适合开发者提升终端 AI...