① 模块化分层结构
<citation_instructions>
、<artifact_instructions>
等② 精确的边界控制
让 AI 明确不要做的事情,要重点突出:
比如:Claude 的提示词中有一段: NEVER use localStorage
GPT-5 的提示词中有一段:UNDER NO CIRCUMSTANCE should you tell the user to sit tight
可以看到,对于明确禁止的行为,都是用英文字母大写来强调。如果是中文可以考虑通过更重要的标识来突出。
除了语气,系统提示词中也教大模型在适当的时机调用工具:
比如:
用户让解释一下相对论,这种查询稳定知识的场景:AI 可以直接回答。
想知道北京人口统计这种年更新数据查询:AI 会通过回答+搜索的方式获取最新的信息给到回复。
获取今天汇率、赛事结果等等实时信息:就会强制 AI 调用搜索工具,获取最新最准确的信息再进行回答。
当然还有一些复杂的分析,比如半导体出口对投资的策略的影响,这种场景 AI 可能会进行 5~20 次工具调用进行多工具协同。
除了搜索工具,在调用文件分析工具、图像生成工具的时机也给出的相关策略。
④ 提供情绪价值
Grok Personas 模型的底层提示词也泄露了,就是马斯克推出的 AI 大模型 Grok。
Personas 就是一个预设好的性格配置,通畅会有独特的语气风格和人格。来看看它的底层提示词怎么写的,怎么让 AI 给人提供情绪价值。
挑出了「伴侣」和「喜剧人」的提示词,自己看吧。看的我脸红
⑤ 安全处理
拿 ChatGPT 系列模型举例,一般通过 5 层安全机制处理安全问题。
防止 AI 瞎白活,把公司干没了。。。
❶ 明确禁止高危行为
模型被严格要求禁止执行银行转账、购买武器或毒品等涉及金融交易、武器、违禁品的操作。
高危行为直接封堵,从根源切断风险。
❷ 隐私保护双保险
比如用户打开一封银行验证邮件,模型发现页面有立即转账按钮:不点击,先问用户。
再比如「权限隔离」防越权访问,用户要求登录 Gmail 或网银等敏感账户。导航到登录页面,绝不代填密码/验证码
❹ 内容过滤机制
还有其它有意思的提示词细节,可以直接访问下面这个开源项目链接查看。
开源地址:https://github.com/asgeirtj/system_prompts_leaks
Claude、Gemini、ChatGPT、Grok 这些主流 AI 助手的系列模型都扒出来了。
如果你用某个模型的时候,对 AI 返回的内容感觉到好奇,不如来这里翻翻它的底层提示词怎么写的,可能就能找到答案了。
点击下方卡片,关注我
这个公众号历史发布过很多有趣的开源项目,如果你懒得翻文章一个个找,你直接关注微信公众号:逛逛 GitHub ,后台对话聊天就行了:
没有评论:
发表评论