2025年3月21日星期五

爆款小红书账号定位+数据拆解,最新的扣子(coze)工作流详细拆解,快来看看吧


点击上方卡片关注 不要错过精彩文章


🎉

读完这篇文章,别忘记给舰长点一个关注!舰长的智能体搭建文章,不仅是节点的构建,也有思路的分享。智能体搭建最重要的就是思路。最希望,能给大家带来不一样的搭建思路和方法。 

点一点上方的🔵蓝色小字关注,你的支持是我最大的动力!🙏谢谢啦!🌟" 


         大家好!我是唐舰长🙏 很多朋友在做自媒体时都有一个"老师",可以根据这位"老师"来步入自媒体第一步,除此之外我们通过一些对标账号,找到属于我们的定位。


除了观摩对标账号的内容,还要看该账号的一些数据,而看数据是一个很累的过程。那我们可以通过智能体来帮助我们去分析账号。


舰长搭建出一套可以自动分析小红书用户的账号数据,如:定位拆解、标题拆解、文案关键词拆解、数据拆解的功能,本次将这套工作流搭建流程分享出来。


工作流详情图和思路分享:


流程一:

用插件提取一个作品的数据,会返回一个主页的"auther_home_page_url";

如果想要获取全部数据需要用"auther_home_page_url"获取



流程二

直接用批处理(提取需要的数据内容)

需要的内容有:作品的标题、文案、关键词、作品点赞转发数据

用文本处理提取链接,再由插件获取单作品的数据后进行提取



流程三

账号数据分析:分析定位|标题|关键词|数据

都用大模型并使用depseek- R1模型来解决

最后全部输出


主要使用插件:

获取用户全部作品

获取作品数据

这款插件有很大的限制就是必须要用到cookieStr,cookieStr获取还是比较麻烦

cookieStr获取方法:文章结尾有获取方法


每个节点配置详情:

开始节点


插件:获取该笔记的详情(xhs_note_detail)

cookieStr:获取方式详情看文章结尾

noteUrl:引用开始的"input"


插件:抓取用户全部信息插件(xhs_auther_notes)

cookieStr:获取方式详情看文章结尾

serProfileUrl:引用前置插件"获取该笔记的详情"的输出变量名"auther_home_page_url"


批处理外部节点配置:

其实用代码可以完美解决,但是很多小伙伴代码基础较弱,所以舰长采用非代码方式提取需要的内容

input:引用插件抓取用户全部信息插件的输出变量名notes


批处理内部节点配置:

文本处理节点:作品链接获取

引用批处理的 item(in input)

字符串拼接内容:看文章结尾


插件:小红书作品数据获取(xhs_note_detail)

cookieStr:获取方式详情看文章结尾

noteUrl:引用文本处理节点(作品链接提取)的输出


文本处理节点:笔记的详情提取

引用笔记详情获取插件的"note"

字符串拼接内容:看文章结尾


文本处理节点:笔记作品数据提取

引用笔记详情获取插件的"note"

字符串拼接内容:看文章结尾


回到批处理的外部节点,配置好输出:

两个文本处理的输出都要配置出


大模型节点一:定位拆解

模型:选择deepseek- R1

输入:引用批处理的输出"output"

提示词:详情看文章结尾

输出:默认


大模型节点二:标题拆解

模型:选择deepseek- R1

输入:引用批处理的输出"output"

提示词:详情看文章结尾

输出:默认


大模型节点三:文案关键词拆解

模型:选择deepseek- R1

输入:引用批处理的输出"output"

提示词:详情看文章结尾

输出:默认


大模型节点四:作品数据拆解

模型:选择deepseek- R1

输入:引用批处理的输出"output_list"

提示词:详情看文章结尾

输出:默认


结束节点:


主要的工作流分享就到此为止,搭建时很多细节还是需要注意的,

今天就到这里吧,感谢认真看到这个位置,获取需要用到的文本处理内容和提示词,请一键三连评论区留言"爆款小红书",扫码文章底部舰长微信,发送截图与"爆款小红书" 文字,获取吧


关注公众号并添加舰长微信,领取智能体学习资料,并参与Coze技术直播讲解

舰长积极创建智能体;工作流交流群,让我们在AI时代一起进步互相学习!每天会在群里分享智能体的搭建,欢迎各位小伙伴加入~

船长团队创作智能体专栏小册,里面有最新进阶的Coze智能体文章,在文章有收获的同时,可以分销而获取60%的小册费用,聚财成多








没有评论:

发表评论

我们开源了一款 AI 驱动的 Wiki 知识库

大家好,经过一个月的内测,我们昨天刚刚开源了一款 AI 驱动的 Wiki 项目,叫做 PandaWiki。 大家好,经过一个月的内测,我们昨天刚刚开源了一款  AI  驱动的  Wiki  项目,叫做  PandaWiki 。 GitHub 链接: https://githu...