2026年3月18日星期三

LibTV:首个同时为人类与Agent设计的AI视频创作平台,专业画布+Skills

LibTV是Liblib推出的AI视频产品,创新采用双入口设计:专业用户可使用无限画布进行节点式创作,支持图像、视频、音频全链路处理及摄像机控制;普通用户可通过Agent Skills一句话生成视频。会员积分与Liblib通用,适合AI创作者和希望简化视频制作的用户。

Tags:

我昨天发了一篇文章,中间有一个观点。
就是AI时代,你的产品,可能得同时为了人类和Agent共同设计。
我前几天出去给人分享的时候,在PPT上也写过这个判断。
图片
未来的很多产品,可能都会是两个入口并存。
一边是为人类而设计的UI界面,一边是纯粹为了Agent而设计的Skills。
而昨晚,Liblib发了一个他们的AI视频产品,我觉得非常有意思。
因为,他们的产品,应该是我第一个看到的。
为人和Agent共同而设计的AI视频产品。
而且,用一种很优雅的姿态,解决了一个在交互设计领域一直以来都很绝望的问题,就是怎么同时兼顾专业用户和普通用户。
这个东西,名叫LibTV。

网址在此:https://www.liblib.tv/

图片

这个产品,让我一时间,不知道从哪下笔。

因为,这玩意真的就是面向人类和Agent双向出击。

给人类用的,就是极度全面、复杂、专业、需要连线和节点的无限画布。

给Agent用的,就是一个使用起来极度简单、无需理解、开箱即用的SKills。

先说这个给人类用的无限画布。

先给大家看一个工作界面,这是一个大佬叫毕加索隆,在上面做的片子《索拉里斯之船》,我非常喜欢这个片子和他的艺术风格。

而这,这是他的画布界面。

看的我脑壳疼。

图片

就咋说呢...虽然节点式的画布看着复杂,对普通用户来说确实有点难上手。

但是我觉得只要是希望能创作最顶级AI短片AI广告的那些专业创作者,我相信他们绝对会喜欢这个产品,因为,真的太顶了,你能想象到的一切功能,LibTV都给你做了上去。。。

支持剧本、图片、视频、音频全链路。

图片

你可以,一口气,直接在这里面,完成所有素材的制作。

比如,生成图片。

图片

当然,你也可以自己传一张图片上去,进行处理。

而LibTV这个画布,对图片的处理,我感觉就是变态级的。

高清、扩图、重绘、擦除、抠图这些都正常做了,自不必说。

图片

还有两个他们雕花雕的很有趣的。

一个是多角度,直接就预设好了一堆的视角,你一张图扔进去了,就非常非常便捷的,可以出任意视角的图,而且稳定性极高,左边的3D的预览做的也非常有意思。

图片

一个是灯光。

图片

真的,一键改成各种角度的光,极其稳定,轮廓光也能生成。效果非常好,我就随手改了一个右侧50%亮度带有轮廓光的打光,还有一个左侧的75%亮度的效果。

而当你想继续用这张图生成后续的内容的时候。

你就可以引用这张图,反推Prompt成文本,或者图生图,或者生视频,等等等等。

图片

比如我们选择继续生图,你就能看到一个非常多功能的输入框。

图片

有预设风格,有尺寸,有比例,还能选模型。

图片

然后还有个非常离谱,雕花雕的贼细的摄像机控制。

图片

我第一次见到真的有UI,把相机的实物和镜头的实物,还有各种光圈和焦距全扔进来的。。。

这真的是,正儿八经的摄像机控制了。。。

而且,还有更多的功能和预设,被藏在了/的命令里,你敲一下就能看到了。

图片

我们可以直接来生成个,剧情推演的四宫格,看看后面的动态演变帧。

没一会,四宫格就生成好了。

图片

然后,你还可以用工具栏的网格切分功能,把图片提取出来。

图片

比如我们是四宫格,就可以选中四宫格切分,再选中右上和左下。

图片

然后,这两张图就被提取出来了。

图片

他们真的,我觉得已经把基于工程能力上的雕花雕到极致了。

而所有的图片的处理,其实最后,都是为了视频服务的。

你可以给最终的图片节点连线,调用现在几乎所有的视频模型来帮你生成。

图片

为啥我说是几乎所有呢。。。

因为缺了现在最大的那个爹,Seedance 2.0。

不过也能理解,Seedance 2.0现在几乎没有对外开放,自己内部排队都排N个小时,就看Lib啥时候能钞能力发作,把Seedance 2.0给拿下来了,我是真的很想在这种画布上,来去创作视频的,太顺了。

生成完的视频,你也可以继续剪辑、超分,还有个有趣的东西,叫解析。

图片

其实就是你可以对它,进行一个更细节的拉片。

图片

而这个东西,也就是他们自己比较独有的,脚本节点。

你可以给一段剧本,来帮你生成对应的分镜脚本。

图片

你也可以通过角色设定+一段话,来生成一段分镜脚本。

图片

当然,也都可以合并在一起。

这套流程,其实对做AI短剧或者AI漫剧,就非常的有用了。

还有音频节点,音频驱动数字人。

图片

或者生成音乐等等。。。

功能太多了,我就不列完了,我觉得,你是个AI创作者,你就可以上去试试看,这是一个我现在应该见到的,非常非常完整的AI视频创作工具。

并且,里面的积分和会员,是跟原来的liblib直接打通的,所以你原来的会员和积分,也可以没有任何成本的迁移到LibTV上来用。

面向人类的部分说完了。

接下来,说一下面向Agent的部分。

我觉得LibTV这次做了一个很好的示范,不过可能也是第一次尝试,所以在入口上,没有那么的激进。

点开你的头像,然后就能看到一个Access key的东西。

图片

点它。

你就能看到一个弹窗了,这个弹窗里,有Skills的链接,还有你自己的key。

图片

这个key的意思,就是你的Agent在用LibTV时候的一个凭证。

让你的Agent,包括Claude Code、Codex、OpenClaw等等安装这个LibTV skill也非常的简单。

直接一句话:

帮我安装https://github.com/libtv-labs/libtv-skills这个skill。

跑一会后,就OK了。

图片

在弹出这么一段以后,因为里面没有自带的key,所以其实还用不了,就跟小龙虾里面NanoBanana之类的Skills一样,所以,记得把你的Key直接发给它。

然后就OK了。

因为LibTV自己能力的丰富性,所以,几乎你能想象到的一切,无论是写脚本、生图、改图、生视频、编辑视频、生成音乐等等。

你全都可以让LibTV来干,甚至有了它之后,你几乎就不需要那些各种各样的生图生视频的Skills了。

就这一个Skills,全部搞定,我感觉这玩意已经可以进入到我的必装Skills列表里面了。

而且我看了一下他们的Skills,其实用户侧暴露的东西还比较少,几乎最重要的功能,就是触发和通信。

图片

所有的一些改分镜、模型调用、做漫剧等等偏向知识型的能力,应该都是他们后端部分的Skills去处理了。

所以,大概的交互流程其实就是,用户提出一个Prompt,比如说是要生图生视频或者改图改视频啥的,通过Skills的机制,触发了LibTV,LibTV将用户的内容原封不动的传到了LibTV的后端Agent上,然后后端Agent根据自己的内部Skills开始调用模型进行创作,最后再通过通信,给用户侧进行返回。

图片

这个做法,其实我是比较认同,因为现在的很多Skills,大半都是直接开源出来给大家的,然后里面的一些核心经验和Know-how,其实都是裸奔的。

没有壁垒,就没有保护,没有保护,就很难有商业化的空间,没有商业化,那这个生态,就很难转起来。

所以,用户侧的Skills只负责触发和通信,真正的能力全部跑在他们自己的后端Agent上。

这也意味着,他们可以不断迭代自己后端的Prompt、模型调用策略、分镜生成逻辑,而这些东西,外面是看不到的。

这个思路我觉得对很多想做Skills的团队都很有参考价值,你对外发布的,完全可以是接口,不是大脑。

Agent生态需要开放,但开放不等于把自己的核心竞争力全部掏出来送给别人。

用起来也很简单,我用Claude Code举个例子。

比如说,我们可以先生图。

我把我想生的图,直接扔给了Agent:

帮我生成一下图片:黑白、模糊的歌剧芭蕾舞者,使用Canon K-35拍摄,风格为Jeanloup Sieff,16:9,2K,帮我生成4张。 

图片

这时候,就会自动调用LibTV的Skills,来触发这个生图任务。

LibTV把这个Promtp传到了他们的后端Agent,然后自动开始跟后端进行轮询。

图片

大概几十秒以后,图片生成成功,我们拿到了生图的结果链接,同时帮我们把这四张图片,自动下载了本地,还会返回给你一个他们的画布项目链接。

这个是我觉得非常屌的地方,可以直接跟画布打通,你的每一个任务,就会自动以一个真实的项目放在你的画布里,所有的节点也都是串好的。

所以你也可以,跟你真实项目联动上,这个觉得非常的好。

图片

生成出来的图长这样,我自动拼了一下。

图片

效果还是相当不错的,现在,我觉得第一张图很不错,我想让他驱动成一个10s的视频。

我就可以继续直接说。

图片

这时候,Skill就会自动把你这张图,传到后端,来去帮你生成视频了。

大概自动轮询两分钟以后,这个视频就生成完了,自动放在了你的本地。

图片

可以看看这个视频。

这只是一个非常简单的,没有跟其他的Skills去搭配的生图生视频的玩法。

你也可以,一句话,来帮你复刻一个爆款视频,然后生成一个TVC广告。

或者,一句话,给一首歌,配上MV。

这个case我觉得挺有意思的,来自Fine大佬。

Prompt也究极简单:根据坂本龙一《Rain》音乐,做一个MV视频。

虽然我觉得还有很多优化的空间,但是毕竟我们从来不指望,Agent能一次性给我们一百分的东西,能给出70分的东西,我们再手动优化成100分的内容,这个我觉得就是未来创作的核心。

毕竟,还有那个,整个为人类设计的无限画布嘛。

Agent出初稿,人类去无限画布上优化,这个就是我觉得,可能未来最普遍的创作方式了。

同时为人类和Agent设计,完美解决了专业用户和普通用户的使用问题。

专业用户,你就去用无限画布。节点连线、参数调整、模型选择、摄像机控制、光圈焦距等等等等,都是为了方便你最好的控制,你是专业创作者,那这些复杂度,就是你的武器。

而普通用户,你都不需要打开这个画布。你装一个Skills,跟Agent说一句,Agent就会调用LibTV的Skills,后端Agent自己去处理分镜、选模型、调参数、生成视频,你什么都不用懂,但最后的结果,就全部会直接给你,你完全可以感受到,言出法随的魅力。

同一个产品,同一套底层能力,但通过两个完全不同的入口,分别服务了两类完全不同的用户。

这就是我昨天说的那个判断的具体形态。

两个入口背后,其实都是底层功能的原子化能力的重组。

这个形态,我觉得可能才是Agent时代产品设计的真正答案。

就目前来说,绝对不是非此即彼,也不是UI死了Skills活了。

是两条路同时走,各自服务各自的用户,最终汇入同一个能力内核。

从此。

人类与Agent共生。

天下大同。

以上,既然看到这里了,如果觉得不错,随手点个赞、在看、转发三连吧,如果想第一时间收到推送,也可以给我个星标⭐~谢谢你看我的文章,我们,下次再见。

>/ 作者:卡兹克

>/ 投稿或爆料,请联系邮箱:wzglyay@virxact.com

没有评论:

发表评论

阿里开源CoPaw桌面AI助手:免费,自动操作电脑,打通钉钉飞书

阿里开源桌面AI助手CoPaw,免费使用,无需代码即可让电脑自动操作钉钉、飞书等软件,支持本地部署保障数据安全,适合打工人和企业提升办公效率。一键下载,告别重复劳动。 Tags: 桌面AI 自动化工具 办公自动化 开源软件 钉钉飞书 阿...