AI技能商店为何遇冷内容平台如何成为新货架
2026-04-16 15:18:38 - 佚名
当OpenClaw的官方技能商店ClawHub里Skills数量突破5万个,当腾讯、字节、阿里等大厂纷纷推出自己的Skill商店时,人们曾期待一场继AppStore之后的“分发革命”。但现实却有些尴尬:这些官方商店的使用率并不高,平台上充斥着大量重复、低质量的技能页面。反倒是过去两个月里,微信公众号和小红书成了用户发现和传播Skills的主要渠道。

越来越多的人不再习惯去“商店”里搜索,而是转向在社交平台上“刷”内容来寻找好用的Skills。很多时候,一个Skill能火起来,靠的是一篇公众号文章、一条小红书的“工具推荐”。换句话说,一个本该由“应用商店”承载的分发体系,如今却被内容平台接管了。
内容平台为何能接住这波流量?
复盘一个Skill的走红路径,你会发现它们往往不是“被搜索”出来的,而是“被种草”的。典型的场景是:一位博主在公众号写了篇《我用这个AI工具,把一周工作压缩到一天》,或者在小红书发了篇《这5个AI工具让我效率翻倍》的笔记。这些内容被大量收藏、点赞和转发后,用户才会去安装相应的Skills。
这背后有几个关键原因。传统App商店按“工具类型”分类,但Skills的真实入口是“具体问题”,比如“怎么写方案”、“如何做汇报”。这些需求高度个性化且模糊,很难通过搜索和分类来精准匹配。
用户也不再关心App的界面是否美观,只关心Skill输出的结果好不好。一个Skill能否传播,取决于它能否给出“肉眼可见的结果”,比如“一键生成10条爆款标题”。这些成果天然适合在内容平台展示,而传统应用商店很难直观体现其价值。
在AppStore时代,用户信任平台的下载量、评分和排名。但在Skills时代,由于Skills的工作机制像个“黑箱”,用户更愿意相信KOL的推荐、创作者的真实体验。这三点叠加起来,使得Skills的分发更像是一种内容消费,而非软件分发。
Skills的未来,卡在“评估体系”
随着越来越多的专业人士将自己的工作经验和方法论提炼成一个个Skill,一个更大的挑战浮现出来:这些Skills该如何被评估和交易?
AppStore的成功,在于它建立了明确的反馈机制,形成了一个可执行的市场。但Skills市场却缺乏这种“质量标准”。App的功能大多是确定性的,可以直接比较。但Skills的结果往往是开放性的,文案有没有“感觉”、分析有没有“洞见”,都高度主观。
一个Skill在某个场景下表现很好,换个场景可能就失效了。比如对中文优化好,英文就一般;熟悉某个行业数据,换个行业就不行。而且一个Skill调用什么模型、完成任务消耗多少Token,目前都很难衡量。这些问题导致官方商店的评分机制失灵,低质量Skill泛滥,优质技能却难以被发现。
一个成功的交易至少要满足:能被理解、能被信任、能被比较。公众号和小红书解决了前两个问题,但第三个问题——让Skills被比较、被定价的评估体系——仍然空白。
如何评估Skills?
由于评估体系尚属空白,我们可以推演几个可能的方向。一个Skill的好坏,不在于简单的评分,而在于它在什么任务上表现好,在什么任务上表现差。这更接近一个多维的“能力图谱”。
在AI时代,成本是App时代无需考虑的变量。同样完成任务,A Skill消耗500个Token,B Skill消耗5000个,这在大规模使用时差异巨大。因此,未来的评估必须同时考虑成功率、成本和延迟。
随着Skills开始接入邮件、文件、支付等真实世界能力,风险会迅速放大。未来可能需要“第三方评测机构”来评估Skills的数据使用方式,检测潜在的安全风险。
当然,也有一种观点认为,“Skill商店”可能只是“中间态”。未来,个人数据可以通过后训练的方式,直接内化到专属的端侧模型中,模型在理解用户、调用记忆和执行技能上都会有质的提升。
无论未来走向何方,如今的内容创作者通过亲身体验和验证,弥补了市场机制的缺位,用内容制造了“信任”。而如何评估Skills,并由此通向未来的生产力重构,仍是一个值得探讨的开放式问题。