拆掉三座大山,智谱澳龙重新定义“养虾”
来源:观察者网
2026-03-10 17:43
(文/陈济深 编辑/张广凯)
最近,一个叫OpenClaw(开源龙虾)的AI开源项目,火到了荒诞的程度。
这个能自动接管你的电脑替你干活的工具,在美国出现了6000美元上门安装的报价;在国内社交平台上,"500块代装OpenClaw"成了热门服务,更有人声称靠这门生意几天净赚26万;而就在上周,近千人在腾讯大厦门口排起长队,只为让腾讯工程师免费帮忙安装龙虾。
但OpenClaw的爆火,到目前为止真正普惠的不是普通用户,而是卖教程、卖代装、卖焦虑的人。
装不上、养不起、用不好,三座大山之下,绝大多数人连试一试的资格都没有。而那些好不容易装上的用户,还需要自己找Skill、配接口、调工具链,才能让这只龙虾真正跑起来。
3月10日,智谱上线AutoClaw(中文名"澳龙"),一刀切进这三座大山。
当模型厂商亲自下场帮你养虾,用户拿到手的就不只是一个安装包——一键装好只是起手式,免费模型让你零成本试错,内置的专属Agent模型和浏览器接管能力,让这只龙虾装上之后真的能干活。
如果说过去的"养虾"是极客用户折腾环境、拼配置、踩坑调模型的一场手工活,澳龙则想把它变成每个人都可以一键上手的工作伙伴。
装得上:把部署门槛压成一个按钮
OpenClaw最初是做给程序员群体的产品。它的整套部署流程:安装特定版本的Node.js、打开终端敲命令行、配置安全加固、逐一去模型厂商申请API Key——对开发者来说是日常操作。
但这套流程默认了程序员的思维方式和工具习惯。一个版本冲突、一个端口占用、一个权限不够,对于小白用户都是天堑。
尽管随着项目的爆火和社区的发展,安装流程在不断简化,网上的万字保姆级教程也越来越多。但这恰恰暴露了问题的本质:为了用一个工具,你得先学会怎么安装这个工具——光是这一步,就足以劝退绝大多数普通人。不是他们没有需求,而是没人愿意为了试一试,先去啃一份命令行教程。
智谱澳龙则将这一切打包成了大家熟悉的桌面应用。用户从官网下载安装包,双击安装,登录账号,即可进入主界面。Mac和Windows均支持,全程不需要接触命令行、不需要配置环境、不需要申请API Key,一站式傻瓜操作。
不只是安装本身,智谱澳龙也针对普通用户的使用流程做了优化。以飞书接入为例,原生OpenClaw要对接飞书,用户需要登录飞书开放平台、创建企业自建应用、开通机器人、配置事件订阅、获取App ID和Secret、填配置文件、启动服务、调试Webhook——光看这个流程清单,大多数人就已经关掉浏览器了。
澳龙将这套操作压缩为一个按钮:点击"开始自动配置",系统通过RPA自动完成全部流程。
观察者网亲测发现,在没有任何开发和配置经验的前提下,澳龙的飞书自动配置全程无需人工干预,用时甚至不到一分钟,便能直接打通双端对话。
养得起:把试错成本降到零
装上了只是第一步,横在用户面前的第二道坎是钱。
原生OpenClaw的运行成本是一个被大幅低估的门槛。有用户测算,单次复杂任务的token消耗可达8万,按主流模型定价折算,一天的使用成本约20美元。
尽管国产云厂商纷纷通过Coding Plan将体验门槛压到了个位数量级,但对很多普通用户来说,真正的顾虑不是"贵不贵",而是"我还不知道这东西对我有没有用,就要先掏钱"。
无论是自己租服务器跑还是包月订阅Coding Plan,前置付费都是一道心理门槛——不是产品不好,而是用户还没到做购买决策的阶段。
智谱澳龙的做法是把这个前置门槛大幅压低。产品提供免费体验额度,用户注册即可零成本跑起第一个任务,不需要预付任何费用。先用起来、摸清边界,再决定是否继续。
同时,澳龙完全开放模型接入,支持通过API Key接入DeepSeek、Kimi、MiniMax等模型。当然,多模型接入在如今的各类方案中已不算稀奇,各家Coding Plan基本都做到了这一点。
真正让澳龙拉开差距的,是它内置了智谱自研的Agent专属模型Pony-Alpha-2。
用得好:不是优化,而是替换
门槛降了,成本兜住了,但最难的问题还在后面——这只龙虾,真的能稳定干活吗?
部署门槛挡住的是第一批用户,试错成本挡住的是想要尝鲜的用户,而真实可用性问题赶走的是所有留下来的用户。
原生OpenClaw面临两个核心能力短板。其一,通用大模型在对话场景中表现出色,但在Agent场景下需要连续规划任务、多步执行、反复调用工具时,容易出现中途崩溃、幻觉和"掉链子"的情况。聊天能力强不等于执行任务能力强,这是两种不同的能力要求。
其二,OpenClaw原生的浏览器能力较为基础,只能应对简单的网页点击操作,面对多步骤、跨页面的复杂浏览器任务时频繁翻车。
AutoClaw在这两个节点上的应对方式不是"优化",而是"替换"。
模型层面,Pony-Alpha-2正是为解决第一个短板而生。不同于拿通用聊天模型直接跑Agent任务,Pony-Alpha-2是智谱围绕OpenClaw的任务执行场景定向优化的专属模型。
实测发现,相比各大厂商的最新通用模型,Pony-Alpha-2在工具调用稳定性、多步推理连贯性和响应速度上都做了针对性提升,更适合Skill调用、定时任务、持续执行等真实工作流。
观察者网用澳龙生成的一图流简介
观察者网获悉,Pony这个命名延续了GLM-5正式发布前测试版本的代号,此前Pony Alpha在OpenRouter的匿名盲测中曾引发AI圈广泛关注,最终揭晓为智谱出品。换句话说,这不是一个为了降本而减配的轻量模型,而是智谱拿旗舰级能力专门为Agent工作流打造的产品。
浏览器操控层面,澳龙以智谱自研的AutoGLM-Browser-Agent替换了原生浏览器调用方案。这套方案能够在用户的默认浏览器中执行任务,结合日常已保留的登录状态,完成多步骤、跨页面的浏览器操作链路,直接补上了原生方案在复杂场景下稳定性不足的短板。
此外,澳龙还预置了60余个Skill,覆盖内容创作、飞书办公、代码开发、营销增长、金融投研等场景,开箱即用,无需用户单独配置搜索API、生图API等各类接口。
以金融投研为例,用户可以设定一个定时任务,让龙虾每天开盘前自动抓取隔夜美股走势、早盘A股量能数据、关注个股的实时行情与异动信息,整理成一份结构化的简报,定时推送到飞书。整个流程从信息抓取、数据整理到格式化输出、消息推送,全部由Agent自主完成,不需要用户在中间环节做任何干预。不再是你问一句它答一句,而是你定好需求,它自己把活干完。
当模型厂商开始做应用
拆掉三座大山只是澳龙的表层叙事。真正值得拆解的,是它背后展示出的一种竞争逻辑:模型厂商做Agent应用时,天然拥有纯应用层玩家不具备的结构性优势。
目前市面上围绕OpenClaw的方案不少——有的走云端托管,帮用户省去部署;有的走本地简化,降低安装门槛。但在底层能力上,大多数方案仍然完全依赖开源社区。多模型接入、Skill市场、IM对接——这些功能层面的事情,任何有工程能力的团队都可以做,护城河有限。
模型厂商自己下场,竞争维度就不同了。前面拆的三座大山里,澳龙在每个节点上的应对方式都有一个共同特征:不是在开源方案上面做加法,而是用自研能力直接替换掉最薄弱的环节。专属模型替换通用模型,自研浏览器引擎替换原生方案,自有技术栈替换社区Skill——这套打法的前提是你自己手里得有模型、有能力、有技术栈,纯应用层的团队做不到。通过澳龙这个产品实现从模型到能力到应用的垂直整合——而这种纵向打通的能力,恰恰是模型厂商的天然优势。
澳龙把AI智能体的门槛从"会不会部署"降到了"值不值得继续用"。这不只是一个产品层面的变化——围绕OpenClaw的竞争,正在从"谁先帮用户装上"转向"谁能让Agent真正稳定干活"。
深圳已经出台"龙虾十条",最高给出千万级股权投资支持;无锡紧跟发布12条补贴措施,真金白银押注Agent赛道。从地方政府的政策押注到模型厂商的产品落地,所有人都在赌同一件事:Agent不会停留在极客的玩具阶段。
至于那门500块代装龙虾的生意和教你装龙虾的万字教程,也已经完成了它们的历史使命。当安装不再是门槛,真正比拼谁的龙虾能替人干活的硬仗,才刚刚开始。