龙虾(openclaw)又红温了

心情随笔 · 今天 · 196 人浏览

AI摘要

博主使用openclaw进行网站爬取时,发现其消耗大量模型token,导致记忆丢失。阿里新推出的coding plan基础套餐解决了这一问题,提供18000次模型调用,支持多种模型。但博主在使用过程中发现,openclaw在处理复杂任务时容易红温,让人对其可靠性产生怀疑。

此内容根据文章生成,不代表个人观点,仅用于文章内容的解释与总结

使用openclaw有几天了,对于博主得使用感言,就两个字:红温

前两天想试试通过openclaw爬取一个网站,因为涉及的内容比较多。所以阿里赠送的一百万模型token基本上两三轮对话就用光了。一旦更换模型,记忆丢失。又得重新来?这特么不是胡闹么。索性,心一横不再用阿里的免费token额度。openclaw是个吃token大户。而且是随着对话的增多,token是成倍增加的。有没有什么不按token计量而按对话次数计量的就好了。

然后就发现阿里新出了一个专门针对这种的活动。

就是下面的coding plan,基础套餐首月只需要7.9,不计token,一个月18000次模型调用。用来测试训练openclaw简直就是雪中送炭般的存在。

支持千问系列模型 Qwen3.5-Plus、Qwen3-Max、Qwen3-Coder-Next、Qwen3-Coder-Plus 和第三方模型 MiniMax M2.5、GLM-5、Kimi-k2.5、GLM-4.7 等

1772433219413705.png


现在可以肆无忌惮的使用openclaw了,不过新的问题也随之而来。一旦涉及复杂的任务。如网页检索,信息量比较大的时候。这只龙虾动不动就红温。博主以为它在我背后默默努力工作着,结果一看发现红温了。至于其他的openclaw应用方法,博主一时之间也没想到用到干什么。

今天又收到百度云的短信提醒,试用服务器还有七天就要到期了。且用且珍惜。

龙虾啊龙虾,你说我是继续找个“锅”养着你呢,还是连锅带虾一起“清蒸”算了。毕竟,你这容易红温的特性让人觉得不可靠啊。



AI
验证码:
Theme: Jasmine | RSS订阅 | 网站地图