因为我还没用过。但好像全世界都用过了,好像我被世界抛弃了
别慌,我和我楼下的大叔都没用过,刚才楼下遇见了问了一嘴。
好嘛,现在不用焦虑 Clawdbot,因为现在叫 moltbot 了 ![]()
没用过 +1。AI 界 mcp 的风刚吹完,又掀起 skill 的浪,现在浪还没拍到沙滩上呢,clawdbot 这股泥石流就来了
。按照程序员之间调侃的话来说,AI 界比前端更娱乐圈。
我今天看了几个评测,感觉上
- 在追这些热点的基本都是不懂技术的,至少,我看到的那些播放量高的视频博主,说话用词明显不是技术出身
- 并没有感觉有什么特别创新的,还是对MCP/Skill的延伸。话说这俩其实也是Agent的延伸就是了
- 焦虑确实是一个很好的Clickbait(抱歉,真不知道该怎么翻译),但是,知道它的本质之后,就没啥感觉了
之前CLI特别火的时候(当然,现在也还很火),我用了用,然后放到自己的项目里用了用,发现之前LLM干不了的现在还是干不了。小项目随便是个LLM就能解决。我这种大项目,还是啥也干不了,简单帮我看看代码,做点建议什么的,也就是这样了
就是把mcp和skills做一下预包装,加一个定时触发。给非技术用户的傻白甜版。
那些评测,只要震惊就有流量,现在的各种科技新闻中总会看到许许多多极其流于表面的震惊式报道,而当自己想要实际尝试一下却发现有用的资料非常少。
我甚至没听过,这是个什么东西? ![]()
这个问题是,也不太是。
确实,还是抽卡,所以既然本质没变,能力不太可能产生质的飞跃,最多以前 60 分现在 70 分,说起来也能算及格,但90分的成绩几乎必然是无希望的。
但发展的速度也确实非常快,然后开始用量变企图引发质变,是 70 分没错,但是一方面在保证得到 70 分的前提下速度加快了,另一方面让他进行更多次的验算,这样在本身能力没有太大提升的状况下通过多次的尝试和验算,取得了逼近 80 分的成绩。这是合情合理的。
如果再加上一些外部因素,比如流程中人的适当引导,比如先规划,然后人类审查,再沿着规划前进,努努力,勉强能够算是摸到优秀的门槛边儿了。
目前小项目小脚本用好的模型几乎可以一把梭了,大一点的复杂度高一点的得列提纲引导他分块分功能处理。大型项目没碰过,所以不太了解。但按照目前这些模型上下文的长度让他们彻底了解大型项目的可能性还不太大。
我这些天测试下来发现,模型,工具,参数,项目,操作者,提示词,使用思路……这些都可能给结果带来非常不一样的影响。所以我现在非常努力的在跟进,起码尽量有一些了解,我主要是担心,一旦放松警惕,因为某一句话没听到,然后后面的一切就开始听不懂了。
虽然常常了解下来,最后归纳总结发现和前面的实质上的进步并不大,还是不敢掉以轻心。
我目前,还是用AI做设计,做头脑风暴的更多,或者优化设计文档
思路也特别简单,直接写几个Agent
- 你是一个游戏设计专家,你的职责是……
- 你是一个高级玩家,你的职责是……
- 你是一个工程预算专家,你的职责是……
- 你是一个文档整理专家,你的职责是将以上几篇文档……..
然后,我把我的粗制滥造的原始设计丢给他们,几分钟之后就能拿到一个很完善,很清晰的设计。之后反复来几次,差不多一个下午,就能完成一个中等模块的设计。之前这差不多是一个星期的工作量。
至于代码,我经常是写完了代码丢给AI,让他帮我检查一下,毕竟我自己跑测试,跟AI做审阅,都挺耗时间的,两者还不影响,代码丢给AI,我自己跑测试,等到我发现了问题,AI差不多也能输出完结果,还挺方便的。两者不能相互替代,所以,我觉得还挺好的。
我现在让 AI 写代码,并且让他自己写单元测试,把一切都跑通了,再交给我。我再做一下儿后期的简单测试。
AI给我写的代码,基本都不能用,或者说简单扔到项目里都不行
我目前是让AI写完代码,然后我在它的基础上修改,改完之后,基本上所有的代码都会变化,除了函数名和结尾的花括号……..
我是AI检查和我的手动测试并行,我的经验是,这俩都有盲区,彼此不能替代,所以我是同步进行……主要是AI的检查有点慢,我就顺手跑个测试
