唉,应该不会呀,它是立刻打断处理新的任务。你能否成功提交上去了,还是卡在了输入提交上。可以在 github issues 上反馈一下具体情况
看你这个提示 好像是 LLM 让它停下来了,没继续了。我建议你用最新的模型 比如 Qwen3.6 系列。过低的版本 Agent 能力不够。
没问题,我们后面更新一个。

对比二:

同样 3 个任务,他们花了 30 美金,我们 5 美金。我们完成一个顶级 Agent 模向对比,到底离 ClaudeCode 顶级 Harness 还有多远,大家可以看看:https://www.openclacky.com/benchmark
感谢反馈支持~ deepseek 那是地板价
有 Ruby 的话直接 gem install openclacky 即可。
https://github.com/clacky-ai/rails-template-7x-starter
可以在这个项目上开新项目,效果很棒。
谢谢明圆
国内再做个加速
最简的方案是去布署到 railway 上面。
我推荐这个看看:https://github.com/marcoroth/bubbletea-ruby
博客:https://marcoroth.dev/posts/glamorous-christmas
但我研究完,发现还是 vibe 自己的更好
Rails 官网的资料是最好的,结合项目深入看看。https://rubyonrails.org/docs
找腾讯云反馈~
支持 1-N 持续迭代。Clacky 可以理解是一个 AI 工程师,持续帮你优化和改进需求。
APP 生成能力近期刚上线,处于 beta 状态。标准的接口调用,路由,页面都比较顺利。
如果有前端业务需要,它会用 stimulus + turbostream 来实现,效果很出色
做了不少实验,整体原则是简单第一,可验证第二。早期用过 railsujs + js 组件化也工作的还行,目前结论是一套精简过的 turbo 架构。
每个 LLM 调用都要占一个完整的 Thread,一般来说要有十多秒,甚至 2 分钟。Rails + puma 最佳配置是 5 个 Thread。那并发能力可想而知。Asyncjob 也不推荐开太多 Thread。这种并发模型能力有限。
用 asyncjob 也不会太好
SSE 的话那更差了
这句话是说可以在生产直接取代 Nginx+Passenger 组合,只用 falcon 就可以。我们最近也在研究这个技术栈。Async 对于 Ruby 做 LLM 开发是刚需,不然并发能力只有几个就太难受了。
辛苦维护
好文,排版有点乱
AI 时代说不定是一个很好的思路,让 AI 来写代码
Rails 在快速推出产品能力方面是无敌的
支持~
非常好的想法,最近我一直在用 AI Coding 写 Rails 代码,感受极好,我录过一个视频可以看下:https://www.bilibili.com/video/BV1rufJYyEsR
确实很多相似点,结构化的 task 和步骤分析都有点一样。不同之处是 clacky 是 CDE 架构,Traycer 是 IDE 插件。
感谢分享,我去看看。