2026年2月25日 AgenC 开发日志: 截图:AgenC OS 中的 AgenC Grok 代理在沙盒环境中。编写代码、调试、安装所需内容,然后玩它创建的视频游戏。除了最初的任务外,没有任何提示。 提示:"使用 tkinter 在 Python 中创建一个完整的贪吃蛇游戏。游戏应该有一个黑暗主题,发光的霓虹绿色蛇,得分跟踪,以及带有重启的游戏结束屏幕。将其启动在桌面上,以便我可以观看你构建和测试它。" 发布了 4 个 PR,将一个平面的 ReAct 循环转变为一个具有持久记忆、自我学习和可恢复工作流的分层代理系统。 → 语义记忆:基于向量的混合搜索,余弦 0.7 + BM25 0.3,带有近期重新排序,24 小时半衰期,贪婪地打包到 2000 令牌预算中。自动选择 Ollama/Cloud/Noop。零配置。 → 规划 + 压缩:系统提示规划指令,低风险,零执行者更改,80% 的收益。预算压缩而不是硬失败:总结较旧的消息,保留系统 + 摘要 + 最后 5 条,触发钩子以存储摘要,重试。 → 自我学习 + 自动截图:ChatExecutor 从 KV 中读取学习到的模式,置信度 >= 0.7,并按消息注入它们。桌面操作在 300 毫秒后自动捕获屏幕截图,合并到工具结果中,以便视觉 LLM 可以在没有额外回合的情况下看到结果。可选的响应评估者/批评者。 → 进度 + 管道:通过工具:after 钩子持久的进度条目在守护进程重启后仍然存在。PipelineExecutor 具有检查点/恢复、审批门和每步错误策略,放弃/跳过/重试。完全可序列化的检查点。 → 桌面查看器:聊天中嵌入的 noVNC 面板。当沙盒准备就绪时自动打开。分割布局,标题中有监视器切换。仅查看,具有自动连接、缩放调整和剪贴板权限。 统一模式:MemoryRetriever 接口,共享 KV 后端,基于钩子的副作用。每一层都可以独立切换。