Skip to content

opencode-dynamic-context-pruning
智能 Token 优化插件

OpenCode 插件,通过智能移除对话历史中的冗余工具调用,自动降低 Token 使用量。支持自动去重、覆盖写入检测、错误清理三种策略,以及 AI 驱动的 discard/extract 工具,让模型自主决策何时清理上下文。

为什么选择 DCP?

在长对话中节省大量 Token,降低 LLM 使用成本,提高模型响应质量。

自动去重策略

检测相同工具名和参数的调用,自动保留最新一次,无需手动干预。

覆盖写入检测

跟踪文件的写操作和读操作时间顺序,自动清理已被后续读取覆盖的写操作。

错误清理策略

自动修剪超过指定回合数的错误工具输入,保留错误消息便于调试。

AI 驱动修剪

提供 discard 和 extract 工具,让 AI 自主决策何时清理上下文,实现语义级优化。

透明可控

通过 /dcp 命令查看 Token 使用情况、累计统计,支持手动触发修剪。

状态持久化

跨会话保留修剪状态和统计数据,长期追踪 Token 节省效果。