常见问题
查看畅算粒使用建议与技能训练技巧等常见问题。
为便于培训与现场答疑,FAQ 按“安装登录、消耗控制、技能训练”三类整理。建议先按问题类型定位,再查看对应处理步骤。
安装与登录
Q1:mac 安装报错 Read-only file system 怎么处理?
如果出现 write openclaw shim: Read-only file system (os error 30),通常是因为应用仍在 dmg 镜像中运行,目录不可写。
按以下步骤处理:
- 退出当前客户端。
- 打开
CClaw.dmg,将 CClaw 拖入 应用程序(Applications)。 - 从 应用程序 中重新启动 CClaw(不要从镜像窗口启动)。

Q2:系统权限为什么建议“全给”?
安装后首次使用,建议将与 CClaw 相关权限全部允许,常见包括:
- 文件与文件夹访问权限
- 辅助功能权限
- 自动化权限(系统弹窗提示时)
权限不足常见现象:
- 能看到功能但执行失败
- 工具调用中断或返回异常
- 自动化动作无法完成
遇到上述问题时,先完成权限授权,再重试同一任务。
Q3:畅捷通账号登录后,企业应该怎么选?
推荐路径:通过畅捷通账号登录 -> 企业加入 -> 企业管理。
按培训口径,优先规则如下:
- 先选你当前在管的企业。
- 在企业管理列表里,没有“退出”按钮的企业,通常是你当前应选企业。
- 显示“退出”的企业,通常表示你是成员身份加入,不作为默认扣减主体(按实际业务规则确认)。
如果误选了企业,可能出现身份识别与资源扣减主体不一致。此时请退出登录并重新进入企业选择页完成重选。
如何更省畅算粒
Q1:模型怎么选更省?
- 千问模型:默认开启思考模式,支持更长上下文。适合长周期持续对话、持续调优的场景。
- GLM 模型:上下文相对更短,多轮后更易出现注意力衰减,但在复杂推理任务中常有优势,适合 ERP 复杂逻辑场景。
Q2:日常怎么控消耗?
- 长链路任务优先选择长上下文模型,规则推理任务优先测试推理强模型。
- 对话过长时,定期开新会话,并用“阶段摘要”承接上下文。
- 提问尽量结构化(目标、输入、约束、输出),减少反复追问。
- 上传文件遵循“先小后大”,先小样本验证,再放量执行。
- 增加输出长度约束(如“控制在 200 字内”),避免无效长回复。
Q3:为什么对话轮次越多,消耗越高?
大模型每轮请求通常会携带部分历史上下文。轮次越多,单次请求包含的信息越多,输入和输出总量都可能上升,因此畅算粒消耗会逐步增加。
实操建议:当任务进入新阶段时,先让 CClaw 总结关键结论,再开新会话继续执行。
如何训练 Skill
Q1:任务执行失败时,如何让 CClaw 自查自纠?
如果某个任务执行失败,不要只停留在“结果不对”,而是继续通过对话引导它分析:
- 失败发生在哪一步?
- 是数据输入问题、工具调用问题,还是指令约束不够明确?
- 如果重新执行,应该调整哪些前提条件?
这种做法的价值是:
- 先把失败原因显性化。
- 再针对原因优化提示词、技能文档或操作流程。
- 让后续同类任务更稳定。

Q2:如何把成功经验沉淀为稳定约束?
- 把高频成功步骤写进技能说明里。
- 明确输入格式、输出结构和禁止项。
- 对容易出错的环节增加检查步骤。