Published on

Claude Code 使用技巧

Authors
  • avatar
    Name
    青雲
    Twitter

引言

Claude Code 作为新一代AI编程助手,为开发者提供了强大的代码生成、调试和优化能力。本文将分享一些实用的使用技巧,帮助你更好地利用这个工具提升开发效率。

安装

nodejs >= 18

npm install -g @anthropic-ai/claude-code

官方

  • 如果你已订阅 Claude Pro 或 Max,只需在终端输入 claude,按提示登录即可。
  • 若拥有 Anthropic API 密钥,可通过设置环境变量来配置:
# macOS/Linux
export ANTHROPIC_AUTH_TOKEN=sk-your-api-key

怕封号,可以考虑使用【美国家宽代理】

充值野路子:尼区礼品卡,需要先养号,防止被封

模型厂商兼容

  1. 开通模型
    1. qwen3-coder
    2. kimi-k2
    3. ... ...
  2. 获取 api key
  3. 配置
# 用您的百炼API KEY代替YOUR_DASHSCOPE_API_KEY
echo 'export ANTHROPIC_BASE_URL="https://dashscope.aliyuncs.com/api/v2/apps/claude-code-proxy"' >> ~/.zshrc
echo 'export ANTHROPIC_AUTH_TOKEN="YOUR_DASHSCOPE_API_KEY"' >> ~/.zshrc
source ~/.zshrc

# Linux/macOS 启动高速版 kimi-k2-turbo-preview 模型
export ANTHROPIC_BASE_URL=https://api.moonshot.cn/anthropic
export ANTHROPIC_AUTH_TOKEN=${YOUR_MOONSHOT_API_KEY}
export ANTHROPIC_MODEL=kimi-k2-turbo-preview
export ANTHROPIC_SMALL_FAST_MODEL=kimi-k2-turbo-preview
claude

Claude Code Router

官方账号充值又贵又麻烦怎么办?使用Claude Code Router (CCR) ,能灵活接入和切换多种AI模型。

安装

npm install -g @musistudio/claude-code-router
  • 多模型支持:支持接入 OpenRouter、DeepSeek、Ollama(本地模型)、Google Gemini、火山引擎等多家提供的模型。
  • 智能任务路由:可以根据任务类型设置路由规则,让CCR自动选择模型:
    • default(默认):处理日常通用任务。
    • background(后台):处理非实时、低优先级任务,通常选用成本较低或速度较快的模型。
    • think(思考):处理需要复杂逻辑和深度推理的任务,调用推理能力更强的模型。
    • longContext(长上下文):当输入提示词的 tokens 超过设定阈值(默认60,000)时,触发此路由,调用擅长处理长文本的模型(如 Gemini 2.5 Pro)。
    • webSearch(网络搜索):当任务需要联网搜索时,调用具备网络搜索功能的模型(如 Gemini 2.5 Flash)
  • 请求/响应转换:不同AI模型的API接口各异,CCR内置的转换器(Transformer) 能自动处理这些差异,确保请求和响应在不同模型之间的兼容性。一些 Transformer 不仅仅是做格式转换,还能增加特定功能。
    • tooluse: 为特定模型优化工具调用(function calling)。
    • maxtoken: 强制设置一个特定的 max_tokens 值。
    • reasoning: 处理模型特有的推理字段(如 reasoning_content)。
    • enhancetool: 增加工具调用参数的容错性。

配置

通过编辑 ~/.claude-code-router/config.json 文件来完成。

{
  "APIKEY": "your-secret-key", // (可选)设置一个全局API密钥来保护CCR服务本身
  "PROXY_URL": "http://127.0.0.1:7890", // (可选)设置代理服务器地址,用于网络请求
  "LOG": true, // (可选)启用日志记录,日志文件位于 ~/.claude-code-router.log
  "HOST": "0.0.0.0", // (可选)服务监听的主机地址
  "API_TIMEOUT_MS": 600000, // (可选)API请求超时时间(毫秒)
  "NON_INTERACTIVE_MODE": false, // (可选)设置为true以兼容非交互式环境(如CI/CD)
  "Providers": [ // 配置模型提供商
    {
      "name": "openrouter", // 提供商名称(自定义)
      "api_base_url": "https://openrouter.ai/api/v1/chat/completions", // 提供商的API端点
      "api_key": "sk-your-openrouter-api-key-here", // 该提供商的API密钥
      "models": [ // 该提供商下可用的模型列表
        "google/gemini-2.5-pro-preview",
        "anthropic/claude-3.5-sonnet"
      ],
      "transformer": { // 指定使用的转换器
        "use": ["openrouter"] // 使用OpenRouter转换器
      }
    },
    {
      "name": "modelscope", // 另一个提供商示例:魔搭社区
      "api_base_url": "https://api-inference.modelscope.cn/v1/chat/completions",
      "api_key": "your-modelscope-api-key",
      "models": [
        "Qwen/Qwen3-Coder-480B-A35B-Instruct",
        "ZhipuAI/GLM-4.5"
      ],
      "transformer": {
        "use": [ ["maxtoken", { "max_tokens": 65536 }] ] // 转换器示例:设置最大token数
      }
    }
    // 可以继续添加其他提供商...
  ],
  "Router": { // 配置路由规则
    "default": "openrouter,anthropic/claude-3.5-sonnet", // 默认路由
    "background": "openrouter,google/gemini-2.5-flash", // 后台任务路由
    "think": "openrouter,anthropic/claude-3.5-sonnet", // 思考任务路由
    "longContext": "openrouter,google/gemini-2.5-pro-preview", // 长上下文路由
    "longContextThreshold": 60000, // (可选)触发长上下文路由的tokens阈值
    "webSearch": "openrouter,google/gemini-2.5-flash" // 网络搜索路由
  }
}

火山引擎 + kimi-k2/ DeepSeek-3.1 可照抄下面的配置,即可立即使用

{
  "LOG": true,
  "LOG_LEVEL": "debug",
  "Providers": [
    {
      "name": "volcengine",
      "api_base_url": "https://ark-cn-beijing.bytedance.net/api/v3/chat/completions",
      "api_key": "火山引擎上申请的 api-key ",
      "models": ["ep-申请的模型接入id"],
      "transformer": {
        "use": [["maxtoken", { "max_tokens": 100000 }], "openrouter"]
      }
    },
  ],
  "Router": {
    "default": "volcengine,ep-申请的模型接入id"
  }
}

如果想使用 claude 、Gemini 等模型,可以通过 openrouter平台,省钱配置如下,可以照抄:

  • 日常问题:kimi-k2
  • 超长对话或需要联网:使用 OpenRouter 的 Gemini 。
{
  "LOG": true,
  "LOG_LEVEL": "debug",
  "Providers": [
    {
      "name": "volcengine",
      "api_base_url": "https://ark-cn-beijing.bytedance.net/api/v3/chat/completions",
      "api_key": "火山引擎上申请的 api-key",
      "models": ["ep-申请的模型接入id"],
      "transformer": {
        "use": [["maxtoken", { "max_tokens": 100000 }], "openrouter"]
      }
    },
    {
      "name": "openrouter",
      "api_base_url": "https://openrouter.ai/api/v1/chat/completions",
      "api_key": "sk-openrouter上申请的 api-key ",
      "models": [
        "google/gemini-2.5-pro",
        "google/gemini-2.5-flash",
        "anthropic/claude-sonnet-4",
        "anthropic/claude-3.5-sonnet",
        "anthropic/claude-3.7-sonnet:thinking"
      ],
      "transformer": {
        "use": ["openrouter"]
      }
    }
  ],
  "Router": {
    "default": "volcengine,ep-申请的模型接入id",
    "background": "volcengine,ep-申请的模型接入id",
    "think": "volcengine,ep-申请的模型接入id",
    "longContext": "openrouter,google/gemini-2.5-pro",
    "longContextThreshold": 60000,
    "webSearch": "openrouter,google/gemini-2.5-flash"
  }
}

Web UI配置

CCR 还提供了一个 Web UI 界面,让你可以更直观地添加、修改模型提供商和路由规则,无需手动编辑JSON文件。

ccr ui

在界面中,你可以方便地填写API密钥、选择模型、设置路由规则,保存后需要重启CCR服务使配置生效。

使用

  1. 终端中使用以下命令启动。
ccr code
  1. 在弹出的交互界面中,你可以直接输入你的编程问题或指令,CCR 会根据你的配置自动将请求路由到指定的模型.

  1. 如果遇到问题,可以查看~/.claude-code-router/claude-code-router.log日志文件来排查。

其他代理

网上有一些三方号商提供代理服务,可以使用 claude code。但这种有潜在风险,斟酌下再使用。

盲猜应该是买了 max 账号,通过美宽 ip 代理,然后分账号给多人适用。感兴趣的话可以试试用 https://github.com/Wei-Shaw/claude-relay-service 搭一个。

使用技巧

  1. 项目初始化

对于新项目或希望 Claude 深入了解的现有项目,使用/init命令。这会生成一个 CLAUDE.md 文件,用于记录项目结构、规范、常用命令等重要信息,作为 Claude 的"项目记忆"。

  1. 执行系统命令

使用 ! 符号开头可以直接在终端中执行系统命令,而不会消耗 Claude 的 token。

!git status
!npm install
!ls -la
  1. 工作模式

Claude Code 主要有三种模式,可通过 Shift + Tab 切换:

  • Default (默认模式):每次执行操作前会请求用户确认,安全性高。
  • Auto-accept (自动接受模式):自动执行文件读写等操作,效率更高。
  • Plan (计划模式):先制定详细计划,经你确认后再执行,适合复杂任务。
  1. 会话管理
  • 使用 claude -c 继续上一次的对话
  • 使用 claude --resume 或会话内的 /resume 命令从所有历史会话中选择一个恢复
  1. 成本控制

若使用按 token 计费的 API 方式,注意/cost 查看消耗,并通过 @ 引用文件、/compact 压缩历史等方式优化 token 使用。

  1. Git Worktrees 并行处理任务

Git worktrees允许你从同一个仓库检出多个分支到不同的目录中。每个worktree都有独立的工作目录和文件状态,同时共享相同的Git历史记录。这使得你可以同时在不同的分支上工作,而不需要频繁切换分支。

创建 worktree

# 创建新的worktree用于功能开发
git worktree add ../feature-auth feature/authentication
git worktree add ../feature-ui feature/user-interface  
git worktree add ../bugfix-db bugfix/database-issue

# 查看所有worktrees
git worktree list

在每个worktree中启动Claude Code

# Terminal 1 - 认证功能开发
cd ../feature-auth
claude-code

# Terminal 2 - UI界面开发  
cd ../feature-ui
claude-code

# Terminal 3 - 数据库问题修复
cd ../bugfix-db
claude-code
  1. Sub Agents

Sub agents是Claude Code中的专门化AI助手,可以被调用来处理特定类型的任务。它们通过提供特定任务配置(包括自定义系统提示、工具和独立的上下文窗口)来实现更高效的问题解决。

  • 使用 /agents 创建
  • 创建完成后,可以显示调用,例如 @code-reviewer 请审查这个函数的安全性