- Published on
Claude Code 使用技巧
- Authors
- Name
- 青雲
引言
Claude Code 作为新一代AI编程助手,为开发者提供了强大的代码生成、调试和优化能力。本文将分享一些实用的使用技巧,帮助你更好地利用这个工具提升开发效率。
安装
nodejs >= 18
npm install -g @anthropic-ai/claude-code
官方
- 如果你已订阅 Claude Pro 或 Max,只需在终端输入
claude
,按提示登录即可。 - 若拥有 Anthropic API 密钥,可通过设置环境变量来配置:
# macOS/Linux
export ANTHROPIC_AUTH_TOKEN=sk-your-api-key
怕封号,可以考虑使用【美国家宽代理】
充值野路子:尼区礼品卡,需要先养号,防止被封
模型厂商兼容
- 开通模型
- qwen3-coder
- kimi-k2
- ... ...
- 获取 api key
- 配置
# 用您的百炼API KEY代替YOUR_DASHSCOPE_API_KEY
echo 'export ANTHROPIC_BASE_URL="https://dashscope.aliyuncs.com/api/v2/apps/claude-code-proxy"' >> ~/.zshrc
echo 'export ANTHROPIC_AUTH_TOKEN="YOUR_DASHSCOPE_API_KEY"' >> ~/.zshrc
source ~/.zshrc
# Linux/macOS 启动高速版 kimi-k2-turbo-preview 模型
export ANTHROPIC_BASE_URL=https://api.moonshot.cn/anthropic
export ANTHROPIC_AUTH_TOKEN=${YOUR_MOONSHOT_API_KEY}
export ANTHROPIC_MODEL=kimi-k2-turbo-preview
export ANTHROPIC_SMALL_FAST_MODEL=kimi-k2-turbo-preview
claude
Claude Code Router
官方账号充值又贵又麻烦怎么办?使用Claude Code Router (CCR) ,能灵活接入和切换多种AI模型。
安装
npm install -g @musistudio/claude-code-router
- 多模型支持:支持接入 OpenRouter、DeepSeek、Ollama(本地模型)、Google Gemini、火山引擎等多家提供的模型。
- 智能任务路由:可以根据任务类型设置路由规则,让CCR自动选择模型:
- default(默认):处理日常通用任务。
- background(后台):处理非实时、低优先级任务,通常选用成本较低或速度较快的模型。
- think(思考):处理需要复杂逻辑和深度推理的任务,调用推理能力更强的模型。
- longContext(长上下文):当输入提示词的 tokens 超过设定阈值(默认60,000)时,触发此路由,调用擅长处理长文本的模型(如 Gemini 2.5 Pro)。
- webSearch(网络搜索):当任务需要联网搜索时,调用具备网络搜索功能的模型(如 Gemini 2.5 Flash)
- 请求/响应转换:不同AI模型的API接口各异,CCR内置的转换器(Transformer) 能自动处理这些差异,确保请求和响应在不同模型之间的兼容性。一些 Transformer 不仅仅是做格式转换,还能增加特定功能。
tooluse
: 为特定模型优化工具调用(function calling)。maxtoken
: 强制设置一个特定的max_tokens
值。reasoning
: 处理模型特有的推理字段(如reasoning_content
)。enhancetool
: 增加工具调用参数的容错性。
配置
通过编辑 ~/.claude-code-router/config.json
文件来完成。
{
"APIKEY": "your-secret-key", // (可选)设置一个全局API密钥来保护CCR服务本身
"PROXY_URL": "http://127.0.0.1:7890", // (可选)设置代理服务器地址,用于网络请求
"LOG": true, // (可选)启用日志记录,日志文件位于 ~/.claude-code-router.log
"HOST": "0.0.0.0", // (可选)服务监听的主机地址
"API_TIMEOUT_MS": 600000, // (可选)API请求超时时间(毫秒)
"NON_INTERACTIVE_MODE": false, // (可选)设置为true以兼容非交互式环境(如CI/CD)
"Providers": [ // 配置模型提供商
{
"name": "openrouter", // 提供商名称(自定义)
"api_base_url": "https://openrouter.ai/api/v1/chat/completions", // 提供商的API端点
"api_key": "sk-your-openrouter-api-key-here", // 该提供商的API密钥
"models": [ // 该提供商下可用的模型列表
"google/gemini-2.5-pro-preview",
"anthropic/claude-3.5-sonnet"
],
"transformer": { // 指定使用的转换器
"use": ["openrouter"] // 使用OpenRouter转换器
}
},
{
"name": "modelscope", // 另一个提供商示例:魔搭社区
"api_base_url": "https://api-inference.modelscope.cn/v1/chat/completions",
"api_key": "your-modelscope-api-key",
"models": [
"Qwen/Qwen3-Coder-480B-A35B-Instruct",
"ZhipuAI/GLM-4.5"
],
"transformer": {
"use": [ ["maxtoken", { "max_tokens": 65536 }] ] // 转换器示例:设置最大token数
}
}
// 可以继续添加其他提供商...
],
"Router": { // 配置路由规则
"default": "openrouter,anthropic/claude-3.5-sonnet", // 默认路由
"background": "openrouter,google/gemini-2.5-flash", // 后台任务路由
"think": "openrouter,anthropic/claude-3.5-sonnet", // 思考任务路由
"longContext": "openrouter,google/gemini-2.5-pro-preview", // 长上下文路由
"longContextThreshold": 60000, // (可选)触发长上下文路由的tokens阈值
"webSearch": "openrouter,google/gemini-2.5-flash" // 网络搜索路由
}
}
火山引擎 + kimi-k2/ DeepSeek-3.1 可照抄下面的配置,即可立即使用
{
"LOG": true,
"LOG_LEVEL": "debug",
"Providers": [
{
"name": "volcengine",
"api_base_url": "https://ark-cn-beijing.bytedance.net/api/v3/chat/completions",
"api_key": "火山引擎上申请的 api-key ",
"models": ["ep-申请的模型接入id"],
"transformer": {
"use": [["maxtoken", { "max_tokens": 100000 }], "openrouter"]
}
},
],
"Router": {
"default": "volcengine,ep-申请的模型接入id"
}
}
如果想使用 claude 、Gemini 等模型,可以通过 openrouter平台,省钱配置如下,可以照抄:
- 日常问题:kimi-k2
- 超长对话或需要联网:使用 OpenRouter 的 Gemini 。
{
"LOG": true,
"LOG_LEVEL": "debug",
"Providers": [
{
"name": "volcengine",
"api_base_url": "https://ark-cn-beijing.bytedance.net/api/v3/chat/completions",
"api_key": "火山引擎上申请的 api-key",
"models": ["ep-申请的模型接入id"],
"transformer": {
"use": [["maxtoken", { "max_tokens": 100000 }], "openrouter"]
}
},
{
"name": "openrouter",
"api_base_url": "https://openrouter.ai/api/v1/chat/completions",
"api_key": "sk-openrouter上申请的 api-key ",
"models": [
"google/gemini-2.5-pro",
"google/gemini-2.5-flash",
"anthropic/claude-sonnet-4",
"anthropic/claude-3.5-sonnet",
"anthropic/claude-3.7-sonnet:thinking"
],
"transformer": {
"use": ["openrouter"]
}
}
],
"Router": {
"default": "volcengine,ep-申请的模型接入id",
"background": "volcengine,ep-申请的模型接入id",
"think": "volcengine,ep-申请的模型接入id",
"longContext": "openrouter,google/gemini-2.5-pro",
"longContextThreshold": 60000,
"webSearch": "openrouter,google/gemini-2.5-flash"
}
}
Web UI配置
CCR 还提供了一个 Web UI 界面,让你可以更直观地添加、修改模型提供商和路由规则,无需手动编辑JSON文件。
ccr ui
在界面中,你可以方便地填写API密钥、选择模型、设置路由规则,保存后需要重启CCR服务使配置生效。
使用
- 终端中使用以下命令启动。
ccr code
- 在弹出的交互界面中,你可以直接输入你的编程问题或指令,CCR 会根据你的配置自动将请求路由到指定的模型.
- 如果遇到问题,可以查看
~/.claude-code-router/claude-code-router.log
日志文件来排查。
其他代理
网上有一些三方号商提供代理服务,可以使用 claude code。但这种有潜在风险,斟酌下再使用。
盲猜应该是买了 max 账号,通过美宽 ip 代理,然后分账号给多人适用。感兴趣的话可以试试用 https://github.com/Wei-Shaw/claude-relay-service 搭一个。
使用技巧
- 项目初始化
对于新项目或希望 Claude 深入了解的现有项目,使用/init
命令。这会生成一个 CLAUDE.md 文件,用于记录项目结构、规范、常用命令等重要信息,作为 Claude 的"项目记忆"。
- 执行系统命令
使用 ! 符号开头可以直接在终端中执行系统命令,而不会消耗 Claude 的 token。
!git status
!npm install
!ls -la
- 工作模式
Claude Code 主要有三种模式,可通过 Shift + Tab
切换:
- Default (默认模式):每次执行操作前会请求用户确认,安全性高。
- Auto-accept (自动接受模式):自动执行文件读写等操作,效率更高。
- Plan (计划模式):先制定详细计划,经你确认后再执行,适合复杂任务。
- 会话管理
- 使用
claude -c
继续上一次的对话 - 使用
claude --resume
或会话内的/resume
命令从所有历史会话中选择一个恢复
- 成本控制
若使用按 token 计费的 API 方式,注意/cost
查看消耗,并通过 @
引用文件、/compact
压缩历史等方式优化 token 使用。
- Git Worktrees 并行处理任务
Git worktrees允许你从同一个仓库检出多个分支到不同的目录中。每个worktree都有独立的工作目录和文件状态,同时共享相同的Git历史记录。这使得你可以同时在不同的分支上工作,而不需要频繁切换分支。
创建 worktree
# 创建新的worktree用于功能开发
git worktree add ../feature-auth feature/authentication
git worktree add ../feature-ui feature/user-interface
git worktree add ../bugfix-db bugfix/database-issue
# 查看所有worktrees
git worktree list
在每个worktree中启动Claude Code
# Terminal 1 - 认证功能开发
cd ../feature-auth
claude-code
# Terminal 2 - UI界面开发
cd ../feature-ui
claude-code
# Terminal 3 - 数据库问题修复
cd ../bugfix-db
claude-code
- Sub Agents
Sub agents是Claude Code中的专门化AI助手,可以被调用来处理特定类型的任务。它们通过提供特定任务配置(包括自定义系统提示、工具和独立的上下文窗口)来实现更高效的问题解决。
- 使用
/agents
创建 - 创建完成后,可以显示调用,例如
@code-reviewer 请审查这个函数的安全性