
说实话,大部分人用 AI 编程助手的方式,和用 ChatGPT 问问题没什么两样。
你丢一段需求过去,它吐一段代码回来。看起来省事了,但写着写着你会发现:AI 不会质疑你的想法靠不靠谱,也不会提醒你架构可能有坑,更不会主动说”让我先测一下再发布”。
结果是:代码越写越多,bug 越修越烦。
gstack 想解决的就是这个问题。
它不只是提示词
gstack 是 YC 总裁 Garry Tan 开源的一套 Claude Code 技能。刚开始我也以为就是一堆 prompt 模板,用了一段时间后发现它更像是一个工作流程框架。
核心想法很简单:让 AI 学会分角色干活。
在 gstack 里,Claude Code 不再是那个”什么都知道一点”的通用助手,而是可以切换身份的虚拟团队成员。想质疑需求?切到 CEO 模式。要过架构方案?叫工程经理出来。设计稿看起来怪怪的?让设计师角色看看。准备发布了?QA 和发布工程师上场。
每个角色有自己的指令集,用斜杠命令就能召唤。
从想法到上线的完整链路

gstack 把整个开发流程拆成了几个阶段,完整技能清单:
想明白阶段
/office-hours—— 产品顾问模式,用六个问题逼你重新审视需求/plan-ceo-review—— 从商业角度挑刺,看能不能找到更好的切入点/autoplan—— 一键运行 CEO → 设计 → 工程评审,自动生成完整方案
规划阶段
/plan-eng-review—— 出架构图、数据流、测试策略/plan-design-review—— 检查设计稿,找出 AI 生成的”slop”(那种看着还行但经不起推敲的设计)/design-consultation—— 从零构建完整设计系统,研究生成产品原型
写代码阶段
/review—— 资深工程师模式,自动修简单 bug,复杂问题问你/investigate—— 遇到疑难杂症时系统排查根因/codex—— 第二意见,用 OpenAI Codex CLI 做独立代码审查(支持对抗性挑战、咨询模式)/design-review—— 设计师+工程师双重审计,自动修复问题
测试阶段
/qa—— 开真浏览器点来点去,端到端测试,自动修 bug/qa-only—— 纯测试报告模式,只报告不修改代码/cso—— 安全审查,跑 OWASP 和 STRIDE 威胁模型/benchmark—— 性能基线测试,监控 Core Web Vitals
发布阶段
/ship—— 同步主分支、跑测试、开 PR/land-and-deploy—— 合并代码、部署、验证线上状态/canary—— 灰度监控,检查控制台错误和性能回退/document-release—— 自动更新项目文档,同步最新改动
安全与协作
/careful—— 危险操作预警(rm -rf、DROP TABLE、force-push 等)/freeze—— 锁定编辑范围,防止越界修改/guard——/careful+/freeze双重保险/unfreeze—— 解除编辑锁定/retro—— 周回顾,统计代码量、测试健康度、成长机会(支持多项目全局回顾)
工具配置
/browse—— 真实 Chromium 浏览器操作(~100ms/命令)/setup-browser-cookies—— 导入真实浏览器 cookie,测试登录态页面/setup-deploy—— 部署配置向导,一次性设置/land-and-deploy/gstack-upgrade—— 自检更新到最新版本
这些技能不是孤立的,前一个的输出会自动传给后一个,串成一条线。
作者的真实体验:一天能搞多少事?
Garry Tan 自己说他是这套系统的重度用户。他公开的数据挺夸张:
过去 60 天,写了 60 多万行生产代码(其中 35% 是测试),平均每天 1-2 万行,而且是在兼职的情况下。
数字听起来像吹牛,但我理解背后的逻辑。当你能同时调动多个”专业角色”并行工作,效率确实不是加法而是乘法。
说说我试下来典型的一天:
早上有个新功能想法,先跑 /office-hours。Claude 会追问你具体解决什么痛点、谁会用、在什么场景下用,帮你把模糊的想法理清楚。
然后 /plan-ceo-review 从商业角度挑战方案。我试过描述一个”日程提醒应用”,它直接说”你其实是在做个人 AI 助理”,然后给出了完全不同的产品定位。
接着 /plan-eng-review 出技术方案,数据流图、错误处理、测试覆盖都给你安排好。
下午写代码。写完跑 /review,自动发现两个 bug 并修复,只有一个边界条件需要我确认。
/qa 在 staging 环境开浏览器实际点一遍,又发现一个交互问题,顺手修了。
最后 /ship 开 PR,/land-and-deploy 完成部署。
全程一个人,但感觉像是跟一整个团队配合了一整天。
适合谁用?
gstack 不是给新手的。它的价值在于:你已经会用 Claude Code 写代码,但想要更系统的流程和质量把控。
我觉得这几类人会比较合适:
- 独立开发者 / 创业者 —— 没团队,但需要代码审查和测试覆盖
- 技术负责人 —— 想在团队里建立 AI 辅助编程的质量标准
- Claude Code 重度用户 —— 觉得单轮对话不够用了,想要结构化工作流
怎么开始
安装挺快的,30 秒搞定。
Claude Code 用户
1
2
git clone https://github.com/garrytan/gstack.git ~/.claude/skills/gstack
cd ~/.claude/skills/gstack && ./setup
然后在项目的 CLAUDE.md 里加上 gstack 配置,列出可用技能。
Codex CLI 用户
官方也支持 OpenAI Codex CLI,有两种安装方式:
单仓库安装(推荐,技能提交到代码库,团队协作):
1
2
git clone https://github.com/garrytan/gstack.git .agents/skills/gstack
cd .agents/skills/gstack && ./setup --host codex
用户全局安装(仅当前用户可用):
1
2
git clone https://github.com/garrytan/gstack.git ~/gstack
cd ~/gstack && ./setup --host codex
自动检测安装(自动识别已安装的 agent):
1
2
git clone https://github.com/garrytan/gstack.git ~/gstack
cd ~/gstack && ./setup --host auto
快速上手
建议新手从这几个命令开始:
/office-hours—— 描述你在做什么/plan-ceo-review—— 评审功能想法/review—— 检查代码变更/qa—— 在测试环境跑一轮
跑完这四个命令,你大概就知道这套东西适不适合自己了。
gstack 现在在 GitHub 有 47,000 多星,MIT 协议开源,完全免费。
它真正的价值不是”更好的 prompts”,而是给 AI 编程加了一套流程和检查点。代码审查、架构评审、QA 测试,这些以前需要多人协作的环节,现在一个人也能跑起来。
它当然替代不了真正的团队协作。但对小团队或独立开发者来说,这确实是个能提升交付质量的工具箱。
GitHub:https://github.com/garrytan/gstack
