普通人的AI编程指南:不用写代码,也能用上工程级的AI助手
最近在研究 AI 编程工具时,发现了一个让我眼前一亮的东西——addyosmani/agent-skills。它把”资深工程师是怎么干活的”打包成 AI 可以复用的 Skills,GitHub 上 2.3 万星,MIT 协议,随便用。
但今天不想聊这个项目本身有多牛。想聊一个更实在的问题:普通人能不能用这套东西?用了能干嘛?
先说人话:这套东西是干嘛的
你可以理解成:有一帮Google的前端工程师,把自己做项目的”标准流程”写成了一份”AI使用手册”。
比如你想让 AI 帮你开发一个小程序,正常流程是:
- 先说清楚你要什么(/spec)
- 让它拆解任务列计划(/plan)
- 再让它一步步写代码(/build)
- 写完了让 AI 自己测(/test)
- 最后让人检查(/review)
- 没问题了再发布(/ship)
这套流程不需要你懂代码,你只需要知道”现在该让 AI 干哪一步”。
亮点设计:AI 不能偷懒
有意思的是,这个项目里有个设计叫”反Rationalization表格”。
翻译成人话就是:防止 AI 找借口糊弄你。比如 AI 说”这段代码没问题,直接跳过测试”,表格会强制它说出为什么没问题、谁验证的、依据是什么。
这对于普通人来说特别重要——你不需要懂代码,但你需要知道 AI 到底有没有认真干。
能解决普通人什么问题?
举几个真实的应用场景:
场景1:你想做个企业内部的小工具
比如每天要汇总 5 个表格发邮件,你可以让 AI 按照 /build → /test 的流程,帮你写一个自动汇总脚本。不用招人,不用买软件,自己就能搞定。
场景2:你是个小老板,想验证”能不能用AI提升效率”
先用这套流程让 AI 帮你做个简单的原型,看看效果。成本低、速度快,不满意就改,比一开始砸钱开发强。
场景3:你在验收外包项目,怕被糊弄
让 AI 按 /review 的流程跑一遍检查清单,你能心里有数地知道”这段代码到底写得好不好”,不用完全依赖对方的说辞。
怎么入门?3步开始
第一步:选一个工具
推荐从 Claude Code(免费额度够用)或者 Cursor(界面友好)开始,都是支持这套 Skills 的主流工具。
第二步:试一个最简单的命令
不用学全部,先学会用 /plan——把你想要的东西说清楚,让 AI 帮你拆解成一步步的任务。比如:”我想做一个客户跟进表,能提醒我哪些客户该联系了”。
第三步:让 AI 自己测自己改
用 /test 让 AI 写测试用例,用 /review 让 AI 检查自己的代码。你不需要懂测试,只需要知道”有这一步”就够了。
术语表:这些词什么意思
| 术语 | 人话解释 |
|---|---|
| Skill | 一套 AI 可以执行的工作流程,比如”怎么写代码”、”怎么检查代码” |
| /spec | 需求阶段——把你想要的说明白 |
| /plan | 规划阶段——让 AI 拆解任务 |
| /build | 构建阶段——让 AI 写代码 |
| /test | 测试阶段——让 AI 验证自己的代码 |
| /review | 审查阶段——让 AI 或人检查代码质量 |
| /ship | 交付阶段——发布、部署、上线 |
| TDD | 测试驱动开发——先写测试再写代码,确保代码能通过测试 |
| CI/CD | 持续集成/持续部署——代码更新后自动测试、自动发布,不用手动操作 |
| 反Rationalization表格 | 防止 AI 偷懒或找借口的质量检查表 |
我能用这套东西接单吗?
可以。这套流程本身就是工程化交付的标准——如果你接单,用它作为交付标准,告诉客户”我的 AI 开发流程有工程保障”,既专业又可信。
结语
AI 编程不是”魔法”,是一套可以学习的方法。agent-skills 提供了现成的框架,普通人不需要懂代码,只需要理解”什么阶段该干什么”。
用起来,比观望强。