AI 写的代码,单元测试到底该怎么写?
AI 写的代码,单元测试到底该怎么写?聊个最近让我挺纠结的事。自从 Copilot、Cursor 这些东西铺开之后,我身边写代码的朋友明显分成了两派。一派是"AI 写完我就提 PR",另一派是"AI 写完我还得自己过一遍才敢合"。而让我纠结的,是夹在中间的那件
寻门而入,破门而出
AI 写的代码,单元测试到底该怎么写?聊个最近让我挺纠结的事。自从 Copilot、Cursor 这些东西铺开之后,我身边写代码的朋友明显分成了两派。一派是"AI 写完我就提 PR",另一派是"AI 写完我还得自己过一遍才敢合"。而让我纠结的,是夹在中间的那件
最烦那种"我用 AI 三分钟搞定"的推文AI 确实能提效,但三分钟搞定的不是你的代码,是你的智商税。打开 Twitter 就想关掉每隔几天,我的 timeline 上就会出现一条类似这样的推文:"以前写这个要两天,现在用 Claude/GPT/Copilot 三分钟搞定
你真的需要本地跑大模型吗?不卖课、不贩卖焦虑、不搞成功学。Ollama 火了之后,好像每个开发者都在本地跑模型。但说实话,大部分人的使用场景根本不需要本地部署。这篇聊聊什么时候本地有意义,什么时候纯属浪费时间。跟风的代价我身边至少有五六个朋友,装了 Ollama,下了好几个模型,跑了一下"
Context Engineering:比 Prompt Engineering 重要十倍的事不卖课、不贩卖焦虑、不搞成功学。Prompt Engineering 火了两年了,但我觉得大部分人关注错了重点。真正决定 AI 输出质量的不是你怎么写 prompt,而是你给它什么上下文。一个反直觉的事实我
AI 写的测试,到底能不能信不卖课、不贩卖焦虑、不搞成功学。单元测试是 AI 最擅长的场景之一,但"写得快"和"测得准"完全是两回事。这篇聊聊 AI 生成测试的常见坑,以及我的一些踩坑经验。测试是 AI 的舒适区如果你问一个开发者"AI 最擅长写什么
AI Agent 和程序员的工种之争不卖课、不贩卖焦虑、不搞成功学。这篇聊聊 AI Agent——不是那种"未来已来"的营销文,而是我实际用了几个 agent 框架之后的真实感受。结论可能跟你想的不一样。先澄清一个误解很多人把 AI Agent 理解成"能自动完成任务的
当 AI 写代码比你快的时候,程序员到底该焦虑什么不卖课、不贩卖焦虑、不搞成功学。这是一篇关于 AI 编程工具的长文,聊聊我看到的真实变化,以及一些可能没用但诚实的判断。先说个事上个月我们组来了个实习生,入职第一天就用 Cursor 写完了我给他的练手需求——一个不算简单的 CRUD 接口,带参数校
别再裸调 API 了:一个 AI 应用的工程化架构长什么样写给正在把 AI 塞进项目的你。不讲模型原理,只聊工程实践——从 demo 到生产,中间到底差了什么。你的 demo 跑通了,然后呢我见过太多这样的场景了。周末 hackathon,三个人憋了两天,拿 OpenAI 的 API 搭了个聊天机器
别焦虑了,这才是普通人在 AI 时代的正确打开方式不贩卖焦虑,只讲干货。这篇文章不会告诉你"AI 马上取代你",也不会教你变成 Prompt 工程师——它要讲的,是一套普通人真正能用的生存策略。一个让人睡不着的数字去年年底,麦肯锡出了一份报告,说了一句话:"到 2030
你的浏览器就是 API。不需要密钥,不需要爬虫,不需要模拟。bb-browser 让 AI Agent 直接使用你真实浏览器的登录态访问任何网站——因为那就是你。一个反直觉的想法想象一下这个场景:你想让 AI 帮你查一下知乎热榜、看看 Twitter 上关于某个话题的讨论、或者从雪球获取几只股票的实