- 约1467字
- 技术
- 2026年3月1日
上周五下午,测试同事小王递给我一份测试用例文档:“哥,这是下周一要上线的模块的测试用例,有86个场景,你看看能不能跑通。”
我接过来一看,头都大了。这才一个模块,就要写86个测试用例?每个用例还要包含前置条件、测试步骤、预期结果……按照以前的做法,这得写到猴年马月。
相信很多开发者都有类似的经历:代码写完了,测试用例不想写,或者写得很敷衍。不是不想写,是真的太耗时了。今天聊聊我是怎么用AI解决这个问题的。
痛点:测试用例为什么不想写
我自己总结了一下,主要有三个原因:
第一,重复劳动。很多测试用例逻辑差不多,就是参数换一下。比如“登录成功”“密码错误”“用户不存在”三 个用例,步骤几乎一样,就是输入内容不同。写多了真的烦。
第二,边界条件容易漏。正常工作流程能想到,但一些异常场景 比如网络超时、并发操作、数据库连接失败 这些边界条件,很容易遗漏。
第三,维护成本高。需求一改,测试用例也要跟着改。改来改去,最后自己都不知道哪些用例还有效。
这些问题,AI都能帮你解决。
方案:用AI生成测试用例
我的做法是这样的:
第一步:让AI理解代码逻辑
不是直接把代码贴给AI,而是先让AI理解这个模块的功能。可以用这样的提示词:
这是用户登录模块的代码,请分析:
1. 这个模块的主要功能是什么
2. 输入参数有哪些
3. 可能的异常场景有哪些
AI会返回功能分析和异常场景列表,这个过程只需要几十秒。
第二步:生成测试用例
拿到功能分析后,继续让AI生成测试用例:
基于以上分析,请生成测试用例表格,包含:
- 用例编号
- 用例名称
- 前置条件
- 测试步骤
- 预期结果
- 测试类型(功能/边界/异常)
我试了十几个模块,大部分情况下AI生成的用例覆盖率能达到80%以上,有些边界条件我想不到的AI都想到了。
第三步:人工审核和调整
AI生成的用例不能直接用,一定要人工审核。重点检查:
- 用例逻辑是否正确
- 是否有前后置条件冲突
- 预期结果是否合理
这个审核过程比手写用例快多了,一般10-15分钟就能完成86个用例的审核。
避坑指南
用了一段时间,也踩过一些坑,总结如下:
第一个坑:AI会“幻觉”
有时候AI会生成一些看起来对但实际跑不通的用例。比如它可能假设某个接口会返回特定格式的数据,但实际上那个接口还没开发。
解决办法:先把AI生成的用例跑一遍,把跑不通的标记出来,反馈给AI让它修正。多迭代几次就好了。
第二个坑:过度依赖AI
AI生成的用例是 基于代码逻辑的,但实际运行中还有很多业务层面的规则。比如“VIP用户不能领取普通优惠券”这个规则,如果代码里没明确写出来,AI可能就想不到。
所以AI只能帮你覆盖80%的场景,剩下20%还是要靠人工补齐。
第三个坑:用例维护
需求变更后,测试用例也要跟着改。我的做法是每次需求变更,先让AI重新生成一遍用例,再和之前的对比,找出差异点进行更新。
这样比从头手写省事多了。
工具推荐
我自己用下来比较顺手的组合是:
- Cursor/Windsurf:直接在IDE里让AI阅读代码并生成用例,切换上下文方便
- ChatGPT/Claude:适合复杂业务逻辑的分析,给的提示词越详细,生成结果越准确
具体选哪个看个人习惯,重点是先把流程跑起来。
小结
用AI生成测试用例这半年,我的感受是:
- 效率提升明显:原来86个用例要写一下午,现在30分钟就能搞定
- 覆盖率更高:AI想的边界场景比人全
- 维护更省事:需求变更时更新用例速度快
当然,AI不是万能的。业务逻辑的理解、用例质量的把控这些还是需要人来做。但有了AI帮忙,至少不用把时间浪费在重复劳动上了。
如果你也是那种“代码写完不想写测试”的人,建议试试这个方法。真的香。