这篇在说什么
阮一峰在周刊里转了一个问题:如果代码都是 AI 写的,面试程序员考什么?
他给出了几个思路:考察提示词能力、考察是否懂 Agent 协同、看过往项目经验。但他自己也坦白:这些问题能不能真正筛出合格的人,他完全没把握。结论是——AI 颠覆了软件开发,也连带颠覆了程序员面试。
我的判断
这是一个被低估的真实问题
大多数关于「AI 时代」的讨论停在「AI 会不会取代程序员」这个层面,但这篇直接跳到了一个更具体、更紧迫的问题:就算程序员还在,雇主怎么判断一个人好不好?
这个问题我觉得比「会不会被取代」更值得认真对待。因为它就发生在现在,不是未来。
作者的方案有个根本缺陷
「考察提示词能力」「考察是否懂 Agent 协同」——这些问题能考察的其实是对当前模型的熟悉程度,而不是底层能力。
问题在于,模型每隔几个月就会显著进化,提示词技巧和工具用法随时作废。今天会用 Claude Code 的人,和真的能理解软件系统的人,可能是完全不同的两批人——但在某个短暂的时间窗口里,前者看起来更厉害。
这是一个巨大的筛选盲区:面试可能开始系统性地筛出「工具熟练者」而非「问题理解者」。
我真正在意的部分
作者说面试编程细节「意义不大了」,因为你可以直接问模型。这一点我有不同的意见。
理解一个问题的结构,判断一个解决方案是否在错误的层面上解决问题,知道什么时候 AI 的建议在瞎扯——这些能力,背后需要的恰恰是对底层逻辑的理解,不是对语法的记忆,但也不是对提示词的熟练。
换句话说:面试的重心应该从「能不能写代码」变成「能不能判断代码」。这是一个截然不同的能力,但传统的编程题和阮一峰提出的提示词考察,都没有触及这个层面。
结论
相关:AI-Native 工程师 · Issue Quality · Spec-First Development · AI-Native 招聘深度报告
推荐读,但把它当成一个开放问题,而不是答案。
这篇文章最有价值的地方是诚实:阮一峰没有假装给出了解决方案,他只是把这个难题摊开来,承认自己没有把握。这种态度本身就值得借鉴——在一个变化速度超过认知速度的领域,先把问题搞清楚,比提前给出答案更重要。