第一层:基础认知(Why / What)【5 题】

Q1. 你怎么理解”AI 应用开发工程师”这个岗位?和算法工程师有什么本质区别?

面试官为什么问这个问题:
这道题不是考你会不会用模型,而是看你有没有”岗位自我认知”。很多候选人会把 AI 应用开发说成”调模型、写 Prompt”,这是明显不够的。面试官想确认你是不是工程导向、交付导向的人。

参考口语化回答:
如果我来回答,我会说 AI 应用开发工程师本质上是做”产品级 AI 能力交付”的。
算法工程师更关注模型本身,比如训练、微调、指标;而 AI 应用开发更关心的是:模型怎么被业务用起来、怎么稳定运行、怎么控制成本和风险。
我更多是在模型之上,做系统设计、Prompt、RAG、Agent、接口、监控这些,把 AI 变成一个真正能用、敢用、可维护的系统。

Q2. 在你看来,”模型””算法””AI 应用””AI 系统”之间是什么关系?

面试官为什么问这个问题:
这是一个典型的”认知分层题”。如果候选人回答混在一起,说明认知还停留在概念阶段。面试官希望你能清楚分层,而不是把所有问题都甩给模型。

参考口语化回答:
我一般会把它们分成四层。
最底层是模型和算法,这是能力来源;
往上一层是 AI 应用,比如一个问答、总结、推荐能力;
再往上是 AI 系统,它会包含权限、流程、日志、监控、兜底规则;
最上面才是业务场景。
真正上线跑的是系统,而不是模型本身,模型只是其中一个可替换的组件。

Q3. 你觉得企业真正需要的是”更强的模型”还是”更好的 AI 应用”?

面试官为什么问这个问题:
这道题在考你的工程价值观。很多初级候选人会下意识说”更强的模型”,但真实企业环境下,这往往不是瓶颈。

参考口语化回答:
在我参与过的项目里,大多数时候瓶颈不在模型,而在应用设计。
模型能力到一定程度后,效果差异更多来自 Prompt、上下文、数据、流程控制。
企业更需要的是一个”可控、稳定、成本可接受”的 AI 应用,而不是实验室里最强的模型。

Q4. 你怎么判断一个 AI 功能是不是”能上线”的状态?

面试官为什么问这个问题:
这是一个很现实的问题,用来区分”Demo 选手”和”工程选手”。面试官想听到的不只是效果好不好,而是上线标准。

参考口语化回答:
我一般会从四个维度判断:
第一是效果稳定性,同样的问题不会忽好忽坏;
第二是可控性,知道什么时候会出错、怎么兜底;
第三是成本,调用次数和 Token 消耗是否可接受;
第四是可观测性,日志、异常、用户行为是不是能看清楚。
只看效果,很容易踩坑。

Q5. 你觉得 AI 应用开发中,最容易被新人忽视的点是什么?

面试官为什么问这个问题:
这题在考你有没有”踩过坑”。如果回答得很抽象,通常经验不足。

参考口语化回答:
我觉得最容易被忽视的是”非正常输入”和”异常场景”。
比如用户乱输、Prompt 被注入、模型超时、接口失败。
很多 Demo 看起来很好,但一到真实用户环境,就开始不可控,这往往不是模型问题,而是工程没兜住。

第二层:核心技术能力(How)【8 题】

Q6. 你在实际项目中是怎么写 Prompt 的?有没有方法论?

面试官为什么问这个问题:
Prompt 是 AI 应用开发的核心能力之一。面试官不关心你背了多少技巧,而关心你是不是有工程化思维。

参考口语化回答:
我不会把 Prompt 当成一句话,而是当成配置。
一般会拆成角色、任务、约束、输出格式四块,尽量结构化。
而且 Prompt 一定要可迭代,能通过日志不断调,而不是一次写死。

Q7. 你是怎么控制大模型”胡说八道”的?

面试官为什么问这个问题:
幻觉是企业最关心的问题之一。这题直接考你有没有真实项目经验。

参考口语化回答:
我一般不会指望模型自己”别胡说”。
工程上会通过 RAG 提供确定性上下文,通过 Prompt 明确”只基于给定内容回答”,
同时在输出后加规则校验,必要时直接拒答。
幻觉不是靠一句 Prompt 解决的,是系统设计问题。

Q8. 你怎么理解 RAG?它解决的核心问题是什么?

面试官为什么问这个问题:
RAG 是基础能力,但很多人理解停留在”向量检索 + LLM”。

参考口语化回答:
我理解 RAG 的核心不是”查资料”,而是给模型一个受控的信息边界。
它解决的是模型不知道、记不住、不能实时更新的问题。
真正难的不是接不接向量库,而是数据切分、召回质量和上下文控制。

Q9. 在 RAG 项目中,你觉得最容易影响效果的环节是哪一步?

面试官为什么问这个问题:
这是一个经验题,能明显区分有没有实操。

参考口语化回答:
我觉得是数据切分和召回策略。
切得太大,模型吃不下;切得太小,又丢上下文。
而且不是所有问题都适合向量召回,很多时候要加关键词、规则甚至人工标签。

Q10. 你是怎么理解 Agent 的?什么时候该用,什么时候不该用?

面试官为什么问这个问题:
Agent 很火,但容易被滥用。面试官想看你的判断力。

参考口语化回答:
我把 Agent 理解成”带状态和决策能力的 AI 流程”。
如果只是单轮问答,其实不需要 Agent;
当任务需要拆解、多步执行、调用工具、反思修正时,Agent 才有价值。
否则只会增加复杂度和不稳定性。

Q11. 在工具调用或函数调用中,你最关注哪些风险?

面试官为什么问这个问题:
这题在考你有没有把 AI 当成”不可信组件”。

参考口语化回答:
我最关注的是误调用和参数不合法。
所以一般不会让模型直接执行真实操作,而是先生成结构化意图,再由程序校验。
模型负责”想”,系统负责”做”,这条边界一定要清楚。

Q12. 你是如何管理上下文长度和 Token 成本的?

面试官为什么问这个问题:
这是非常现实的工程问题,尤其在企业环境。

参考口语化回答:
我会优先做上下文裁剪,只保留当前问题真正需要的信息。
历史对话不会全塞进去,而是做摘要或状态提取。
另外会区分高价值和低价值请求,不同请求用不同模型或参数。

Q13. 你如何评估一个 Prompt 或 RAG 改动”是不是真的变好了”?

面试官为什么问这个问题:
这题考你是否有”评估意识”,而不是凭感觉调参。

参考口语化回答:
我会准备一组固定测试用例,覆盖正常和极端场景。
每次改动只改一个变量,看整体通过率和失败类型。
如果不能量化,就很容易越调越乱。

第三层:工程化与系统能力【8 题】

Q14. 一个典型的 AI 应用后端架构,你会怎么设计?

面试官为什么问这个问题:
这是在考系统观,而不是代码细节。

参考口语化回答:
我一般会拆成 API 层、AI 编排层、模型/工具层、基础设施层。
AI 编排层负责 Prompt、RAG、Agent 流程;
模型层可替换;
基础设施包括缓存、日志、监控。
这样后续模型升级或策略调整成本比较低。

Q15. AI 应用中,性能瓶颈通常出现在哪?

面试官为什么问这个问题:
考你有没有真实跑过系统,而不是只写过 Demo。

参考口语化回答:
最常见的是模型响应时间和串行流程。
Agent 一多,调用就容易堆起来。
所以我会尽量减少不必要的 LLM 调用,能规则解决的就不用模型。

Q16. 你是如何做 AI 应用的日志和监控的?

面试官为什么问这个问题:
没有可观测性,AI 系统就是黑盒。

参考口语化回答:
我会记录每次请求的 Prompt、上下文摘要、模型版本、耗时和 Token。
异常单独打标,方便回放问题。
这样线上效果下降时,能快速定位是数据、Prompt 还是模型问题。

Q17. AI 应用如何做异常处理和兜底?

面试官为什么问这个问题:
这是企业非常看重的一点。

参考口语化回答:
我不会假设模型一定成功。
常见兜底包括:超时返回、降级模型、规则回复、人工介入。
关键是让用户”有反馈”,而不是一直转圈。

Q18. 在 Docker 或服务化部署 AI 应用时,你会注意什么?

面试官为什么问这个问题:
这题考你是否具备平台化意识。

参考口语化回答:
我会注意配置解耦、密钥管理和资源限制。
模型配置、Prompt 都不写死在代码里。
同时会限制并发,避免被一次流量打挂。

Q19. 你是怎么做并发控制和限流的?

面试官为什么问这个问题:
AI 接口很贵,也很慢。

参考口语化回答:
我会在入口层做限流,区分用户等级。
同时对内部 LLM 调用做队列或信号量控制。
宁可慢一点,也不能失控。

Q20. 你如何看待缓存和 AI 的关系?

面试官为什么问这个问题:
很多人觉得 AI 不适合缓存,这是误区。

参考口语化回答:
我认为 AI 非常适合缓存。
很多问题高度重复,比如知识问答、总结。
合理缓存可以直接省掉大量模型调用,成本差异非常明显。

Q21. AI 应用如何做到”可维护”?

面试官为什么问这个问题:
这是区分短期项目和长期系统的关键。

参考口语化回答:
核心是模块化和可配置。
Prompt、模型、策略都能独立调整。
否则每次改一点,都要重发版本,很快就不可维护。

第四层:真实项目与场景能力【6 题】

Q22. 你是如何把 AI 能力嵌入到业务流程中的?

面试官为什么问这个问题:
这题考你是不是”业务型工程师”。

参考口语化回答:
我不会把 AI 当成一个独立功能,而是嵌进原有流程。
比如在审批、客服、诊断中做辅助,而不是替代。
这样业务接受度更高,风险也更可控。

Q23. 在医疗或金融场景中,你如何控制 AI 风险?

面试官为什么问这个问题:
这是高风险行业的核心问题。

参考口语化回答:
我会坚持”建议而非决策”的定位。
重要结论必须可追溯来源,并允许人工确认。
高风险场景下,AI 永远不是最终裁决者。

Q24. 你如何评估一个 AI 项目”值不值得继续做”?

面试官为什么问这个问题:
考你有没有产品和成本意识。

参考口语化回答:
我会看三个指标:
业务指标有没有改善、人工成本有没有下降、系统稳定性是否可接受。
如果只是技术好看,但业务没变化,我会建议及时止损。

Q25. 如果业务方说”效果不稳定”,你会怎么排查?

面试官为什么问这个问题:
这是非常真实的场景题。

参考口语化回答:
我会先拉日志,看失败集中在哪些问题类型。
再看是数据问题、Prompt 漂移,还是模型变更。
而不是第一时间去”再调一版 Prompt”。

Q26. 你如何和产品经理或业务方协作 AI 项目?

面试官为什么问这个问题:
AI 项目失败,往往不是技术原因。

参考口语化回答:
我会提前把 AI 的能力边界说清楚。
哪些能做,哪些不稳定,哪些必须人工兜底。
避免业务方对 AI 有不切实际的期待。

Q27. 你遇到过 AI 项目失败的情况吗?原因是什么?

面试官为什么问这个问题:
这题在考你的反思能力。

参考口语化回答:
有过。
最典型的是一开始目标定得太大,流程太复杂。
后来发现应该先从一个小闭环场景跑通,再逐步扩展。

第五层:进阶与加分项(架构 / 视野)【3 题】

Q28. 你如何看待多 Agent 架构的价值和风险?

面试官为什么问这个问题:
这是高级候选人的分水岭。

参考口语化回答:
多 Agent 在复杂任务拆解上很有价值。
但 Agent 一多,稳定性和调试成本急剧上升。
我会谨慎使用,只在收益明显时才引入。

Q29. 你如何看待 LangChain / LangGraph 这类框架?

面试官为什么问这个问题:
面试官想看你是不是”工具理性”。

参考口语化回答:
我把它们当成加速器,而不是必选项。
理解底层流程比会用框架更重要。
框架能提高效率,但不应该替代思考。

Q30. 在你看来,AI 应用开发工程师未来最重要的能力是什么?

面试官为什么问这个问题:
这是潜力判断题。

参考口语化回答:
我觉得是系统思维和风险意识。
模型会越来越强,但真正有价值的是把 AI 安全、稳定、持续地用在业务里。
能把复杂问题落到工程层面解决的人,长期都很稀缺。


第一层:基础认知(Why / What)【5 题】

Q1. 你认为 AI 应用开发中,”工程复杂度”主要来自哪里?

面试官为什么问这个问题:
这道题在考察你是否真正理解”难点不在模型”。很多候选人会把复杂度归因到算法,面试官想确认你是否具备系统视角。

参考口语化回答:
我觉得工程复杂度主要来自不确定性。
模型输出不稳定、用户输入不可控、业务规则又很复杂。
真正难的是把这些不确定因素包在一个稳定、可预测的系统里,而不是模型本身有多复杂。

Q2. 如果让你向非技术同事解释 AI 应用的价值,你会怎么说?

面试官为什么问这个问题:
这是在考沟通能力和业务理解能力。企业里 AI 工程师不是只和工程师打交道。

参考口语化回答:
我一般不会讲模型和参数。
我会直接说:AI 可以帮你减少重复劳动、缩短决策时间、降低人为遗漏。
比如以前需要 10 分钟查资料,现在 10 秒给你一个可用答案。

Q3. 你觉得”AI 应用失败”的典型信号有哪些?

面试官为什么问这个问题:
这题在考你是否见过失败项目,而不是只参与过成功 Demo。

参考口语化回答:
比较典型的信号是:
业务方越来越少用、反馈变少、问题被默默绕开。
技术上可能没报错,但说明 AI 已经没有被信任了。

Q4. 在 AI 应用中,你如何看待”确定性输出”这件事?

面试官为什么问这个问题:
这是一个价值观问题,直接关系到工程取舍。

参考口语化回答:
我不会追求完全确定,但会尽量缩小不确定范围。
对关键业务节点,输出一定要可预测、可解释。
创意场景可以放开,但业务核心场景一定要收紧。

Q5. 你怎么看”AI 能不能完全替代人”这个问题?

面试官为什么问这个问题:
考察你的理性程度,而不是态度激进与否。

参考口语化回答:
我更倾向于”增强而不是替代”。
在真实业务里,人负责判断和兜底,AI 负责提高效率。
至少在可预见的阶段,这是最安全、也最现实的模式。

第二层:核心技术能力(How)【8 题】

Q6. 你在 Prompt 中是如何表达”边界条件”的?

面试官为什么问这个问题:
这题在考你是否意识到 Prompt 不只是”告诉模型做什么”。

参考口语化回答:
我会明确告诉模型”不能做什么”和”不知道就说不知道”。
比如禁止编造结论、禁止超出给定数据。
Prompt 的约束比指令本身更重要。

Q7. 你是否遇到过 Prompt 调得越多,效果反而越差的情况?

面试官为什么问这个问题:
这是一个典型经验题。

参考口语化回答:
遇到过,尤其是 Prompt 叠得太复杂的时候。
后来发现问题不在 Prompt,而在上下文噪音太多。
有时候删掉一半内容,效果反而更稳定。

Q8. 你如何判断一个问题是否适合用 LLM 解决?

面试官为什么问这个问题:
考察你是否会”滥用 AI”。

参考口语化回答:
如果问题有明确规则、输入输出固定,我一般不会用 LLM。
只有在规则难以穷举、需要理解语义或综合判断时,才考虑模型。
能不用模型的地方,尽量不用。

Q9. 在 RAG 中,你如何处理”召回结果冲突”的情况?

面试官为什么问这个问题:
这是实际项目中很常见的问题。

参考口语化回答:
我会优先保证来源可信度,而不是数量。
必要时按权重排序,或者直接让模型指出冲突并给出不确定提示。
强行合并只会放大幻觉风险。

Q10. 你如何限制模型”过度推理”或”过度发挥”?

面试官为什么问这个问题:
这是在考你对模型行为的理解。

参考口语化回答:
我会通过输出格式、回答长度和明确目标来限制。
比如只让它输出结论,不要过程;
或者要求逐条引用来源,否则拒绝回答。

Q11. 你怎么看待”模型温度”等参数在工程中的作用?

面试官为什么问这个问题:
面试官想知道你是不是只会调参数。

参考口语化回答:
我觉得参数只是微调手段。
如果靠调温度才能勉强稳定,那说明 Prompt 或流程设计有问题。
工程上优先解决结构问题,而不是参数问题。

Q12. 在 Agent 设计中,你如何避免”无限循环”?

面试官为什么问这个问题:
这是 Agent 项目里非常真实的坑。

参考口语化回答:
我会限制最大步数、强制中断条件。
同时在每一步记录状态,如果重复出现相同行为,就直接终止。
Agent 一定要”可刹车”。

Q13. 你如何评估 Agent 带来的”收益是否大于复杂度”?

面试官为什么问这个问题:
这是高级工程师才会考虑的问题。

参考口语化回答:
我会看是否真的减少人工操作或流程步骤。
如果只是把一个简单流程拆成多个 Agent,那基本不值得。
Agent 的价值一定要体现在整体效率上。

第三层:工程化与系统能力【8 题】

Q14. AI 应用如何做到”版本可回滚”?

面试官为什么问这个问题:
这是稳定性意识的体现。

参考口语化回答:
我会对 Prompt、模型版本、检索策略都做版本管理。
出现问题可以快速切回上一个稳定版本。
不能回滚的 AI 系统,线上风险非常大。

Q15. 你是如何做 A/B 测试验证 AI 效果的?

面试官为什么问这个问题:
这题在考你是否具备工程验证思维。

参考口语化回答:
我会让不同用户或请求走不同策略。
对比命中率、人工介入率、用户反馈。
不用感觉判断,用数据说话。

Q16. AI 服务超时,你通常怎么处理?

面试官为什么问这个问题:
这是非常常见的线上问题。

参考口语化回答:
我会设置合理超时时间,超时直接返回降级结果。
同时记录日志,避免请求堆积。
用户体验永远比”等一个完美答案”重要。

Q17. 你如何防止 Prompt 或接口被滥用?

面试官为什么问这个问题:
这是安全意识问题。

参考口语化回答:
我会限制调用频率、校验输入内容、过滤明显异常请求。
敏感 Prompt 不暴露给前端。
AI 接口本质上也是高风险接口。

Q18. 在多模型共存的系统中,你如何做路由选择?

面试官为什么问这个问题:
考察你是否有成本与性能意识。

参考口语化回答:
我会根据问题复杂度分流。
简单问题走小模型,复杂问题才走大模型。
这样整体成本和响应时间都能控制住。

Q19. 你如何监控 AI 输出”质量下降”这种软问题?

面试官为什么问这个问题:
这是高级工程问题。

参考口语化回答:
我会关注人工介入率、重试率、用户否定反馈。
这些指标比单纯成功率更真实。
质量下降往往是渐进的,不是一次性崩掉。

Q20. AI 应用如何支持灰度发布?

面试官为什么问这个问题:
考察你是否具备平台化思维。

参考口语化回答:
我会按用户、部门或比例放量。
先验证稳定性,再逐步扩大。
一次性全量上线风险太高。

Q21. 你如何让 AI 系统”更容易被接手”?

面试官为什么问这个问题:
这题在考团队意识。

参考口语化回答:
我会把关键逻辑写清楚,Prompt 有注释,流程有文档。
AI 项目如果只有一个人能维护,长期一定出问题。

第四层:真实项目与场景能力【6 题】

Q22. 如果业务方要求”必须 100% 准确”,你会怎么回应?

面试官为什么问这个问题:
这是一个典型的现实冲突题。

参考口语化回答:
我会先说明 AI 的不确定性,再讨论哪些环节可以做到接近 100%。
通常通过规则、人工审核配合,而不是单靠模型。
承诺 100% 往往是风险信号。

Q23. 你如何决定 AI 项目”先做什么,后做什么”?

面试官为什么问这个问题:
考察你的落地能力。

参考口语化回答:
我会优先做高频、低风险、价值明确的场景。
先跑通闭环,再逐步扩展。
一开始就想覆盖所有需求,基本都会失败。

Q24. 在真实业务中,AI 输出被否定时你怎么处理?

面试官为什么问这个问题:
考察你对反馈的态度。

参考口语化回答:
我会把否定当成数据,而不是失败。
分析被否定的原因,是信息不足、理解错误,还是流程问题。
这些反馈对优化系统非常有价值。

Q25. 你如何判断 AI 给业务”带来的真实价值”?

面试官为什么问这个问题:
这是一个结果导向问题。

参考口语化回答:
我会看效率是否提升、人力是否减少、错误是否下降。
如果只是”看起来很智能”,但业务没变化,那价值是有限的。

Q26. 你如何在 AI 项目中引入”人工确认环节”?

面试官为什么问这个问题:
这是安全与效率平衡的考察。

参考口语化回答:
我会只在关键节点引入人工,而不是每一步都确认。
比如最终结论、对外输出前。
这样既安全,也不会拖慢流程。

Q27. 你如何应对业务方频繁变更需求?

面试官为什么问这个问题:
这是非常现实的问题。

参考口语化回答:
我会提前把系统设计成可配置的。
需求变更尽量通过配置和策略调整解决,而不是重写代码。
否则 AI 项目会被拖死。

第五层:进阶与加分项(架构 / 视野)【3 题】

Q28. 你如何看待”AI 应用平台化”这件事?

面试官为什么问这个问题:
这是高级工程师视角。

参考口语化回答:
平台化能避免重复造轮子。
把模型接入、Prompt 管理、监控统一起来,
业务团队只关注场景本身,整体效率会高很多。

Q29. 你认为未来 AI 应用工程师会越来越偏”工程”还是”产品”?

面试官为什么问这个问题:
这是对职业理解的考察。

参考口语化回答:
我觉得两者会越来越融合。
懂工程但不懂业务,很难做出好应用;
只懂产品,不懂工程,又很难落地。

Q30. 面试官眼中,什么样的 AI 应用工程师”值得培养”?

面试官为什么问这个问题:
这是典型的潜力判断题。

参考口语化回答:
我觉得是能主动考虑风险、成本和长期维护的人。
不只是把功能做出来,而是思考”上线后怎么办”。
这种人通常成长得很快。