第一层:基础认知(Why / What)【5 题】
Q1. 【什么情况下你会明确选择多智能体,而不是把单 Agent 做”更聪明”?】
面试官为什么问这个问题:
这个问题用来判断候选人是否真正理解”多智能体的使用边界”。很多人会在单 Agent 已经可以覆盖的情况下,盲目拆分 Agent,导致系统复杂度失控。面试官想听的是决策标准,而不是抽象优势。
参考口语化回答:
我一般不会因为”能拆”就拆,而是看三个信号:第一,任务是否天然存在角色分工,比如规划、执行、校验这类职责冲突明显的环节;第二,单 Agent 是否已经出现上下文过载,导致推理质量明显下降;第三,业务是否允许中间结果反复校验。如果只是知识问答或者简单流程,我宁愿把单 Agent 的 Prompt 和工具打磨好。多智能体一旦上来,协作成本、状态同步、失败传播都会指数级增加,这是必须提前算清楚的账。
Q2. 【在你理解中,多智能体系统解决的”核心问题”是什么?】
面试官为什么问这个问题:
这道题用来区分”理解协作本质”和”只会堆 LLM 调用”的候选人。很多人会泛泛而谈并行、智能增强,但说不清真实价值。
参考口语化回答:
我不认为多智能体的核心是”更聪明”,而是”降低单点认知风险”。在真实业务里,一个 Agent 很容易因为上下文偏差一路错到底。多智能体真正有价值的地方,是通过角色分离,把规划、执行、校验、反思这些高风险认知步骤拆开,让错误能被另一个 Agent 暴露出来。如果没有这个需求,多智能体只是在放大调用次数和成本。
Q3. 【你如何区分”多智能体系统”和”多次 LLM 调用”的本质差异?】
面试官为什么问这个问题:
这是一个经典的”反套路题”,专门用来筛掉把 for-loop 调 LLM 也叫多 Agent 的人。
参考口语化回答:
在我看来,关键不在数量,而在”是否存在独立决策闭环”。多次 LLM 调用通常是同一个意图在不同阶段展开,而多智能体里,每个 Agent 都有相对独立的目标、上下文和失败责任。我做过一个项目,如果把其中两个 Agent 合并,系统功能还能跑,但一旦合并后就失去了交叉校验能力,这时我才会把它视为真正的多智能体,而不是多次调用。
Q4. 【你如何理解多智能体中的”协作、分工和博弈”?】
面试官为什么问这个问题:
这道题在考察候选人是否停留在概念层,还是理解这些关系在工程上意味着什么成本。
参考口语化回答:
分工是最容易的,协作是最贵的,博弈是最危险的。分工只是职责划分,但一旦需要协作,就涉及状态共享、顺序控制和失败回滚。博弈我一般非常谨慎,只有在风险评估、策略对抗这种场景才用,因为一旦两个 Agent 都”很自信”,系统反而更难收敛。我踩过坑,博弈没设计好,最后是两个 Agent 无限互相否定。
Q5. 【为什么说”多智能体不是银弹,而是复杂系统”?】
面试官为什么问这个问题:
这是一个价值观判断题,面试官希望确认你是否对复杂性有敬畏感。
参考口语化回答:
因为多智能体带来的不是线性收益,而是非线性复杂度。Agent 数量一上来,状态空间、日志量、异常路径都会爆炸式增长。如果没有清晰的失败策略和治理手段,多智能体很快会变成”没人敢改、没人敢动”的系统。所以我一直把多智能体当成最后手段,而不是默认选项。
第二层:核心技术能力(How)【8 题】
Q6. 【你在设计多智能体角色时,如何划清职责边界?】
面试官为什么问这个问题:
角色设计是多智能体的第一道工程门槛,拆错了后果非常重。
参考口语化回答:
我会尽量按”认知类型”而不是”功能模块”来拆。比如 Planner 只负责生成计划,不允许调用工具;Executor 只能执行,不允许改计划;Critic 只能评价,不参与执行。这样做的好处是出问题时能快速定位责任归属。拆过一次”职责模糊”的 Agent,最后每个 Agent 都在偷偷补位,调试成本非常高。
Q7. 【任务规划在多智能体中应该集中还是分散?】
面试官为什么问这个问题:
这是一个典型的架构取舍题,没有标准答案,但有明显的工程优劣。
参考口语化回答:
我倾向于”集中规划,分布执行”。规划如果分散,很容易出现目标不一致的问题;但执行可以并行。早期我试过让多个 Agent 各自规划,结果是计划互相打架,最后还得人工兜底。集中规划虽然有单点风险,但更可控,也更容易监控。
Q8. 【多智能体之间你通常如何通信和共享上下文?】
面试官为什么问这个问题:
通信方式直接决定系统复杂度和稳定性。
参考口语化回答:
我会刻意限制上下文共享,只传”结构化中间结果”,而不是整段对话历史。共享太多信息,很容易产生上下文污染,Agent 开始基于别人的幻觉继续推理。宁可多设计一层中间数据结构,也不要图省事直接传全文。
Q9. 【在多智能体系统中,你如何引入 RAG 而不放大幻觉?】
面试官为什么问这个问题:
RAG 一旦和多智能体叠加,错误会被迅速放大。
参考口语化回答:
我一般只允许特定 Agent 访问 RAG,比如 Research Agent,其他 Agent 只能消费它的”摘要结论”。如果所有 Agent 都能直接查知识库,很快就会出现互相引用、循环放大的问题。RAG 在多智能体里一定要有”入口管控”。
Q10. 【当多个 Agent 给出冲突决策时,你如何处理?】
面试官为什么问这个问题:
这是多智能体落地中必然会遇到的情况。
参考口语化回答:
我不会指望 Agent 自己”吵出正确答案”。工程上我会引入裁决机制,比如规则优先级、置信度阈值,或者直接 Human-in-the-loop。冲突如果交给 Agent 自由博弈,最后往往是最”会说服人”的 Agent 赢,而不一定是对的。
Q11. 【你如何看待中央调度 vs 去中心化多智能体?】
面试官为什么问这个问题:
这是考察系统视野,而不是 API 熟练度。
参考口语化回答:
在企业级系统里,我几乎不会用完全去中心化。中央调度虽然看起来不”智能”,但在失败控制、成本限制和审计上优势太大了。去中心化适合研究或仿真,但在生产环境,一旦失控,很难兜底。
Q12. 【多智能体中工具调用权限你如何设计?】
面试官为什么问的问题:
工具滥用是多智能体常见风险。
参考口语化回答:
我会做最小权限设计,每个 Agent 只开放必要工具,而且调用结果必须结构化返回。之前有 Agent 能直接调用外部 API,结果在异常情况下重复请求,直接把配额打爆,这是典型的权限没收紧。
Q13. 【你如何防止多智能体”互相带偏”?】
面试官为什么问这个问题:
这是一个经验型问题,很难靠理论回答。
参考口语化回答:
核心是减少”情绪化语言”和主观判断在 Agent 间传播。我会要求 Agent 输出尽量客观的中间结论,比如列表、评分、证据来源,而不是”我认为””我觉得”。一旦一个 Agent 用强语气下结论,很容易影响其他 Agent 的判断路径。
第三层:工程化与系统能力【8 题】
Q14. 【多智能体上线后,性能和成本问题你是如何评估的?】
面试官为什么问这个问题:
多智能体最容易在这里翻车。
参考口语化回答:
我会在设计阶段就估算最坏路径的调用次数,而不是平均值。多智能体的 P95、P99 成本往往比单 Agent 高得多,如果不提前算,很容易上线后发现根本跑不起。
Q15. 【你如何管理多智能体的状态?】
面试官为什么问这个问题:
状态是多智能体的核心复杂度来源。
参考口语化回答:
我会把状态显式化,宁可写进 State,也不要隐含在 Prompt 里。隐式状态一旦错了,根本没法回放。用过 LangGraph 之后,我对状态机的敬畏感更强了。
Q16. 【Agent 失败是如何在系统中传播的?你怎么切断?】
面试官为什么问这个问题:
这是稳定性问题的核心。
参考口语化回答:
我会区分”可恢复失败”和”致命失败”。可恢复的只影响当前 Agent,致命的直接中断整个流程。如果不区分,失败会被下游 Agent 当成正常输入继续放大。
Q17. 【多智能体系统你如何做日志和 Tracing?】
面试官为什么问这个问题:
没有可观测性,多智能体不可维护。
参考口语化回答:
我会给每个 Agent 单独打 Trace ID,同时保留调度层的全局 ID。否则出了问题,只看到一堆 LLM 调用日志,根本拼不出完整行为链。
Q18. 【在 Docker / 服务化环境下,你如何部署多智能体?】
面试官为什么问这个问题:
考察工程落地能力。
参考口语化回答:
我一般不会把所有 Agent 拆成独立服务,除非确实有独立扩缩容需求。过度服务化只会增加网络延迟和运维成本。很多时候,一个进程内的多 Agent 调度更稳定。
Q19. 【你如何限制 Agent 的”自由度”?】
面试官为什么问这个问题:
自由度过高是风险源头。
参考口语化回答:
我会通过模板、输出 schema、工具白名单来约束,而不是靠 Prompt 提醒。Prompt 是软约束,工程手段才是硬约束。
Q20. 【多智能体系统如何做回放和复现?】
面试官为什么问这个问题:
这是高阶工程能力体现。
参考口语化回答:
必须记录完整输入、状态变化和中间输出,否则复现几乎不可能。我见过只能”线上看结果,线下复现不了”的多智能体系统,维护成本极高。
Q21. 【你如何防止多智能体进入死循环?】
面试官为什么问这个问题:
死循环是多智能体的经典坑。
参考口语化回答:
我会设置最大轮次、信心阈值和强制终止条件。不要指望 Agent 自己意识到”该停了”,它们往往不会。
第四层:真实项目与业务场景能力【6 题】
Q22. 【你在哪些真实业务中用过多智能体?为什么值得?】
面试官为什么问这个问题:
这是”是否真的做过”的验证题。
参考口语化回答:
我在金融分析场景用过,多维度评估一个标的。单 Agent 很容易被某一维信息带偏,多 Agent 可以互相制衡。但在简单报表生成场景,我试过多 Agent,效果反而更差。
Q23. 【在医疗场景中,多智能体如何避免责任模糊?】
面试官为什么问这个问题:
医疗是高风险场景。
参考口语化回答:
我会明确多智能体只做”辅助分析”,最终决策必须由人或单一裁决模块输出。多 Agent 可以给建议,但不能给最终结论,这是底线。
Q24. 【在企业流程自动化中,多智能体的最大风险是什么?】
面试官为什么问这个问题:
考察风险意识。
参考口语化回答:
最大风险不是出错,而是”悄悄出错”。多智能体一旦自动跑流程,如果缺乏人工检查,很容易在错误方向上跑得很快。
Q25. 【你如何评估多智能体是否真的提升了效果?】
面试官为什么问这个问题:
避免自嗨。
参考口语化回答:
我会和单 Agent baseline 做严格对比,看质量、成本、稳定性三项指标。如果只有质量提升,但成本翻倍,我通常会放弃。
Q26. 【你遇到过多智能体效果反而变差的情况吗?】
面试官为什么问这个问题:
这是经验验证题。
参考口语化回答:
遇到过。信息密集但目标单一的任务,多 Agent 只会制造噪声。那次我直接合并回单 Agent,效果立刻稳定。
Q27. 【你如何降低多智能体中的幻觉放大风险?】
面试官为什么问这个问题:
幻觉是面试官最关心的问题之一。
参考口语化回答:
核心是减少”幻觉传播链”。只允许一个 Agent 接触原始外部信息,其他 Agent 基于结构化结果推理。
第五层:进阶与加分项(架构 / 视野)【3 题】
Q28. 【你如何将多智能体与 LangChain / LangGraph 结合?】
面试官为什么问这个问题:
考察框架理解深度。
参考口语化回答:
我更倾向用 LangGraph 管理状态和流程,用 LangChain 管理单个 Agent 的能力边界。这样职责清晰,系统更可控。
Q29. 【你如何看待多智能体系统的治理与演进?】
面试官为什么问这个问题:
这是架构思维题。
参考口语化回答:
我会先跑通单 Agent,再引入少量关键 Agent,最后才考虑平台化。一步到位的平台,往往死得最快。
Q30. 【在你眼中,什么样的候选人是”多智能体系统潜力型选手”?】
面试官为什么问这个问题:
这是价值观和视野判断。
参考口语化回答:
不是会用多少框架,而是能清楚说出”什么时候不用多智能体”。真正做过的人,对复杂度是谨慎甚至保守的,这一点一聊就能听出来。
Q31. 【你第一次意识到”单 Agent 不够用”是因为什么问题?】
面试官为什么问这个问题:
这道题不是在问理论判断,而是在追溯候选人的真实决策起点。真正做过多智能体的人,往往能清楚说出”单 Agent 失败的具体形态”。
参考口语化回答:
我第一次意识到单 Agent 不够,是在一个分析链路特别长的场景里。Agent 前半段推理是对的,但中途一旦理解偏了,后面所有结论都跟着歪,而且我完全没办法中途介入。后来我把”分析”和”校验”拆开,哪怕多一次调用,整体稳定性明显提升,这才开始认真考虑多智能体。
Q32. 【在你看来,多智能体的”下限风险”主要体现在哪里?】
面试官为什么问这个问题:
面试官想确认候选人是否意识到:多智能体最危险的不是失败,而是”系统性失败”。
参考口语化回答:
下限风险在于错误会被包装得更”合理”。多个 Agent 彼此背书,看起来很有说服力,但一旦方向错了,系统反而更难被质疑。我一直认为,多智能体不是提高下限的手段,反而可能拉低下限。
Q33. 【你如何向非技术同事解释”为什么不一定要上多智能体”?】
面试官为什么问这个问题:
这是在考察候选人是否具备工程判断与沟通能力。
参考口语化回答:
我一般会直接说:多智能体不是功能升级,而是系统复杂度升级。它解决的是”认知可靠性问题”,不是”需求没想清楚的问题”。如果业务问题本身很简单,上多智能体只会让维护成本和风险暴涨。
Q34. 【多智能体系统中,”协作失败”通常意味着什么?】
面试官为什么问这个问题:
这道题用来区分”协作想象”和”协作现实”。
参考口语化回答:
协作失败通常不是 Agent 不聪明,而是目标函数不一致。有的 Agent 在追求完整性,有的在追求速度,如果不在设计阶段统一价值取向,协作一定会失败,而且失败得很隐蔽。
Q35. 【你是否遇到过”为了多智能体而多智能体”的项目?结果如何?】
面试官为什么问这个问题:
这是在验证候选人的工程反思能力。
参考口语化回答:
遇到过。结果基本都是两种:要么项目拖慢,要么后期被迫合并回单 Agent。真正有效的多智能体,几乎都是从单 Agent 痛点自然演化出来的,而不是一开始就设计成多 Agent。
第二层:核心技术能力(How)【8 题】
Q36. 【你如何判断一个 Agent 是否应该”拥有长期记忆”?】
面试官为什么问这个问题:
长期记忆一旦引入,多智能体复杂度会明显上升。
参考口语化回答:
我只会给”角色稳定、目标长期一致”的 Agent 加长期记忆,比如用户画像分析类。执行类 Agent 我一般不留长期记忆,否则历史偏见会不断叠加,反而降低决策质量。
Q37. 【多智能体中的 Planner 是否应该具备执行能力?】
面试官为什么问这个问题:
这是角色边界是否清晰的典型问题。
参考口语化回答:
我一般严格禁止。Planner 一旦能执行,就会在执行失败时偷偷调整计划,导致后续很难复盘。把规划和执行拆开,是为了让错误暴露,而不是被”智能修复”。
Q38. 【你如何设计 Agent 之间的依赖顺序?】
面试官为什么问这个问题:
依赖顺序直接影响系统稳定性。
参考口语化回答:
我会尽量让依赖单向化,避免环依赖。只要出现 A 依赖 B、B 又反过来依赖 A,这个系统基本就不可控了。必要时我宁愿引入一个中间裁决节点。
Q39. 【多智能体中是否应该允许 Agent 质疑系统目标?】
面试官为什么问这个问题:
这是一个容易被忽视的高级问题。
参考口语化回答:
默认不允许。质疑目标的 Agent 必须是特定角色,比如安全或合规 Agent,而且它只能提出风险,不允许直接改目标。否则系统会频繁陷入”哲学讨论”,任务根本推进不了。
Q40. 【你如何处理多智能体中的”信息过期”问题?】
面试官为什么问这个问题:
考察候选人对时效性的认知。
参考口语化回答:
我会给中间结果加时间戳和有效期,下游 Agent 只接受最新版本。否则很容易出现基于旧信息继续推理,最后结果看似合理,其实已经脱离现实。
Q41. 【多智能体系统中,你是否使用过置信度或评分机制?】
面试官为什么问这个问题:
这是工程化判断的重要信号。
参考口语化回答:
用过,而且很关键。不给置信度,所有 Agent 的输出在系统里都是”同权重”,这在冲突时非常危险。哪怕置信度不准,也比完全没有要好。
Q42. 【你如何限制 Agent 的自我反思轮次?】
面试官为什么问这个问题:
反思机制很容易失控。
参考口语化回答:
我会硬性限制轮次,并且要求每一轮反思必须引入新证据。否则 Agent 会在语言层面不断自我优化,但结论并没有实质变化。
Q43. 【多智能体中是否有你坚决不用的机制?为什么?】
面试官为什么问这个问题:
这是经验过滤题。
参考口语化回答:
我基本不用完全开放式的 Agent 自由对话。看起来很智能,但在生产环境里几乎不可控,调试和审计成本都非常高。
第三层:工程化与系统能力【8 题】
Q44. 【多智能体系统的首个线上事故通常发生在哪里?】
面试官为什么问这个问题:
真实事故经验是区分度很高的信号。
参考口语化回答:
通常发生在异常路径,比如外部接口超时、RAG 返回空结果。正常流程跑得很好,但一旦异常,Agent 的补救行为会迅速放大问题。
Q45. 【你如何控制多智能体系统的”最坏执行路径”?】
面试官为什么问这个问题:
这是成本和稳定性核心。
参考口语化回答:
我会提前画出最坏路径,计算最大调用次数和最长时延。如果这个数字业务接受不了,那这个设计本身就有问题。
Q46. 【多智能体是否需要灰度发布?你怎么做?】
面试官为什么问这个问题:
考察工程成熟度。
参考口语化回答:
一定需要。我通常先灰度 Agent 组合,而不是单个 Agent。因为问题往往出在协作关系上,而不是某一个 Agent 本身。
Q47. 【你如何判断一个 Agent 是否应该被”下线”?】
面试官为什么问这个问题:
这是系统治理问题。
参考口语化回答:
如果一个 Agent 的贡献无法量化,或者长期只增加复杂度,我会毫不犹豫下线。多智能体系统必须允许”做减法”。
Q48. 【多智能体系统中,你如何做权限和审计?】
面试官为什么问这个问题:
企业级系统的基本要求。
参考口语化回答:
每个 Agent 的工具调用、关键决策都必须可审计。否则一旦出问题,很难界定是模型问题还是系统设计问题。
Q49. 【你是否遇到过多智能体导致排障周期变长的情况?】
面试官为什么问这个问题:
验证真实维护经验。
参考口语化回答:
经常遇到。所以我现在非常克制 Agent 数量。多一个 Agent,不只是多一份代码,而是多一条排障路径。
Q50. 【你如何评估多智能体系统的”可维护性”?】
面试官为什么问这个问题:
这是长期视角问题。
参考口语化回答:
我会看新人能否在一周内理解系统。如果需要反复口头解释协作逻辑,那这个系统基本是不可维护的。
Q51. 【多智能体系统是否适合频繁迭代?】
面试官为什么问这个问题:
考察候选人对演进成本的认知。
参考口语化回答:
不太适合。多智能体一旦稳定下来,我会尽量减少结构性调整,否则回归成本非常高。
第四层:真实项目与业务场景能力【6 题】
Q52. 【在金融风控中,多智能体最大的价值和最大风险分别是什么?】
面试官为什么问这个问题:
金融是典型高风险场景。
参考口语化回答:
价值在于多视角制衡,风险在于风险叠加。多个 Agent 同时给出”谨慎乐观”,很容易被误判为低风险。
Q53. 【你是否在企业内部系统中替换过人工流程为多智能体?结果如何?】
面试官为什么问这个问题:
考察真实落地经验。
参考口语化回答:
替换过部分环节,但从不全自动。完全自动的多智能体流程,一旦出问题,影响面太大。
Q54. 【多智能体在合规或审计场景中是否合适?】
面试官为什么问这个问题:
这是边界判断题。
参考口语化回答:
只适合做辅助,不适合做裁决。合规更看重可解释性,而不是协作智能。
Q55. 【你如何向业务方证明”多智能体值得这笔成本”?】
面试官为什么问这个问题:
商业判断能力。
参考口语化回答:
我会拿稳定性和人工节省时间说话,而不是模型指标。只要能减少人工复核成本,业务通常是买账的。
Q56. 【你是否因为业务压力被迫简化多智能体设计?】
面试官为什么问这个问题:
真实博弈题。
参考口语化回答:
有过。最终我选择保留核心 Agent,其余合并。简单但稳定,往往比复杂但脆弱更重要。
Q57. 【什么业务场景下,你会明确拒绝使用多智能体?】
面试官为什么问这个问题:
这是”会拒绝”的能力。
参考口语化回答:
目标单一、时延敏感、容错率低的场景,我都会拒绝。多智能体在这些场景里几乎没有胜算。
第五层:进阶与加分项(架构 / 视野)【3 题】
Q58. 【你如何看待多智能体向 Agent Platform 演进的拐点?】
面试官为什么问这个问题:
这是系统级视野判断。
参考口语化回答:
当 Agent 数量多到需要统一权限、监控和调度时,才值得平台化。过早平台化只会增加负担。
Q59. 【多智能体系统是否应该具备”自我简化”能力?】
面试官为什么问这个问题:
这是高阶设计思维。
参考口语化回答:
我认为应该。系统能识别哪些 Agent 长期无效,并建议下线,这比无限扩张更重要。
Q60. 【你如何判断一个团队是否”驾驭得了”多智能体系统?】
面试官为什么问这个问题:
这是人才与组织判断。
参考口语化回答:
看团队是否能清楚说出失败路径。如果大家只讨论成功案例,而不讨论最坏情况,那这个团队大概率驾驭不了多智能体系统。