Q1. 【你如何定位 LlamaIndex?它解决的核心问题是什么?】

面试官为什么问这个问题:
这个问题不是在考 API,而是在判断候选人是否真正理解 LlamaIndex 的核心定位。如果候选人把它等同于”另一个 RAG 框架”,通常意味着对数据层的理解是缺失的。

参考口语化回答:
我一直把 LlamaIndex 当成一个”数据到推理的中间层框架”,而不是模型框架。它解决的不是”怎么问模型”,而是”业务里的数据,怎么被结构化、索引化,最终变成模型可以稳定推理的对象”。
在真实项目里,模型可以随时替换,但数据一旦没治理好,RAG 和 Agent 的行为就会非常不稳定,这也是我认为 LlamaIndex 的核心价值所在。

Q2. 【在 Agent 架构中,LlamaIndex 和 LangChain 的职责边界你是怎么划分的?】

面试官为什么问这个问题:
面试官希望区分”工具拼装型选手”和”系统设计型选手”。如果候选人说不清两者的边界,往往意味着只是跟着教程跑 Demo。

参考口语化回答:
我一般把 LlamaIndex 放在”数据与知识层”,LangChain 放在”推理与流程编排层”。
LlamaIndex 负责的是数据的抽象、索引、检索和可追溯性,而 LangChain 更适合做 Agent 的行为编排、工具调用和多步推理。
如果把数据检索也交给 LangChain 直接处理,系统一复杂,后面几乎没法治理。

Q3. 【你如何理解 Document、Node、Index 这三个抽象在工程上的意义?】

面试官为什么问这个问题:
这是判断候选人是否真正”用过索引体系”的关键问题。很多人只知道 Document,却说不清 Node 和 Index 的工程含义。

参考口语化回答:
在我看来,Document 是原始业务数据的载体,Node 是”可被推理的最小知识单元”,而 Index 是对 Node 的组织和访问策略。
如果 Node 切得不好,模型上下文就会失真;如果 Index 设计不合理,Agent 的行为会非常随机。这三个抽象,直接决定了 RAG 的稳定性。

Q4. 【为什么你认为 RAG 的核心问题不是”选哪个向量库”?】

面试官为什么问这个问题:
这是一个典型的”筛初级选手”的问题。只关注向量库的候选人,通常忽略了数据治理。

参考口语化回答:
向量库只是存储和相似度计算工具,本身并不解决数据质量问题。
我见过很多项目,向量库性能很好,但因为文档版本混乱、Chunk 设计不合理,最终生成的答案依然不可用。
真正决定 RAG 成败的,是数据是否被正确建模和索引。

Q5. 【你如何理解”LlamaIndex 的核心价值是把数据变成可推理对象”?】

面试官为什么问这个问题:
这是对候选人抽象能力的考察,看他是否能从工程层面总结 LlamaIndex 的价值。

参考口语化回答:
在没有 LlamaIndex 之前,数据只是”被喂给模型的上下文”。
而通过 Node、Index、Metadata 这些抽象,数据变成了”可以被控制、过滤、解释的推理对象”,Agent 的行为才第一次变得可管理。

第二层:核心技术能力(How)【8 题】

Q6. 【在什么场景下你会选择 Vector Index,而不是其他类型的 Index?】

面试官为什么问这个问题:
考察候选人是否理解不同 Index 的适用边界,而不是一味使用向量索引。

参考口语化回答:
Vector Index 适合”语义相似度”主导的问题,比如知识问答、经验类文档检索。
但如果是结构化决策或强逻辑场景,我通常会结合 Tree 或 Summary Index,否则模型很容易在语义相似但逻辑错误的内容上发挥。

Q7. 【Chunk 策略在你做过的项目中,对结果质量产生过哪些直接影响?】

面试官为什么问这个问题:
Chunk 是 RAG 中最容易被忽视、但影响最大的环节之一。

参考口语化回答:
Chunk 过大时,模型容易抓不到重点;过小时,语义被切碎,引用经常失真。
我在一个企业文档项目里,单是调整 Chunk 策略,就把错误引用率降低了接近一半。

Q8. 【你如何设计 Node 的 Metadata,来约束 Agent 的行为?】

面试官为什么问这个问题:
这是区分”会检索”和”会治理 Agent 行为”的关键问题。

参考口语化回答:
我会在 Node 里明确标注来源、版本、生效时间、业务域等信息。
Agent 在检索时不是”随便拿内容”,而是通过 Metadata 过滤掉不符合当前决策上下文的数据,这一点在金融和医疗场景非常关键。

Q9. 【Query Engine 和 Retriever 在你理解中,各自解决什么问题?】

面试官为什么问这个问题:
考察候选人是否理解 LlamaIndex 内部的职责分层。

参考口语化回答:
Retriever 负责”我能拿到哪些候选知识”,Query Engine 负责”这些知识怎么被组织成答案”。
如果把这两层混在一起,后续调优和问题定位会非常困难。

Q10. 【你是如何在 LlamaIndex 中做多阶段召回或过滤的?】

面试官为什么问这个问题:
这是在判断候选人是否做过复杂 RAG 场景。

参考口语化回答:
我通常先用粗粒度召回保证覆盖率,再通过 Metadata 和重排序模型做二次过滤。
这样 Agent 的回答既不会漏关键信息,也能减少噪声带来的幻觉。

Q11. 【LlamaIndex 在 Agent 中通常承担什么角色?】

面试官为什么问这个问题:
考察候选人是否真正做过”知识型 Agent”。

参考口语化回答:
在 Agent 体系里,LlamaIndex 更像是”可查询的长期记忆”。
Agent 的决策是否靠谱,很大程度上取决于它访问的这层知识是否稳定、可解释。

Q12. 【你如何处理数据更新带来的索引一致性问题?】

面试官为什么问这个问题:
这是一个典型的工程问题,很多 Demo 项目从未考虑。

参考口语化回答:
我一般会把数据更新和索引构建解耦,通过版本化索引来保证查询一致性。
否则一旦线上数据频繁变更,Agent 的行为会出现非常难定位的漂移。

Q13. 【在你的经验里,索引设计失误会带来哪些真实后果?】

面试官为什么问这个问题:
面试官希望听到”踩过坑”的真实经验。

参考口语化回答:
最直接的后果就是答案不稳定、引用错误,严重时会影响业务决策。
我见过因为索引设计问题,Agent 给出过期政策解释,差点引发合规风险。

第三层:工程化与系统能力【8 题】

Q14. 【你如何在索引构建成本和查询性能之间做权衡?】

面试官为什么问这个问题:
这是系统上线后必然要面对的问题。

参考口语化回答:
我会根据业务查询频率和数据变更频率做分层索引。
高频查询的索引提前构建,低频或实验性数据采用按需构建,避免无谓的成本浪费。

Q15. 【多索引、多数据源的情况下,你是如何组织和治理的?】

面试官为什么问这个问题:
考察候选人的系统设计能力。

参考口语化回答:
我会按照业务域拆分索引,并在上层通过统一的检索接口聚合。
这样每个索引都有清晰的责任边界,问题定位也更容易。

Q16. 【索引失效时,你如何设计回滚或降级策略?】

面试官为什么问这个问题:
这是典型的生产环境问题。

参考口语化回答:
我会保留历史索引版本,一旦新索引出现异常,可以快速切回。
同时在 Agent 层设置兜底逻辑,避免直接输出不可控结果。

Q17. 【你是如何治理幻觉和错误引用问题的?】

面试官为什么问这个问题:
这是所有 RAG 系统绕不开的问题。

参考口语化回答:
我不会只靠 Prompt,而是通过索引层限制可用数据范围,并强制返回引用来源。
当答案无法追溯时,我宁愿让 Agent 选择”不确定”。

Q18. 【LlamaIndex 在服务化部署中通常以什么形式存在?】

面试官为什么问这个问题:
判断候选人是否有完整上线经验。

参考口语化回答:
我一般会把 LlamaIndex 封装成独立的检索服务,通过 API 对 Agent 提供能力。
这样索引层和推理层解耦,维护成本会低很多。

Q19. 【你如何设计日志和 Tracing,来保证答案可追溯?】

面试官为什么问这个问题:
这是企业级系统非常看重的一点。

参考口语化回答:
我会记录检索到的 Node、Index 版本和最终使用的上下文。
一旦出现问题,可以快速复盘 Agent 当时”看到了什么数据”。

Q20. 【当 Agent 输出不符合预期时,你通常如何定位问题?】

面试官为什么问这个问题:
考察候选人的排障思路。

参考口语化回答:
我会先排查数据和索引,再看模型和 Prompt。
大多数情况下,问题出在数据质量或索引设计,而不是模型本身。

Q21. 【你如何评估一个 LlamaIndex RAG 系统是否”稳定可用”?】

面试官为什么问这个问题:
这是判断候选人是否具备工程视角的重要问题。

参考口语化回答:
我更关注一致性和可解释性,而不仅是命中率。
只要系统能稳定给出可追溯的答案,即使偶尔回答”无法确定”,也是可接受的。

第四层:真实项目与业务场景能力【6 题】

Q22. 【你在真实业务中用 LlamaIndex 解决过哪些”知识问题”?】

面试官为什么问这个问题:
这是验证候选人是否真正做过项目。

参考口语化回答:
我主要用它解决过企业内部知识检索和合规问答问题。
核心不是”回答快”,而是”回答对、能追责”。

Q23. 【在医疗或金融场景中,你对索引设计有哪些额外约束?】

面试官为什么问这个问题:
考察候选人对行业差异的理解。

参考口语化回答:
这些场景我会特别强调来源权威性和版本控制。
宁可少答,也不能用错数据。

Q24. 【你如何判断 RAG 效果差是模型问题还是数据问题?】

面试官为什么问这个问题:
这是非常典型的面试博弈点。

参考口语化回答:
我会先固定模型,反复验证检索结果。
如果检索内容本身就不对,换模型也解决不了问题。

Q25. 【在企业内部文档杂乱的情况下,你如何逐步提升 RAG 质量?】

面试官为什么问这个问题:
考察候选人的实际落地能力。

参考口语化回答:
我会先做数据分级,把高价值文档优先治理。
一步到位基本不现实,关键是建立可持续的治理机制。

Q26. 【你是如何降低幻觉带来的业务风险的?】

面试官为什么问这个问题:
这是企业非常关心的问题。

参考口语化回答:
我会通过索引约束、引用校验和人工兜底机制多层防护。
Agent 的目标不是”看起来聪明”,而是”不会出大错”。

Q27. 【你如何向业务方解释:这是数据问题,而不是模型问题?】

面试官为什么问这个问题:
考察候选人的沟通能力。

参考口语化回答:
我通常会用可追溯的检索结果给业务方看,让他们理解 Agent 依赖的数据本身存在缺陷。
一旦业务理解”数据才是核心资产”,合作会顺畅很多。

第五层:进阶与加分项(架构 / 视野)【3 题】

Q28. 【你如何在多 Agent 架构中做知识分工?】

面试官为什么问这个问题:
这是区分高级候选人的关键问题。

参考口语化回答:
我会为不同 Agent 绑定不同索引域。
每个 Agent 只访问自己”负责的知识”,整体行为会更可控。

Q29. 【你如何看待 LlamaIndex 与 LangGraph 的结合点?】

面试官为什么问这个问题:
考察候选人对复杂流程的理解。

参考口语化回答:
LlamaIndex 负责”我知道什么”,LangGraph 负责”我下一步怎么走”。
两者结合后,Agent 才真正具备工程级可控性。

Q30. 【从单一 RAG 项目到企业知识平台,你认为演进的关键是什么?】

面试官为什么问这个问题:
这是判断候选人”潜力上限”的问题。

参考口语化回答:
关键不在模型升级,而在数据治理体系是否建立。
一旦数据和索引可持续演进,Agent 能力只是自然结果。


第一层:基础认知(Why / What)【5 题】

Q31. 【你如何向新人解释:为什么 LlamaIndex 是”数据框架”,而不是”RAG 工具集”?】

面试官为什么问这个问题:
这是在考察候选人是否具备”向下解释”的能力。真正理解数据框架定位的人,才能讲清楚为什么 LlamaIndex 不等同于某几个 API 的组合。

参考口语化回答:
我一般不会从”能做什么”讲,而是从”为什么需要它”讲。
在真实业务里,数据来源杂、生命周期长,光靠 RAG 流程根本管不住。LlamaIndex 提供的是一整套数据抽象、索引和检索机制,让数据在工程上是可管理、可演进的,而不是一次性喂给模型。

Q32. 【如果不用 LlamaIndex,你认为 RAG 系统最容易失控的点在哪里?】

面试官为什么问这个问题:
这个问题在考察候选人是否经历过”没有数据框架支撑的 RAG 混乱期”。

参考口语化回答:
最容易失控的是”数据到底从哪来、现在用的是哪一版”。
一旦业务复杂起来,没有 Index 和 Node 这些抽象,大家只能靠约定和注释,最后 Agent 输出的问题根本没法追溯。

Q33. 【你如何理解 LlamaIndex 中”索引”与传统数据库索引的差异?】

面试官为什么问这个问题:
考察候选人是否能把 AI 系统和传统工程经验联系起来,而不是孤立理解。

参考口语化回答:
数据库索引解决的是”怎么更快查数据”,而 LlamaIndex 的索引解决的是”模型该看哪些数据、以什么结构看”。
它关注的是推理质量和上下文组织,而不仅是性能。

Q34. 【你是否遇到过”不建索引也能跑,但结果越来越差”的情况?】

面试官为什么问这个问题:
这是一个典型的经验型问题,用来判断候选人是否真正踩过坑。

参考口语化回答:
遇到过,而且一开始很难察觉。
系统还能跑,但回答开始前后矛盾、引用混乱,最后发现是数据堆在一起没有索引分层,Agent 实际是在”随机翻资料”。

Q35. 【在你看来,什么情况下”不该上 RAG / LlamaIndex”?】

面试官为什么问这个问题:
考察候选人是否具备边界意识,而不是”技术万能论”。

参考口语化回答:
如果数据规模小、变更少、逻辑强规则化,其实没必要上 RAG。
LlamaIndex 适合的是”知识复杂且长期演进”的场景,不是所有问题都需要。

第二层:核心技术能力(How)【8 题】

Q36. 【你在什么情况下会避免使用纯 Vector 检索?】

面试官为什么问这个问题:
用来区分”只会语义相似度”的候选人。

参考口语化回答:
当业务对逻辑顺序、章节结构或结论一致性要求很高时,我会避免只用 Vector。
因为语义相似不代表业务正确,这时候需要 Tree 或结构化索引辅助。

Q37. 【Node 设计不合理,通常会在 Agent 行为上体现为哪些问题?】

面试官为什么问这个问题:
这是一个从”数据设计”反推”Agent 行为”的问题。

参考口语化回答:
最常见的是回答跳跃、上下文断裂,甚至前后自相矛盾。
本质上不是模型胡说,而是 Node 本身就不具备完整语义。

Q38. 【你如何控制一次 Query 中,Node 被选中的”上限与下限”?】

面试官为什么问这个问题:
考察候选人是否真正调过 Query Engine,而不是默认参数一路跑。

参考口语化回答:
我会明确控制 Top-K,同时结合 Metadata 做硬过滤。
否则要么信息不足,要么上下文溢出,Agent 的稳定性会明显下降。

Q39. 【你如何理解 LlamaIndex 中”可组合检索策略”的价值?】

面试官为什么问这个问题:
这是在考察候选人对复杂检索场景的理解。

参考口语化回答:
真实业务的问题往往不是单一维度的。
通过组合检索策略,可以先保证覆盖,再逐步收敛,让 Agent 的决策更稳。

Q40. 【你是否做过”索引级别”的 A/B 测试?怎么做的?】

面试官为什么问这个问题:
这是中高级工程师才会考虑的问题。

参考口语化回答:
做过,我会并行维护两套索引结构,让同一问题走不同索引路径。
通过对比引用准确率和人工反馈,判断哪种索引更适合当前业务。

Q41. 【你如何在 LlamaIndex 中处理”强时效性数据”?】

面试官为什么问这个问题:
考察候选人是否考虑过数据生命周期。

参考口语化回答:
我通常会把时效性数据单独建索引,并设置明确的失效策略。
避免旧数据被模型当成”长期事实”。

Q42. 【当数据量持续增长时,你如何避免索引无限膨胀?】

面试官为什么问这个问题:
这是典型的长期运行系统问题。

参考口语化回答:
我会定期做索引裁剪和冷热分层。
不是所有历史数据都值得被模型频繁访问。

Q43. 【你是否在 LlamaIndex 中用过非文本数据?如何处理的?】

面试官为什么问这个问题:
考察候选人的数据视野是否局限在”文档问答”。

参考口语化回答:
用过结构化数据和 API 返回结果。
关键是先把它们转成语义清晰、可追溯的 Node,而不是直接拼字符串。

第三层:工程化与系统能力【8 题】

Q44. 【你如何评估一次索引重建是否”值得”?】

面试官为什么问这个问题:
这是典型的成本与收益权衡问题。

参考口语化回答:
我会结合数据变更幅度、当前错误率和业务风险来判断。
不是数据一变就重建,而是看是否真的影响决策质量。

Q45. 【多团队共用一套索引体系时,你如何避免”互相污染”?】

面试官为什么问这个问题:
考察候选人是否经历过多人协作场景。

参考口语化回答:
我会通过业务域隔离索引,并限制跨域访问。
否则一个团队的数据问题,很容易拖垮整个 Agent 系统。

Q46. 【你如何在生产环境中验证索引的”健康状态”?】

面试官为什么问这个问题:
这是偏 SRE 视角的问题。

参考口语化回答:
我会关注检索命中率、引用一致性和人工反馈。
如果这些指标异常,往往意味着索引已经偏离业务现实。

Q47. 【你是否遇到过索引正确,但答案仍然不可用的情况?】

面试官为什么问这个问题:
这是为了看候选人是否能区分不同层次的问题。

参考口语化回答:
遇到过,通常是 Query 组织或 Prompt 问题。
但前提是索引足够干净,否则根本无法判断问题在哪一层。

Q48. 【你如何设计”只读索引”与”可写索引”的边界?】

面试官为什么问这个问题:
考察候选人的系统治理意识。

参考口语化回答:
核心知识索引我通常设为只读,更新走严格流程。
动态数据才允许频繁写入,避免核心知识被无意污染。

Q49. 【当索引规模很大时,你如何保证 API 响应稳定?】

面试官为什么问这个问题:
这是生产环境的现实问题。

参考口语化回答:
我会做缓存、限流,并提前做结果预计算。
Agent 的稳定性,离不开底层检索服务的稳定性。

Q50. 【你如何在日志中区分”模型错误”和”索引错误”?】

面试官为什么问这个问题:
考察候选人的排障能力。

参考口语化回答:
我会把检索结果完整记录下来。
如果检索本身就错,那就是索引问题;否则才考虑模型和 Prompt。

Q51. 【你是否做过索引层面的权限控制?为什么要做?】

面试官为什么问这个问题:
这是企业级系统经常遇到的问题。

参考口语化回答:
做过,不同角色只能访问不同索引。
否则 Agent 可能在不该看到的数据上做决策,风险非常高。

第四层:真实项目与业务场景能力【6 题】

Q52. 【你是否经历过”业务不信任 Agent”的阶段?如何解决的?】

面试官为什么问这个问题:
考察候选人的真实落地经验。

参考口语化回答:
经历过,关键不是换模型,而是让答案可追溯。
一旦业务能看到数据来源,信任度会上升很多。

Q53. 【在数据质量很差的前提下,你如何”阶段性上线”RAG?】

面试官为什么问这个问题:
这是现实中非常常见的问题。

参考口语化回答:
我会先限定数据范围,只覆盖高质量子集。
与其全面但不准,不如小而稳。

Q54. 【你如何评估”这个 Agent 是否真的在用知识,而不是在猜”?】

面试官为什么问这个问题:
这是非常关键的判断能力。

参考口语化回答:
我会重点看引用内容是否与问题强相关。
如果引用牵强,说明 Agent 实际是在模型自由发挥。

Q55. 【在合规要求很高的场景,你如何限制 Agent 的回答边界?】

面试官为什么问这个问题:
考察候选人对风险的认知。

参考口语化回答:
我会通过索引层直接限制可用数据。
不在索引里的内容,Agent 根本接触不到。

Q56. 【你是否遇到过”业务问题变化快于索引更新”的情况?】

面试官为什么问这个问题:
这是非常真实的业务场景。

参考口语化回答:
遇到过,所以我会设计快速补丁索引。
先保证正确性,再逐步完善整体结构。

Q57. 【你如何判断一个 RAG 项目”已经到上限了”?】

面试官为什么问这个问题:
考察候选人的成熟度。

参考口语化回答:
当继续调模型和 Prompt 收益很低时,通常说明数据和索引已经是瓶颈。
这时候再不治理数据,只会原地打转。

第五层:进阶与加分项(架构 / 视野)【3 题】

Q58. 【你如何看待”知识即基础设施”这件事?】

面试官为什么问这个问题:
这是偏架构和视野的问题。

参考口语化回答:
在复杂企业里,知识本身就是基础设施。
LlamaIndex 提供的是让这套基础设施可演进的能力。

Q59. 【你认为未来 Data-centric Agent 的核心竞争力是什么?】

面试官为什么问这个问题:
用来判断候选人的长期潜力。

参考口语化回答:
不是模型多强,而是谁的数据治理能力更成熟。
Agent 只是数据能力的外在表现。

Q60. 【如果让你从零设计一个企业级知识 Agent,你最先做什么?】

面试官为什么问这个问题:
这是典型的”架构思维”问题。

参考口语化回答:
我会先梳理数据资产和索引边界,而不是选模型。
因为一旦数据结构定错,后面所有 Agent 能力都会受限。