课程简介
本课程聚焦 LLM 在软件研发领域的全场景应用,为技术研发者与管理者打造体系化学习路径。课程从基础到进阶,先详解 LLM 应用能力模型、提示词优化、RAG 与 SFT 等核心技术,明确其在研发全流程中的擅长与不擅长领域;再深入测试分析设计、软件研发各阶段(需求、编码、测试等)的 LLM 实践,提供从设计到代码、需求到测试用例的完整案例,同时覆盖个人开发自测效能提升技巧与企业级知识工程建设方法。此外,课 程还包含 AI 项目测评体系(数据验证、模型监测、伦理合规等)与 LLM 对技术管理的颠覆性影响内容,既解答技术选型、成本效益分析等实际问题,也警示大模型滥用的质量风险。通过理论讲解与大厂实战案例结合,帮助学员掌握 LLM 在研发全流程的落地方法,提升技术落地能力与团队管理水平,助力企业实现 AI 驱动的研发转型,破解传统研发效率瓶颈与 LLM 应用困境。
课程收益
时间安排 | |||||
Day1/Day2 | 课程时长 | 课程章节 | 详细章节内容 | 章节亮点 | 备注 |
Day19:00-- 12:00 | 1.5h | 第一部分: 面向技术研 发者的 LLM 体系化知识详解 | 1.LLM 应用能力的进阶模型(“倒三角”模型) 2.提示的万能使用公式详解 3.提示词的横向扩展和纵向扩展 4.提示词静态链的使用 5.提示词动态链的使用 6.思维链和多思维链 7.ReAct 的概念和落地 8.RAG 的基本原理与应用 9.模型微调 SFT 的利与弊 10.RAG 的利与弊 11.知识工程建设的必要性和核心思路 12.业界主流 Agent 的设计思路与使用 13.业界主流 Multi-Agent 的设计思路 14.MCP 协议的基本原理 15.Manus 的基本原理 | 为学员系统构建完整的 LLM 知识框架,涵盖 “能力模型 - 提示词 -核心应用方案 - Agent 设计 - 协议原理” 五大 模块,为研发者提供从理论到落地的全流程 LLM 应用系统指导。 | 如果 前期 没有 系统 培训 过大 模型 基 础, 建议 保留 |
1.5h | 第二部分: 测试分析与 设计应用 LLM的最佳 实践 | 1.测试分析的技术维度与分类 2.利用LLM的测试点获取方式 3.测试点不等于测试用例 4.测试点的LLM再加工 5.测试用例的粒度控制 6.利用LLM实现测试用例设计的文档化 7.敏捷业态下LLM辅助的测试用例设计 8.测试设计中需求确认与细化 9.基于LLM的探索式测试的正确打开方式 | 如何利用LLM进行测试 点提取、用例设计与文 档化, AI辅助需求分析 与细化,提升测试分析 的效率与覆盖度。 | ||
Day113:30-- 16:30 | 3h | 第三部分: LLM在软件 研发全流程 中的应用 | 1.软件研发全流程中LLM擅长的部分 2.软件研发全流程中LLM不擅长的部分 3.需求分析阶段LLM的应用场景与案例 4.技术选型阶段LLM的应用场景与案例 5.顶层设计阶段LLM的应用场景与案例 6.详细设计阶段LLM的应用场景与案例 7.从设计到UML,从UML到代码的完整示例 8.编码阶段LLM的应用场景与案例 9.代码评审阶段LLM的应用场景与案例 10.从需求到测试点,从测试点到测试用例的完整实 践 11.单元测试阶段LLM的应用场景与案例 12.接口测试阶段LLM的应用场景与案例 13.GUI测试阶段LLM的应用场景与案例(UAT) 14.持续集成流水中LLM的应用场景与案例 15.各类软件工程文档中LLM的应用场景与案例 16.持续发布中LLM的应用场景与案例 17.性能测试阶段LLM的应用场景与案例 18.测试结果分析中LLM的应用场景与案例 | 1.明确 LLM 在软件研发 全流程中的擅长与不擅长领域,清晰其能力边界; 2.覆盖研发各阶段(需 求、选型、设计、编码 、测试、发布等)LLM 应用场景与案例,含设 计到代码、需求到测试 用例等完整实践,助力 研发提效 | |
Day2 9:00-- 12:00 | 3h | 第四部分: LLM在软件 质量与测试 领域中的应 用与案例 | 1.使用Testpilot自动生成测试用例 2.Testpilot的基本原理 3.使用OpenAIAPI实现单元测试用例的生成 4.LLM用于单元测试用例生成的技术难点与解决思 路 5.使用OpenAIAPI实现API接口测试用例的生成 6.使用DeepSeek实现API组合调用测试用例的生成 7.LLM在测试数据生成领域的应用与实践 8.LLM用于API接口测试用例生成的技术难点与解决 思路 9.测试脚本开发中的GitHubCopilot应用 10.CopilotX的能力与测试领域应用 11.使用langchain完成AI测试方案开发的完整流程 12.使用Dify实现智能体开发的完整流程 13.基于AIAgent的测试用例设计生成技术 14.基于AIAgent的测试用例脚本生成技术 15.基于Multi-Agent的测试用例设计生成技术 16.基于Multi-Agent的测试用例脚本生成技术 17.使用LLM实现MonkeyTest的能力扩展 18.使用LLM实现无脚本的MobileApp探索测试 19.使用LLM识别错误敏感的测试数据 20.使用LLM实现失败测试用例的自动修复 21.使用LLM提升被测对象的可测试性 | 通过Testpilot、 Copilot、LangChain等测试AI工具实战,演 示LLM在测试用例生成 、接口测试、脚本开发 与自动修复等方面的应 用。 |
Day213:30-- 16:30 | 1h | 第五部分: 个人开发与 自测试阶段 的研发效能 提升实践 | 1.个人开发环境的效能提升 2.基于AI精准提升的代码输入效率提升 3.本地编译加速的常用手段 4.代码静态质量的前期把控 5.代码动态质量的前期把控 6.静态代码规范的落地实践 7.单元测试的适用范围 8.单元测试的自动生成技术原理解读 9.代码覆盖率统计与质量门禁 10.开发者自测的行业实践 11.自测环境的管理与提效 12.如果用好本地CI流水线 13.本地CI流水线效能优化的方方面面 14.本地开发质量门禁能力建设与工具案例 15.第三方依赖库的管理与效能提升 16.独家干货:互联网大厂实战案例分享 | 聚焦个人生产力提升、 覆盖AI 编码、本地编译 、第三方依赖库等提效手段;覆盖代码静态 /动态质量把控、规范落地、单元测试(范围 /生成 / 覆盖率)、自测管理等质量保障要点, 以及本地 CI 流水线 (使用 / 优化)、质量 门禁建设(工具案例) | |
2h | 第六部分: 企业级知识 工程能力建 设的最佳实 践 | 1.知识工程的数据来源 2.软件工程场景下的知识来源 3.知识的分类与处理手段 4.显性知识和隐性知识 5.显性知识的处理 6.隐性知识的显性化 7.设计知识的降维处理与实践 8.切片算法选择考虑的因素 9.嵌入算法的选型 10.知识召回率低的分析方法与改进措施 11.知识工程在研发场景下的各类应用与产品形态设 计 12.复盘流程与产出结果如何与LLM结合 13.复盘流程详解 14.复盘闭环行动如何与全流程质量环节结合 15.LLM在复盘场景的应用与详细案例解读(基于代码实现和设计问题展开) | 知识工程和上下文工程 在AI提质增效场景的重 要性:数据 / 知识来 源,讲解知识分类、显 隐性知识处理及设计知 识降维实践;覆盖切片 / 嵌入算法选型,提供知识召回率低的分析改 进方法,及研发场景下 知识工程的应用与上下 文工程 | ||
可选择部分 | 2h | 第七部分: AI项目测评 与评测(可选部分) | 1.AI项目的测试与评测 2.数据质量验证与预处理规范 3.业务指标与模型目标对齐策略 4.基线模型建立与性能对比 5.模型漂移与差异监测机制 6.多维度评估指标设计 7.对抗样本与边界用例测试方法 8.偏见与公平性检测框架 9.模型可解释性与决策追溯实践 10.A/B测试与渐进式部署策略 11.领域专家人工评估流程 12.版本迭代与回滚预案制定 13.伦理合规与安全审计要点 | AI产品的全局质量保障 建立:覆盖数据层(质 量验证 / 预处理)、模 型层(基线建立 / 多维 度评估 / 漂移监测)、测试层(对抗样本 / 边 界用例 / 专家评估)的 全流程评测体系,提供 业务与模型目标对齐、可解释性实践、A/B 测 试等落地方法,配套版 本迭代 / 回滚预案与本 地 CI 适配策略 | 可选 择 |
1h | 第八部分: LLM 对技术管理的颠 覆性影响 (可选部 分) | 1.传统研发团队 vs. 大模型驱动型团队 2.从需求分析到模型调优的全周期变化 3.敏捷开发与大模型迭代的融合 4. LLM 应该给哪个层次的工程师使用 5.算力、数据、人才三大核心资源的管理策略 6.成本效益分析:微调 vs. RAG 7.成本效益分析:私有化部署 vs. API 调用 8. 研发场景下大模型的滥用带来的质量问题 9. LLM 带来架构腐化和一致性恶化的问题 | 明确大模型使用策略,提供算力、数据、人才 三大核心资源管理策 略,对比微调与 RAG、 私有化部署与 API 调用 的成本效益,以及长期主义下的技术债务问题 | 可选 择 |