大模型应用开发最佳实践和案例分析 - AI 工程化项目实战营

大模型应用开发最佳实践和案例分析 - AI 工程化项目实战营
    马上咨询


    讲师介绍

    讲师最近几年带队完成了数十个AI项目,内容不仅包括深度学习、机器学习、数据挖掘等具体技术要点,也包括AI的整体发展、现状、应用、商业价值、未来方向等,涵盖内容非常丰富。完成多个深度学习实践项目,广泛应用于医疗、交通、银行、电信等多个领域。从2020年推出的多门课程《AI大模型赋能行业应用与解决方案》《AI 大模型辅助软件研发管理与效能提升》和《AI大模型技术及开发应用实践》更是广受欢迎,已经为几十家企业培训,作为一名AI技术专家,对人工智能的理解深入透彻。他不仅精通AI的编程技术,还熟悉各种AI工具的使用,尤其在AI行业应用更是有着独特的见解和实践经验;自从2023年以来帮助多家研发中心做AI辅助开发效能提升咨询服务。同时也是微软人工智能认证架构师,阿里云AI人工智能训练师。在人工智能领域的深耕和创新,也得到了出版社的青睐,计划出版自己的著作。也在多家技术大会做AI技术应用讲座.

    为什么需要该课程

    大模型开发已进入工程化时代,仅会调API远远不够!企业需要能构建Agent智能体、RAG系统等落地应用的工程化人才。本课程聚焦实战,带你掌握LangChain、LangGraph等主流开发框架,从零搭建高可用AI系统,解决企业级场景中的复杂问题。

    • 为什么学?
      行业进入应用交付期,企业急需能快速集成大模型能力的开发者,招聘门槛显著提升,熟悉工程化框架已成核心要求。
    • 学什么?
      覆盖Agent设计、RAG优化、流程编排等实战技能,通过真实项目演练,让你具备从开发到部署的全链路能力。
    • 适合谁?
      希望进入大模型主力战场的中高级开发者,或需突破技术瓶颈的AI从业者。拒绝纸上谈兵,只教真功夫!

    本课程为大模型应用开发人员提供了一份清晰、全面的“可用知识”,带领大家快速了解DeepSeek和API,同时对比OpenAI和国内多个其他大模型(文心,智谱,千问等)的工作原理及优势,并在此基础上使用流行的编程语言构建大模型应用。通过课程,你不仅可以学会如何构建文本生成、问答和内容摘要等初阶大模型应用,还能了解到提示工程、模型微调、插件、LangChain,RAG,Agent等高阶实践技术。课程提供了简单易学的示例,帮你理解并应用在自己的项目中。

    你可以参加吗?

    各类软件企业和研发中心的程序员、软件设计师、架构师, 项目经理,架构师。

    本课程面向零基础LLM应用开发者,不需要了解复杂数学算法,机器学习原理,不需要之前学习过大模型知识。有Java,C#,C++等编程基础,最好有Python基础知识,但即使你对 Python 不太熟悉,也完全没有关系。课程主要阅读和讲解案例代码。


    课程内容安排(内容较多,预计多天时间,可以根据需求裁剪)
    第1章  AI产品思维和企业AI应用落地指南
    • 第一部分: AI企业落地案例与AI产品思维
      • 深入理解AI和应用
      • 深入理解AI产品思维
      • AI产品产业化和标准化
      • AI产品落地的价值与难题
      • 所有应用都值得被大模型重构一遍!-百度李彦宏
      • AI 2.0彻底改变社会:所有应用都可以被重写一次--李开复
      • 苹果 pad math notes的AI应用分析
      • 大模型企业落地场景-个人提效和企业流程改造
      • 智能问答系统
      • 智能客服系统
      • 智能问数和ChatBI
      • AI企业落地场景分析
    第2章  基于大模型API开发应用
    • 第一部分:大模型 API 应用开发(基于多种大模型API)
      • 国内大模型API-DeepSeek API
      • OpenAI大模型API
      • 模型参数Temperature 设置
      • 模型Token 
      • 大模型多轮对话
      • 大模型短期记忆和长期记忆
      • 大模型JSON Output
      • 大模型应用缓存
      • 案例分析
    • 第二部分: Prompt Engineering 高阶技巧
      • 思维链(Chain of Thought, CoT):
      • 引导模型逐步推理反思机制(Self-Reflection):
      • 让模型自己评估输出质量
      • 提示模板设计(Prompt Templates):Jinja2、LangChain Template
      • 支持外部工具调用提示设计(Tool Calling Prompt)
      • 动态 Prompt 生成:根据用户输入动态构造 Prompt
    • 第三部分: 大模型Function Calling最佳实践
      • 什么是 Function Calling?
      • 大模型如何与外部工具或 API 交互?
      • Function Calling 的应用场景(如数据查询、计算、外部服务调用等)。
      • Function Calling 的实现原理
      • Function Calling 的开发流程。
      • Function Calling 的代码示例
      • 使用 OpenAI API 实现 Function Calling 的示例代码。
      • 示例场景:天气查询、数学计算、数据库查询等。
      • Function Calling 的优化与调
      • Function Calling 的最佳实践案例分析
    • 第四部分: 基于多模态大模型的企业应用案例
      • 多模态大模型基本概念 
      • 多模态GPT多模态应用场景分析
      • OpenAI多模态API解析
      • 多模态大模型核心技术
      • 多模态提示模板工程
      • 多模态思维链
      • 多模态基础模型 
      • 多模态大模型的应用案例
      • 视觉问答应用案例
      • 图像问答应用案例
      • 某企业多模态案例
    • 第五部分:大模型API构建应用程序(多案例,灵活选择)
      • 应用程序开发概述
      • 案例项目分析
      • 项目1:构建新闻稿生成器
      • 项目2:语音控制
      • 项目3:企业管理系统MIS应用案例分析
      • 项目4:某企业智能管理系统
    第3章  基于LangChain框架开发应用
    • 第一部分: 模型应开发框架 LangChain 
      • ⼤模型应⽤开发框架 LangChain
      • LangChain基本原理与开发流程 
      • LangChain的核心组件:理解任务链与内存模块 
      • LangChain开发流程概述
      • 为什么需要 LangChain
      • LangChain 典型使⽤场景
      • LangChain 基础概念与模块化设计
      • LangChain 核⼼模块⼊⻔与实战
      • LangChain 的3 个场景
      • LangChain 的6 大模块
      • LangChain 的开发流程
      • 创建基于LangChain聊天机器人
    • 第二部分: LangChain核心组件-模型、模型类与缓存
      • 构建复杂LangChain应⽤
      • 模型的定义与应用 
      • 语言模型的工作原理 
      • Chat类、LLM类模型简介 
      • 完成基本文本生成任务 
      • 自定义LangChain Model类 
      • 模型参数的自定义与调优 
      • LangChain与缓存
      • 使⽤大模型构建文档问答系统
    • 第三部分: LangChain核心组件-:链 和记忆
      • LLM链 
      • LLM链的基本工作流程和参数设置 
      • 如何在LLM链中嵌入提示词模板和预处理逻辑 
      • 序列链 
      • 路由链 
      • 文档链 
      • 聊天消息记忆
      • 会话缓冲区与会话缓冲窗口
      • 会话摘要与支持向量存储
      • LangChain与表达式语言
      •  LCEL初探与流式支持 
      • LCEL并行执行优化
      • 回退机制的设计与实现
      • LCEL与LangSmith集成 
    第4章构建企业级RAG知识库
    • 第一部分:大模型企业RAG应用
      • RAG技术概述
      • 加载器和分割器
      • 文本嵌入和 向量存储
      • 检索器和多文档联合检索
      • RAG技术的关键挑战
      • 检索增强生成实践
      • RAG技术文档预处理过程
      • RAG技术文档检索过程
    • 第二部分: 构建基于DeepSeek RAG:实现检索增强生成
      • 何谓检索增强生成
      • 提示工程、RAG与微调
      • 从技术角度看检索部分的Pipeline
      • 从用户角度看RAG流程
      • RAG和Agent
      • 通过Llamalndex的ReAct RAG Agent实现检索
      • 将财报文件的数据转换为向量数据
      • 构建查询引擎和工具
      • 配置文本生成引擎大模型
      • 创建Agent以查询信息
    • 第三部分: RAG实战案例-企业文档问答系统
      • 企业文档问答需求分析与系统设计
      • 确定问答系统的需求:识别用户的主要查询类型与目标 
      • 系统结构与模块划分:明确检索与生成模块的协作方式 
      • 搭建向量数据库与检索模块 
      • 数据预处理与向量化:生成高效的嵌入向量 
      • 构建与优化索引:提升检索模块的查询速度 
      • 生成模块的集成与模型调优 
      • 加载与配置生成模型:选择适合问答系统的生成模型 
      • 模型优化与提示词调优:提高生成内容的准确性与相关性 
      • RAG系统测试、部署与优化 
      • 测试流程与性能监控:确保系统的稳定性与响应速度 
      • 企业环境的部署与上线:实现系统在实际业务中的应用
    第5章  基于大模型开发Agent智能体
    • 第一部分:大模型驱动的Agent智能体开发概述
      • 1. 智能体的定义与特点
      • 2. 智能体与传统软件的关系
      • 3. 智能体与LLM的关系
      • 4. 从ChatGPT到智能体
      • 5. 智能体的五种能力
      • 6. 记忆,规划,工具,自主决策,推理
      • 7. 多智能体协作
      • 8. 企业级智能体应用与任务规划
      • 9. 智能体开发
    • 第二部分: 基于LangChain构建Agent
      • 通过LangChain中的ReAct框架实现自动定价 
      • LangChain ReAct框架 
      • LangChain中ReAct Agent 的实现 
      • LangChain中的工具和工具包 
      • 通过create_react_agent创建Agent 
      • 深挖AgentExecutor的运行机制
      • Plan-and-Solve策略的提出 
      • LangChain中的Plan-and-Execute Agent 
      • 通过Plan-and-Execute Agent实现物流管理 
      • 为Agent定义一系列进行自动库存调度的工具
    • 第三部分: 多Agent 最佳实践langGraph框架
      • 为什么选择多智能体架构?
      • 常见的多智能体架构
      • LangGraph架构和应用
      • LangGraph 核心组件:节点与可控制性
      • 节点与可控制性-第一个LangGraph
      • 节点与可控制性-基本控制:串行控制&分支控制&条件分支与循环
      • 节点与可控制性-精细控制:图的运行时配置&map-reduce
      • LangGraph 核心组件:持久化与记忆
      • 记忆:短期记忆的实现&长期以及实现&使用总结技术优化记忆
      • LangGraph 核心组件:人机交互
      • LangGraph 核心组件:时光旅行
      • LangGraph 核心组件:流式输出
      • LangGraph 核心组件:工具调用
      • 基于LangGraph 构建代码助手
      • 基于LangGraph 的提示词生成小助手
    • 第四部分: CrewAI: 一款主流的多Agents开发框架
      • CrewAI架构和原理
      • CrewAI安装与第一个示例
      • CrewAI 核心组件讲解
      • CrewAI 核心组件:Agents
      • CrewAI 核心组件:Task
      • CrewAI 核心组件:Crew & flow
      • CrewAI 核心组件:知识库 & 记忆
      • 基于CrewAI 的游戏开发助手最近学习
      • 基于CrewAI 的营销策略大师
    • 第五部分: Agent智能体实战-智能邮件助理
      • 需求分析:邮件助手的核心功能与用户痛点 
      • 任务分类与优先级排序的需求分析 
      • 实现多任务邮件管理的技术架构 
      • 集成LLM处理自然语言邮件回复 
      • LLM在多轮对话中的语境保持 
      • 个性化与情感分析在邮件回复中的应用 
      • 模板化与自定义语句生成的实现设计 
      • 错误处理与异常情况的回复策略
      • 个性化优化:学习用户风格的邮件写作
      • 用户行为追踪与语言模型的训练优化
      • 自适应个性化邮件模板的设计与实现
    第6章基于低代码平台构建智能体
    • 第一部分: 基于低代码平台--字节Coze 构建智能体
      • Coze:零基础开发对话机器人
      • Coze功能概述
      • Coze基础能力
      • Coze插件
      • Coze工作流
      • Coze记忆库
      • 用工作流优化输出结果
      • 基于字节Coze构建开发软件开发智能体
      • 构建研发工程师agent案例
    • 第二部分: 基于低代码平台开源DIfy构建智能体
      • Dify:零基础开发对话机器人
      • Dify:功能概述
      • Dify:基础能力
      • Dify:插件
      • Dify:工作流
      • Dify:记忆库
      • 综合实战:基于Dify的数据库查询实现
      • Dify本地化与Agent各终点发布(网页嵌入、微信、API)
    第7章  MCP原理和实战案例
    • 第一部分: MCP原理与实战:高效AI Agent智能体开发
      • 什么是MCP 
      • MCP的起源与发展 
      • 掌握MCP的好处 
      • MCP的工作原理 
      • MCP的核心架构 
      • MCP的核心组件 
      • MCP与API的区别 
      • MCP与Function Calling的区别 
      • MCP与A2A协议的区别 
      • MCP的本地搭建 
      • MCP案例分析
      • 构建MCP案例
    第8章企业大模型落地和部署,微调
    • 第一部分: 大模型落地方案解析
      • 根据不同预算和企业规模选择合适的落地方案 
      • 使用公有云大模型 
      • 与外部厂商合作 
      • 内部微调大模型 
      • 大模型 + RAG 
      • 从 0 到 1 自研大模型 
      • 评估大模型落地整体预算投入 
      • 数据投入/ 算力投入
      • 技术投入/人力投入 
      • 衡量 AI 落地的投入产出比
    • 第二部分: 大模型落地全流程
      • 数据预处理 
      • 数据采集 
      • 数据标注 
      • 数据清洗 
      • 大模型评测 
      • 大模型与企业应用无缝衔接 
      • 部署上线 
      • 效果评估与数据反馈闭环 
      • 大模型迭代
    • 第三部分: 私有化部署DeepSeek大模型
      • DeepSeek云端部署
      • DeepSeek和国产信创平台适配
      • DeepSeek和国内云平台
      • 利用Ollama私有化部署DeepSeek大模型
      • 使用其他工具私有化部署DeepSeek大模型
      • DeepSeek私有化部署总结
    • 第四部分: DeepSeek大模型微调和蒸馏
      • DeepSeek 大模型微调
      • 大模型指令微调技术
      • 通用模型的缺点和指令微调的必要性
      • 指令微调跟BERT时代Fine-tune之间区别
      • 指令集的收集与格式化
      • 指令数据集文件制作
      • 大模型微调的三个阶段剖析
      • 大模型微调的两种方法剖析