AI智能化软件测试方法与实践(2天) --贯穿案例、演示与上机实践

AI智能化软件测试方法与实践(2天) --贯穿案例、演示与上机实践
    马上咨询

    讲师简介

    杰克老师,毕业于清华大学软件学院

    • 具有20年IT项目实战经验,6年AI经验,3年大模型应用经验,10年技术团队管理经验,涉及互联网金融与银行项目,敏捷项目管理,DevOps工具链研发等。包括金融系统、广告系统、企业信息化、企业互联网应用,AI技术与应用等。
    • 有17年培训授课经验。任多届中软技术大会、TID大会出品人,特约专家讲师,QCon  DevOps专家讲师。
    • 曾任某互联网公司AI研究院质量与工程效率负责人,带领50人团队负责人工智能产品工程效率工具链研发等工作。
    • 技术上主要擅长AI大模型赋能落地,自动化与敏捷开发/测试,持续集成环境构建,Scrum团队管理,DevOps和工程效率工具链研发等。
    • 管理上主要擅长团队梯队化建设,团队激励,绩效管理,规则与制度建立,高效沟通等。
    • 曾获得阿里达摩院人工智能训练师(高级),AWS云计算架构师,PMP,ISTQB,国家软件评测师,6 Sigma GB等多项认证。
    • 拥有17项目国家技术发明专利(第一发明人),涉及AI算法、效能等。


    课程优势

    1. 课程所涉及软件全部开源,且可离线私有化部署,保护企业数据安全
    2. 动手上机实践,带领学员搭建AgentLLM体系
    3. 结合企业实际痛点与业务需求,结合大模型技术,给出解决方案


    培训对象

    • 适合人员:初中高级测试工程师、测试架构师、自动化测试开发人员、测试组长、测试经理、SQA人员。
    • 学员基础:具备一定测试基础知识。


    课程大纲
    AI智能化软件测试典型问题分析与讨论 ~ 0.5小时
    • AI智能化软件测试典型问题分析
      • 问题分析
      • 讨论
    GUI AI智能化测试实践~ 1.5小时
    • GUI测试自动化要点
      • 元素识别与定位多种方法
      • 断言多种方法
      • 并行化分发测试-多机并行化同构设备分发实现
      • 并行化兼容测试-多机并行化异构设备全量实现
      • 自动化适配-因UI变更自动匹配更新用例
      • 自动化图像匹配-图像对比与搜索
      • 自动化用例rerun和步骤retry
      • 失败结果自动化录屏
      • 自动化结果多级反馈
      • 实现无人值守的自动化测试
    • Sikuli工具应用
      • Sikuli工具简介
      • Sikuli的应用场景
      • 图像抓取
      • 用例描述
      • 自动化执行
    • AI图像目标检测
      • AI Yolo模型简介
      • 图像标注
      • 模型训练
      • 效果评测
      • 模型推理
      • Badcase分析
      • 模型优化
    大模型本地化部署与提示词工程 ~ 1.5小时
    • OLIama部署应用
      • OLIama简介
      • 模型参数
      • 网络安全隔离
      • 部署OLIama环境
      • OLIama常用操作命令
      • 离线模型CLI接口
      • 模型API接口
      • UI调试界面
      • 【案例】实现离线大模型人机对话
    • 提示词工程
      • 什么是提示词工程?
      • 优化的上下文提示词
      • 【案例】提示词返回精准答案
    • 提示词库与脚本调用大模型
      • 维护提示词库
      • 关键词匹配
      • 开发脚本调用大模型
      • 【案例】一键式调用大模型
    • 上机实践
      • 提示词优化练习
      • 运行一键式调用大模型
    智能体Dify部署与RAG应用~ 2.5小时
    • Agent概念与典型架构
      • AI Agent 概述
      • 感知层
      • 决策层
      • 执行层
      • 学习与记忆层
      • 安全与伦理层
    • Dify概述与主要功能
      • Dify平台概述
      • Dify的核心功能与优势
      • Dify与其他平台对比
      • 低代码/无代码开发模式
    • 上机实践
      • 部署Dify环境
      • 启动Dify
      • 从应用模版创建
      • 创建Agent
      • 选择大模型
      • 创建聊天助手
      • 创建工作流
    • RAG概述
      • 什么是RAG
      • RAG 架构
      • 检索模块
      • 生成模块
      • 融合模块
    • 构建本地知识库
      • 什么是知识库
      • 向量数据库
      • 使用Embedding模型将文本转换为数值向量
      • 导入文本
      • 连接外部知识库
      • 调试与优化RAG效果
    • 上机实践
      • 导入本地知识库
      • 创建AI agent
      • 基于RAG实现智能对话
    大模型实现AI智能化测试实践 ~ 6小时
    • 大模型在全局质量中应用
      • 大模型在全局质量中应用
      • 生成Jenkins groovy脚本构建CI pipeline
      • 【案例】需求文档->业务代码->自动化测试代码的全链路生成
    • 大模型用于缺陷检测与代码审查
      • Code review概述
      • Code review结果解析
      • Code review结果推送
      • 【案例】进行自动化code review
    • 大模型用于白盒测试代码自动化生成
      • 大模型生成白盒测试代码
      • 进行自动化白盒测试执行
      • 【案例】白盒测试集成至CI流水线
    • 大模型用于研发自测自动化用例生成
      • 生成自动化测试脚本
      • 【案例】大模型自动生成自动化用例
      • 【案例】自动化用例集成至CI流水线
    • 大模型用于测试数据生成
      • 数据遍历
      • 【案例】大模型根据规则生成测试数据
      • 【案例】图像测试数据生成
      • 【案例】语音测试数据生成
    • 大模型用于手工测试用例生成
      • 需求文档输入
      • 代码输入
      • 【案例】大模型生成手工测试用例
      • 【案例】Dify多模型专家系统生成测试用例
      • 【案例】测试用例自动保存至excel
    • 大模型用于测试用例评审
      • 测试用例评审维度
      • 生成提示词
      • 【案例】大模型进行手工测试用例评审与补全
    • 大模型用于接口自动化测试用例生成
      • 接口文档输入
      • 代码输入
      • 接口自动化测试用例生成提示词
      • 【案例】大模型生成接口自动化测试脚本
    • 大模型用于UI自动化测试用例生成
      • 测试用例输入
      • 优化提示词
      • 【案例】大模型生成selenium自动化测试用例脚本
      • 【案例】大模型生成uiautomator自动化测试用例脚本
    • 大模型用于代码质量评估
      • 代码质量评价维度
      • 开发代码质量评估脚本
      • 【案例】实现提交代码分钟级质量评估反馈
    • 上机实践
      • 基于本地大模型与Dify完成上述案例
    课程总结与答疑 ~ 0.25小时