2024年政府工作报告提出“发展新质生产力”,并将其列为年度十大工作任务之首。新质生产力正在重塑社会生产运行的方式,为企业开辟一条通向高质量发展的道路。新质生产力的提出加速了企业数字化转型步伐,人工智能技术作为核心新质技术,正在赋能企业数字化转型。从2022年大语言模型ChatGPT的问世,到2024年的视频生成大模型Sora的推出,人工智能技术已发展到生成技术和多模态大模型阶段,成为每一位科技人才重点关注和研究的方向。
为积极响应科研及工程技术人员需求,落实人工智能战略部署,加快培养数字技术人才,中国人工智能培训网(http://www.chinaai.org.cn)、北京龙腾亚太教育咨询有限公司、北京龙腾智元信息技术有限公司特举办新质技术之第九期“生成式AI、大模型、多模态技术开发与应用研修班”。本次培训采用理论+实战培训模式,由北京龙腾亚太教育咨询有限公司承办并进行相关费用收取及发票开具。
具体通知如下:
2024年12月13日 — 2024年12月17日 杭州(同时转线上直播)
(13日报到发放上课材料,14日-17日上课)
各省市、自治区从事人工智能、自然语言处理、图像处理、视频处理、数据挖掘、无人机、无人车、无人艇、智慧城市、智慧医疗、智能装备、目标识别、轨迹规划、智慧交通等领域相关研究的企事业单位技术骨干、科研院所研究人员和大专院校相关专业教学人员及在校研究生等相关人员,以及生成式AI、大模型研究感兴趣的广大爱好者。
北京理工大学教授,国家自然基金委项目函审专家、国家重点研发计划评审专家、科技部项目评审专家、北京市自然科学基金/重点基金评审专家、博士点基金/博士后基金评审专家,国际期刊NLPR主编,以及其它期刊编委。目前主要从事自然语言处理、机器学习、模式识别、生成式AI、大模型、多模态方面研究。
1.了解AIGC发展现状与核心技术。
2.掌握Transformer核心开发技术。
3.掌握向量数据库的工作原理、检索算法、主要开源数据库。
4.掌握大模型调用、微调方法。
5.掌握以GPT大语言模型为基础的工作原理。
6.掌握AIGC技术在跨模态领域的应用技术。
7.了解GPT提示工程和AIGC的安全标准。
8.掌握基于大模型的编程开发技术。
9.掌握扩散模型核心技术。
10.掌握Agent构建技术。
A类、5980元/人(含培训费、资料费、场地费、平台使用费、午餐费、A类证书费)。
B类、8980元/人(含报名费、培训费、资料费、场地费、平台使用费、考试费、午餐费、A类B类证书费)
注:住宿可统一安排,食宿费用自理
1、培训费由组织培训班的施教机构负责收取并提供培训发票。
2、5人以上9折优惠,8人以上8.8折优惠。
3、B类证书费不享受优惠。
4、参加线上、线下培训学员均可享受视频录播回放权益,及本人再次免费参加线下同主题课程学习权益。
A类、参加相关培训并通过考核的学员,由北京龙腾亚太教育咨询有限公司颁发《生成式AI、大模型、多模态技术》培训结业证书。
B类、参加相关培训并通过考核的学员,由工业和信息化部教育与考试中心颁发《人工智能机器视觉应用》(高级)职业技能证书,可通过工业和信息化部教育与考试中心官方网站查询,并纳入工信部教育与考试中心人才库,该证书可作为有关单位职称评定、专业技术人员能力评价、考核和任职的重要依据。
注:报到时请提交电子版彩照(大于20KB,红蓝底皆可)、身份证复印件和学历证明复印件各一份。
1.指定报名邮箱:2196813614@qq.com。
2.报名成功后,会务组在报到前一周发具体报到通知及行车路线。
3.学员需自备能连网电脑一台。
| | | |
第一天上午 9:00-12:00下午 14:00-17:00 | | | 从经典机器学习到是深度学习 从Transformer到生成模型
|
| 生成对抗网络GAN 可变分自编码器VAE 自回归模型Auto-regression model 扩散模型Diffusion Model
|
| AIGC的定义和发展 AIGC技术的分类 AIGC技术框架
|
| 从ChatGPT到Sora的技术演进 大语言模型 视觉大模型 多模态大模型
|
| | |
| |
| 图像识别、检测与生成 视频理解与生成 3D生成 各类场景语音生成
|
第二天 上午 9:00-12:00下午 14:00-17:00 | | 一、Transformer模型的基本架构 二、Self-Attention机制的原理与计算过程
三、Multi-Head Attention的设计与作用 四、Positional Encoding的实现方法 五、Rotary Positional Embedding 六、Transformer中的Feed-Forward Networks 七、Layer Normalization的原理 八、Transformer模型中的残差处理 九、Teacher Forcing技术 十、编码器与解码器的结构差异 十一、视觉Transformer |
| | 1、全量微调FFT 2、部分参数微调PEFT
3、Prompt微调 4、Prefix微调 5、LoRA等微调方法 6、大语言模型微调开发 |
| 1、线性量化 2、非线性量化
3、饱和量化 4、非饱和量化 5、大语言模型微调量化开发 |
| |
| | 1、生成模型(扩散模型) 2、深度学习常用算法 3、人类反馈强化学习RLHF 4、典型大语言模型 |
| 1、提示词的基础知识 2、思维链 3、提示词实操:明确具体任务、利用上下文、使用不同的语气、角色扮演、zero shot,one shot,few shot、零样本思维链提示、生成知识提示 |
| |
| 1、AIGC标准体系 2、AIGC应用层标准 3、AIGC模型层标准 |
第三天上午9:00-12:00下午14:00-17:00 | | | 1、AIGC技术的记忆模块的功能和作用 2、向量数据库的功能与发展历程 3、各种向量数据库的对比 4、向量数据库发展展望 |
| 1、向量数据库原理 2、向量检索方法 3、向量数据库实操 |
| | 1、大语言模型开发框架 2、大语言模型开发框架的分层结构 3、大语言模型开发框架的模块与库函数 |
| 1、Agent工作原理 2、Agent模式 3、Agent开发步骤与工作流程 |
| 1、大语言模型与Agent结合开发方式 2、大语言模型Agent开发实例 3、构建一个智能体 |
第四天上午 9:00-12:00下午14:00-17:00 | | 一、前向扩散过程 二、反向生成过程 三、网格架构 四、参数化 五、采样方法 六、Stable Diffusion模型 七、Diffusion Transformer模型 |
| 一、CLIP框架 二、对比预训练 三、数据集分类器创建 四、Zero-shot推理 五、提示词工程与集成 |
| 一、Autoencoder 二、VAE模型原理 三、重参化 四、VAE与AE的区别 五、Spacetime Latent Representation |
| 一、Sora训练流程 二、patchify——视频数据转换为图像块 三、Scaling Transformer生成 四、Latent转换为视频变量 |
开发环境 | 操作系统:Ubuntu 开发语言:Python 深度学习框架:Pytorch 大语言模型:几种国产开源大语言模型 大语言模型开源微调、Agent开源框架
注:整个环境可在局域网内部署,学员连接云服务器(GPU 80G 显存)实操。 |