PyTorch实战——Bert应用实战
知识小课

PyTorch实战——Bert应用实战

  • 自然语言处理(NLP)

系统学习Transformer模型,掌握Bert模型应用

¥119.9
本课程包括
  • 2小时53分钟的视频随时观看
  • 可在APP随时观看
  • 结业证书
你将收获
  • 通过基于谷歌的开源项目,掌握BERT算法模型
  • 掌握Transformer基本模型
  • 学会算法核心内容,更快地调整代码得到结果
  • 学会当前主流的算法框架

数千家企业正在使用三节课企业版学习

无限制学习2000+门课程,200+精选学习专题

免费申请体验>
课程介绍

Transformer抛弃了传统的CNN和RNN,Transformer由且仅由self-Attenion和Feed Forward Neural Network组成。它使用了Attention机制,将序列中任意两位置之间的距离缩小为一个常量;其次它不是类似RNN的顺序结构,因此具有更好的并行性,符合现有的GPU框架。

课程细致讲解Transformer中的各个组成模块,并通过谷歌开源项目代码解读以及应用实例,帮助大家透彻理解Transformer的结构,及BERT训练方法,学会理论的同时,上手实践项目。

适合人群
  • 通过动手实践入门人工智能的爱好者
  • 人工智能入及相关研究方向的在校生
  • C++语言开发者、Python开发&计算机视觉工程师
讲师介绍
同济大学硕士,华东理工大学博士
擅长领域:
  • 人工智能认知与应用
  • 自然语言处理(NLP)
  • 机器学习
著有《跟着迪哥学Python数据分析与机器学习实战》,联通,移动,中信等公司特邀企业培训导师,全国高校教师培训讲师,开展线下与直播培训百余场,具有丰富的授课经验。
课程大纲
共0节 时长0分钟 全部收起
一、自然语言处理通用框架BERT原理解读
共11节 | 1小时16分钟
  • 1.BERT课程简介
    4分钟
  • 2.BERT任务目标概述
    4分钟
  • 3.传统解决方案遇到的问题
    9分钟
  • 4.注意力机制的作用
    5分钟
  • 5.Self-attention计算方法
    9分钟
  • 6.特征分配与softmax机制
    7分钟
  • 7.Multi-head的作用
    7分钟
  • 8.位置编码与多层堆叠
    6分钟
  • 9.Transformer整体架构梳理
    9分钟
  • 10.BERT模型训练方法
    8分钟
  • 11.BERT实例训练
    8分钟
二、谷歌开源项目BERT源码解读与应用实例
共11节 | 1小时16分钟
  • 1.BERT开源项目简介
    6分钟
  • 2.项目参数配置
    10分钟
  • 3.数据读取模块
    6分钟
  • 4.数据预处理模块
    7分钟
  • 5.Tfrecord制作
    9分钟
  • 6.Embedding层的作用
    6分钟
  • 7.加入额外编码特征
    7分钟
  • 8.加入位置编码特征
    4分钟
  • 9.Mask机制
    6分钟
  • 10.构建QKV矩阵
    9分钟
  • 11.完成transformer模块构建
    6分钟
三、基于Pytorch实战BERT模型
共4节 | 20分钟
  • 1.项目配置与环境概述
    5分钟
  • 2.数据读取与预处理
    4分钟
  • 3.网络结构定义
    5分钟
  • 4.网络模型训练
    6分钟
购课须知

课程有效期:

自购买课程之日起 365 天,部分参与营销活动产品以活动规则为准,请同学在有效期内学习、观看课程。

上课模式:

课程采取录播模式,请注意自学课无班级微信群、班主任带班及助教批改服务。

注:自学课不支持退款,确保你是真的需要再进行报名,报完名之后还请认真学习。