探索LLM(大型语言模型)的本质
¥79.9
随着ChatGPT等大语言模型的爆发式发展,LLM技术已成为AI领域的重要突破。然而,多数从业者仅停留在应用层面,对Transformer架构、自注意力机制等底层原理缺乏系统认知,难以应对模型幻觉、长文本理解等实际问题。
为此,三节课特邀莫敏老师研发本课程。莫老师作为前腾讯高级产品经理、工信部AI认证讲师,深度参与多模态大模型落地实践,擅长将复杂技术原理转化为易懂知识。
课程将深入解析:Transformer的自注意力机制如何解决RNN的长程依赖问题;位置编码与词向量嵌入的协同工作原理;编码器-解码器结构在GPT、BERT等模型中的差异化应用。学员将通过案例,掌握LLM的核心工作机制与能力边界。
课程有效期:
自购买课程之日起 365 天,部分参与营销活动产品以活动规则为准,请同学在有效期内学习、观看课程。
上课模式:
课程采取录播模式,请注意自学课无班级微信群、班主任带班及助教批改服务。
注:自学课不支持退款,确保你是真的需要再进行报名,报完名之后还请认真学习。