今天,我们来看看RNN、Encoder技术最终累积导向的成果:LLM(Large Language Model)大型语言模型

从RNN 到Transformer

这边稍微回顾一下深度学习模型架构:

  1. RNN(Recurrent Neural Network)
  • 特点:逐步处理序列资料
  • 问题:长距离的文字关系比较难捕捉、训练时间比较长
  1. Encoder–Decoder 架构
  • 应用:翻译、摘要等序列转换任务
  • 优点:分为Encoder(编码器)与Decoder(解码器)两个阶段
  1. Transformer
  • 能平行化运算(加快训练速度)

  • 擅长捕捉长距离关系

  • 核心:使用Self-Attention机制,同时考虑整句话的所有词。

  • 优点:

  • 搭配Positional Encoding,补足模型对「词序」的理解。

  • Transformer 是现代LLM 的大大基石。

Transformer 架构概述

Transformer 采用「编码器(Encoder)」与「解码器(Decoder)」结构。例如将英文句子“This is an example” 翻译成德文“Das ist ein Beispiel”:

编码器(Encoder):将输入文字转换成对应的嵌入向量(Embedding)。

解码器(Decoder):根据已翻译部分(如“Das ist ein”),逐步生成下一个字(“Beispiel”)。

为什么要用Self-Attention?

在Transformer论文,作者说明了Self-Attention 的动机与计算优势,并与CNN 进行比较。其一大优点是:Self-Attention 具备可解释性(Interpretability)。不同的注意力头(Attention Head)倾向捕捉不同层次的语法或语意结构,这让模型不仅能学习上下文关系,也能展现语意层面的理解。

Transformer 与GPT 架构的差异

GPT 架构仅采用Transformer 的Decoder 部分,不包含Encoder。

模型会在每次迭代时产生一个新字,并将其作为下一次的输入。

Attention 机制是什么?

简单来说,Attention 机制是让模型在处理输入Token 嵌入时,考虑上下文关系的方式。以句子“Your journey starts with one step” 为例,「journey」的语意会根据上下文改变:

若搭配“travel”,是「实际旅程」;

若搭配“one step”,则是「人生旅程」。

模型透过Attention 来「关注」这些关联,进而判断词义。

Attention 的数学基础

Attention 的核心计算是Query与Key向量的内积(dot product),代表两者的相似程度。再经过Softmax 正规化,得到对每个Token 的「注意力分数(Attention Score)」。最后将各Token 的Value 向量按权重加总,形成Context 向量,代表该词在整句中的语境意义。

Scaled Dot-Product Attention(缩放点积注意力)

实际论文中的Attention 计算采用「缩放点积注意力」:

这里的frac{1}/{sqrt{d_k}} 是为了防止维度过高造成Softmax 梯度消失,使模型更稳定。

Multi-Head Attention(多头注意力)

Transformer 并非仅使用一组Attention,而是同时并行多组Scaled Dot-Product Attention。这让模型能从不同的语意角度关注资讯,进而提升准确度。

Masked Attention(遮罩注意力)

在Decoder 阶段,模型需要「自回归(Autoregressive)」地生成文字。因此,当模型预测下一个字时,只能关注当前与过去的Token,而不能偷看未来的字。 这透过在Attention 中加入遮罩(mask)实现。

LLM 是什么?

LLM,全名为Large Language Model(大型语言模型),是基于Transformer 架构、使用巨量文字资料训练而成的模型。

不过,它的核心任务仍然是:「预测下一个词」。

这项看似简单的任务,却演变成如今非常非常强大的语言模型能力🤯

LLM 的几个关键要素

  1. 巨量参数(Parameters)
  • 模型规模从几百万个参数(RNN 时代)提升至数千亿个参数(GPT-5、Claude、Gemini 等)。
  • 每个参数都代表模型对语言的一种「微小的理解」。
  1. 庞大训练资料(Data)
  • 来源包括:维基百科、书籍、网页、对话、程式码等。
  • 目标是让模型学会语言规则、语意关系、常识知识。
  1. 强大的运算资源(Compute)
  • 利用GPU/TPU 进行数周甚至数月的训练。

LLM 的核心理念

虽然LLM 是「语言模型」,但它其实学到的不只是文字的规则。

在预测下一个词的过程中,模型同时学会了:

  • 语法结构:知道句子怎么组成。
  • 语意关联:理解不同词之间的语意距离。
  • 世界知识:从大量文本中归纳出事实与常识。
  • 推理能力:能在上下文中做出逻辑推断。

LLM 的强项与限制

  • 理解能力:LLM 能够处理复杂的语意与上下文,但是有时候还是会误解指令,像是我之前在请LLM 帮我产出一段程式码的时候,它说的跟它做的东西就是不一样,甚至一直鬼打墙😤。我相信大家应该多多少少都有遇过类似的情形…
  • 幻觉😵‍💫:LLM 虽然说有强大的能力,我们有想问的东西就会拿去给LLM 解答,但是有一点要注意的是LLM 可能会有Hallucination(幻觉)… 听起来很神秘吼,但其实这个幻觉就是在说LLM 可能会产出与事实不符的文字资讯。
  • 为什么会有这样的情况发生呢? ➔ 因为LLM 基本上是从海量的资料在学习文字的规律,并根据学习到的东西,依据机率来去预测下个字,也就是说,它并不是在学「正确」的东西,而只是从被喂进去的东西当中再找出规律性而已
  • 总而言之,很多人会以为LLM 提供的回答都是正确的,但是其实不尽然,因此这是要特别注意的地方哦~
  • 非即时资料:一般来说,在训练模型的资料并不会是即时更新的,它都是有一定的时间限制,因此若不搭配网页搜寻的功能,很有可能得到的资讯就会不是最新的

LLM 的相关应用

LLM 不只是单一模型,而是整个AI 生态链的核心。

以下为环绕LLM 的一些应用与技术,包括:

  • Chain-of-Thought(CoT):让模型「逐步推理」。
  • RAG(Retrieval-Augmented Generation):让模型「查资料再回答」。
  • Ollama:让使用者在本地执行开源模型,兼顾隐私与可控性。

其实还有很多很多的技术,这边就举这些为例。

​最后

我在一线科技企业深耕十二载,见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。

我整理出这套 AI 大模型突围资料包:

  • ✅AI大模型学习路线图
  • ✅Agent行业报告
  • ✅100集大模型视频教程
  • ✅大模型书籍PDF
  • ✅DeepSeek教程
  • ✅AI产品经理入门资料

如果你也想通过学大模型技术去帮助自己升职和加薪,可以扫描下方链接👇👇
​​
在这里插入图片描述

为什么说现在普通人就业/升职加薪的首选是AI大模型?

人工智能技术的爆发式增长,正以不可逆转之势重塑就业市场版图。从DeepSeek等国产大模型引发的科技圈热议,到全国两会关于AI产业发展的政策聚焦,再到招聘会上排起的长队,AI的热度已从技术领域渗透到就业市场的每一个角落。

img
智联招聘的最新数据给出了最直观的印证:2025年2月,AI领域求职人数同比增幅突破200% ,远超其他行业平均水平;整个人工智能行业的求职增速达到33.4%,位居各行业榜首,其中人工智能工程师岗位的求职热度更是飙升69.6%。

AI产业的快速扩张,也让人才供需矛盾愈发突出。麦肯锡报告明确预测,到2030年中国AI专业人才需求将达600万人,人才缺口可能高达400万人,这一缺口不仅存在于核心技术领域,更蔓延至产业应用的各个环节。

在这里插入图片描述

​​
在这里插入图片描述

资料包有什么?

①从入门到精通的全套视频教程

包含提示词工程、RAG、Agent等技术点
在这里插入图片描述

② AI大模型学习路线图(还有视频解说)

全过程AI大模型学习路线

在这里插入图片描述

③学习电子书籍和技术文档

市面上的大模型书籍确实太多了,这些是我精选出来的

在这里插入图片描述

④各大厂大模型面试题目详解

在这里插入图片描述

⑤ 这些资料真的有用吗?

这份资料由我和鲁为民博士共同整理,鲁为民博士先后获得了北京清华大学学士和美国加州理工学院博士学位,在包括IEEE Transactions等学术期刊和诸多国际会议上发表了超过50篇学术论文、取得了多项美国和中国发明专利,同时还斩获了吴文俊人工智能科学技术奖。目前我正在和鲁博士共同进行人工智能的研究。

所有的视频教程由智泊AI老师录制,且资料与智泊AI共享,相互补充。这份学习大礼包应该算是现在最全面的大模型学习资料了。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。

在这里插入图片描述
在这里插入图片描述

智泊AI始终秉持着“让每个人平等享受到优质教育资源”的育人理念‌,通过动态追踪大模型开发、数据标注伦理等前沿技术趋势‌,构建起"前沿课程+智能实训+精准就业"的高效培养体系。

课堂上不光教理论,还带着学员做了十多个真实项目。学员要亲自上手搞数据清洗、模型调优这些硬核操作,把课本知识变成真本事‌!

​​​​在这里插入图片描述
在这里插入图片描述

如果说你是以下人群中的其中一类,都可以来智泊AI学习人工智能,找到高薪工作,一次小小的“投资”换来的是终身受益!

应届毕业生‌:无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。

零基础转型‌:非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界‌。

业务赋能 ‌突破瓶颈:传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型‌。

👉获取方式:

😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓**

在这里插入图片描述

Logo

更多推荐