第一节:建模
我们将语言模型视为一个黑盒进行分析:
接着我们查看了大型语言模型的训练数据(例如,The Pile):
我们将彻底揭开语言模型的奥秘,探讨大型语言模型是如何构建的。
今天重点讨论两个主题,分词和模型架构。
分词
段落标题 分词回顾一下,语言模型
然而,自然语言并不是以词汇单元序列的形式出现的,而是以字符串的形式存在(具体来说,是 Unicode 字符的序列):
一个分词器将任何字符串转换为词汇单元序列。
这可能不是语言建模中最引人注目的部分,但在决定模型工作效果的好坏方面扮演着非常重要的角色。
按空格分割
段落标题 按空格分割最简单的解决方案是执行以下操作:
text.split(' ')
- 这种方法不适用于像中文这样的语言,因为中文句子中单词之间没有空格:
我今天去了商店。 [释义:I went to the store.]
-
然后是像德语这样有长复合词的语言(例如,Abwasserbehandlungsanlange)。
-
即使在英语中,也有带连字符的单词(例如,father-in-law)和缩写词(例如,don’t),这些都需要被分割。 例如,宾夕法尼亚树库将don’t分割为do和n’t,这是一个基于语言学的选择,但并不明显。
因此,通过空格来识别单词的分割是相当有问题的。
什么构成了一个好的分词?
- 我们不想要太多的词汇单元(极端情况下:字符或字节),否则序列变得难以建模。
- 我们也不想要太少的词汇单元,否则单词之间就不会有参数共享(例如,mother-in-law和father-in-law应该完全不同吗?)。 这在形态丰富的语言中尤其成问题(例如,阿拉伯语、土耳其语等)。
- 每个词汇单元应该是一个在语言学上或统计学上有意义的单元。
字节对编码
段落标题 字节对编码Sennrich 等人,2015 将原本用于数据压缩的 字节对编码 (BPE) 算法应用于分词器的生成,从而创造出了一种最常用的分词器。
学习分词器。 直觉:从每个字符作为自己的词汇单元开始,结合频繁共现的词汇单元。
- 输入:一个训练语料库(字符序列)。
- 初始词汇库
为字符集合。 - 当我们仍希望扩展
时: - 找出在
中共现次数最多的元素对 。 - 将所有
的出现替换为新符号 。 - 将
添加到 中。
- 找出在
示例:
- [t, h, e, ␣, c, a, r], [t, h, e, ␣, c, a, t], [t, h, e, ␣, r, a, t]
- [th, e, ␣, c, a, r], [th, e, ␣, c, a, t], [th, e, ␣, r, a, t] (th 出现 3 次)
- [the, ␣, c, a, r], [the, ␣, c, a, t], [the, ␣, r, a, t] (the 出现 3 次)
- [the, ␣, ca, r], [the, ␣, ca, t], [the, ␣, r, a, t] (ca 出现 2 次)
学习输出为:
- 更新后的词汇库
:[a, c, e, h, t, r, ca, th, the] - 我们所做的合并(对应用分词器很重要):
- t, h
th - th, e
the - c, a
ca
- t, h
应用分词器。 要对一个新字符串进行分词,按照相同的顺序应用合并:
- [t, h, e, ␣, o, x]
- [th, e, ␣, o, x]
- [the, ␣, o, x]
Unicode。
- 一个问题是(特别是在多语言环境中),存在大量(144,697个)Unicode字符。
- 我们当然不会在训练数据中看到所有字符。
- 为了进一步减少数据稀疏性,我们可以在字节上运行 BPE 而不是 Unicode 字符 (Wang 等人,2019)。
- 中文示例:
今天 [释义:today] [x62, x11, 4e, ca]
单字模型(SentencePiece)
段落标题 单字模型(SentencePiece)与仅仅根据频率进行分割不同,一个更“有原则”的方法是定义一个目标函数,以捕捉一个好的分词应该是什么样子。 我们现在来描述单字模型(Kudo, 2018)。
- 它是SentencePiece工具(Kudo & Richardson, 2018)支持的分词方法之一,与BPE并列。
- 它被用来训练T5和Gopher模型。
给定一个序列
示例:
- 训练数据(字符串):
- 分词
(词汇库 ) - 可能性:
。
算法:
- 从一个“足够大”的种子词汇库
开始。 - 重复以下步骤:
- 给定
,使用EM算法优化 和 。 - 计算每个词汇库中的词汇
的 ,捕捉如果从 中移除 ,可能性会减少多少。 - 根据损失排序,并保留
中前80%的词汇。
- 给定
分词器比较
段落标题 分词器比较- GPT-2 和 GPT-3 使用了 BPE 分词,词汇量为 50K。
- Jurassic 使用了 SentencePiece 分词,词汇量为 256K。
影响:
- 给定相同的字符串,Jurassic 需要的词汇单元比 GPT-3 少 28%,因此它的处理速度是 GPT-3 的 1.4 倍。
- Jurassic 和 GPT-3 都使用相同的上下文大小(2048),因此可以多输入 39% 的文本到提示中。
GPT-3 和 Jurassic 的分词示例(演示):
- GPT-3:[Ab, raham, ␣Lincoln, ␣lived, ␣at, ␣the, ␣White, ␣House, .]
- Jurassic:[Abraham␣Lincoln, ␣lived, ␣at␣the␣White␣House, .]
模型
段落标题 模型到目前为止,我们已经将语言模型定义为一系列词汇单元的概率分布
上下文嵌入。 作为先决条件,主要的关键发展是将一系列词汇单元与相应的上下文嵌入序列相关联:
- 如其名称所示,一个词汇单元的上下文嵌入取决于其上下文(周围的词);例如,考虑
。 - 符号表示:我们将
视为嵌入函数(类似于序列的特征映射)。 - 对于一个词汇单元序列
, 产生上下文嵌入 。
语言模型类型
段落标题 语言模型类型我们将语言模型的概念扩展为三种类型的模型。
仅编码器(BERT、RoBERTa 等)。 这些语言模型生成上下文嵌入,但不能直接用于生成文本。
这些上下文嵌入通常用于分类任务(有时大胆地称为自然语言理解任务)。
- 示例:情感分类
- 示例:自然语言推理
- 优点:上下文嵌入
可以双向地依赖于左侧上下文( )和右侧上下文( )。 - 缺点:不能自然地生成补全。
- 缺点:需要更多的临时训练目标(掩码语言建模)。
仅解码器(GPT-2、GPT-3 等)。这些是我们标准的自回归语言模型,
给定一个提示
- 示例:文本自动完成
- 缺点:上下文嵌入
只能单向地依赖于左侧上下文( )。 - 优点:可以自然地生成补全。
- 优点:简单训练目标(最大似然)。
编码器-解码器(BART、T5 等)。
这些模型在某些方面可以结合两者的优点:
它们可以使用双向上下文嵌入对输入
- 示例:表格到文本生成
- 优点:上下文嵌入
可以双向地依赖于左侧上下文( )和右侧上下文( )。 - 优点:可以自然地生成输出。
- 缺点:需要更多的临时训练目标。
预备知识 1
段落标题 预备知识 1现在我们来描述嵌入函数
接下来,我们将介绍语言模型的模型架构,特别强调无处不在的 Transformer 架构。 对 Transformer 架构的阐述将基于这些CS221教程关于可微编程的幻灯片, 并且会稍微偏离标准介绍方式。
深度学习之美在于能够创建构建模块,就像我们用函数构建整个程序一样。 因此,我们希望能够用以下这样的函数来封装复杂性:
这个函数将包含参数,为了简化,我们将在函数体中包含它们,但在函数签名中省略。
接下来,我们将定义一系列构建模块,直到我们得到完整的 Transformer。
预备知识 2
段落标题 预备知识 2首先,我们必须将词汇单元序列转换成向量序列。
定义
- 将序列
中的每个词汇单元 转换为向量。 - 返回
。
这些正是过去上下文无关的词嵌入。
我们定义了一个抽象的
定义
- 根据序列
中其他元素的处理,处理每个元素 。 - [抽象实现(例如,
, , )]
最简单的序列模型是基于前馈网络的 (Bengio 等人,2003) 应用于固定长度上下文,就像在 n-gram 模型中一样:
定义
- 通过查看最后
个元素来处理序列 中的每个元素 。 - 对于每个
: - 计算
。
- 计算
- 返回
。
循环神经网络
段落标题 循环神经网络第一个“真正”的序列模型是循环神经网络(RNN), 它是一个包括简单RNN、LSTM和GRU等模型的家族。 RNN的基本形式是递归地计算一系列隐藏状态。
定义
- 从左到右并递归地处理序列
并计算向量 。 - 对于
: - 计算
。
- 计算
- 返回
。
实际执行繁重工作的模块是
定义
- 根据新的观测
更新隐藏状态 。 - [抽象实现(例如,
, , )]
有三种实现
定义
- 基于简单的线性变换和非线性,根据新的观测
更新隐藏状态 。 - 返回
。
由于定义的RNN仅依赖于过去,但我们可以通过反向运行另一个RNN使它们依赖于未来。 这些模型被 ELMo 和 ULMFiT 使用。
定义
- 从左到右和从右到左处理序列。
- 计算从左到右:
。 - 计算从右到左:
。 - 返回
。
注意:
- 简单RNN由于梯度消失问题而难以训练。
- 长期短期记忆网络(LSTM)和门控循环单元(GRU)(两者都是
的实现)已被开发出来以解决这些问题。 - 尽管嵌入
可以任意远地依赖于(例如, ),但它不太可能以“清晰”的方式依赖于它 (有关更多讨论,请参阅 Khandelwal 等人,2018)。 - 在某种意义上,LSTM真正将深度学习带入了NLP的全盛时期。
为了节省时间,我们将不讨论这些模型。
Transformer
段落标题 Transformer现在,我们将讨论Transformer(Vaswani 等人,2017), 这种序列模型真正促成了大型语言模型的起飞; 它们是仅解码器(GPT-2, GPT-3)、仅编码器(BERT, RoBERTa)和编码器-解码器(BART, T5)模型的构建模块。
有关学习Transformer的资源非常丰富:
- 图解Transformer 和 图解 GPT-2: 非常直观的Transformer视觉描述。
- 带注释的Transformer: Pytorch 实现的Transformer。
强烈建议您阅读这些参考资料。 在本文中,我将力求走一条中间道路,强调伪代码函数和接口。
Transformer的核心是注意力机制, 它早期是为机器翻译开发的(Bahdananu 等人,2017)。
我们可以将注意力想象为一个“软”查找表,我们有一个查询
我们可以将每个
并通过另一个线性变换形成查询:
键和查询可以比较以给出一个分数:
这些分数可以被指数化并规范化,形成关于词汇位置
然后最终输出是对值的加权组合:
我们可以将这一切都简洁地写成矩阵形式:
定义
- 通过将
与每个 比较来处理 。 - 返回
。
我们可以想象有多个方面(例如,句法、语义)我们希望匹配。 为了适应性这一点,我们可以同时拥有多个注意力头,并且简单地组合它们的输出。
定义
- 通过
个方面将 与每个 比较。 - 返回
。
自注意力层。
现在我们将用
定义
- 将每个元素
与每个其他元素比较。 - 返回
。
前馈层。 自注意力允许所有词汇单元“相互交流”,而前馈连接提供:
定义
- 独立处理每个词汇单元。
- 对于
:- 计算
。
- 计算
- 返回
。
提高可训练性。
我们快要完成了。
我们理论上可以直接采用
残差连接。
计算机视觉中的一个技巧是残差连接(ResNet)。
而不是应用某个函数
我们添加一个残差(跳过)连接,这样如果
层归一化。 另一个技巧是 层归一化, 它接收一个向量并确保其元素也不要太 大:
定义
- 使每个
不太大也不太小。
我们首先定义一个适配器函数,它接受一个序列模型
定义
- 安全地将
应用于 。 - 返回
。
最后,我们可以简洁地定义Transformer块如下:
定义
- 在上下文中处理每个元素
。 - 返回
。
位置嵌入。
您可能已经注意到,根据定义,
一个词汇单元的嵌入并不取决于它在序列中的位置,
所以两个句子中的
为了解决这个问题,我们向嵌入中添加位置信息:
定义
- 添加位置信息。
- 定义位置嵌入:
- 偶数维度:
- 奇数维度:
- 偶数维度:
- 返回
。
GPT-3。 所有部分都就绪后,我们现在可以用一行定义大致的 GPT-3 架构, 只需将Transformer块堆叠 96 次:
架构的形状(1750 亿参数的分配方式):
- 隐藏状态的维度:
- 中间前馈层的维度:
- 头数:
- 上下文长度:
这些决策不一定是最优的。 Levine 等人,2020 提供了一些理论依据, 表明 GPT-3 太深了,这激发了训练更深但更宽的侏罗纪架构的动力。
不同版本的Transformer之间有重要但细节上的差异:
- 层归一化“后归一化”(原始Transformer论文)与预归一化(GPT-2),这影响训练稳定性(Davis 等人,2021)。
- 整个过程中应用了 Dropout 以防止过拟合。
- GPT-3 使用了 稀疏Transformer 来减少参数数量, 并将其与密集层交错。
- 根据Transformer的类型(仅编码器、仅解码器、编码器-解码器),使用不同的掩码操作。
- 当然,训练Transformer模型还涉及许多其他细节,我们将在下次讨论。
拓展阅读
段落标题 拓展阅读分词:
- 单词与字符之间:NLP中开放词汇建模和分词的简史。Sabrina J. Mielke, Zaid Alyafeai, Elizabeth Salesky, Colin Raffel, Manan Dey, Matthias Gallé, Arun Raja, Chenglei Si, Wilson Y. Lee, Benoît Sagot, Samson Tan。2021。 分词的全面调查。
- 使用子词单元对罕见词进行神经机器翻译。Rico Sennrich, B. Haddow, Alexandra Birch。ACL 2015。 将字节对编码引入NLP。被GPT-2, GPT-3使用。
- Google的神经机器翻译系统:弥合人类与机器翻译之间的差距。Yonghui Wu, M. Schuster, Z. Chen, Quoc V. Le, Mohammad Norouzi, Wolfgang Macherey, M. Krikun, Yuan Cao, Qin Gao, Klaus Macherey, J. Klingner, Apurva Shah, Melvin Johnson, Xiaobing Liu, Lukasz Kaiser, Stephan Gouws, Y. Kato, Taku Kudo, H. Kazawa, K. Stevens, George Kurian, Nishant Patil, W. Wang, C. Young, Jason R. Smith, Jason Riesa, Alex Rudnick, Oriol Vinyals, G. Corrado, Macduff Hughes, J. Dean。2016。 引入WordPiece。被BERT使用。
- SentencePiece:一种简单且语言独立的子词分词器和反分词器,用于神经文本处理。Taku Kudo, John Richardson。EMNLP 2018。 引入SentencePiece。
建模:
-
语言模型是无监督多任务学习者。 引入GPT-2。
-
注意力就是全部你需要的。Ashish Vaswani, Noam M. Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, Illia Polosukhin。NIPS 2017。
-
训练短,测试长:带有线性偏差的注意力使输入长度外推成为可能。Ofir Press, Noah A. Smith, M. Lewis。2021。 引入Alibi嵌入。
-
Transformer-XL:超出固定长度上下文的关注语言模型。Zihang Dai, Zhilin Yang, Yiming Yang, J. Carbonell, Quoc V. Le, R. Salakhutdinov。ACL 2019。 引入Transformer上的递归,相对位置编码方案。
-
使用稀疏Transformer生成长序列。R. Child, Scott Gray, Alec Radford, Ilya Sutskever。2019。 引入Sparse Transformers。
-
Linformer:具有线性复杂度的自注意力。Sinong Wang, Belinda Z. Li, Madian Khabsa, Han Fang, Hao Ma。2020。 引入Linformers。
-
用Performers重新思考注意力。K. Choromanski, Valerii Likhosherstov, David Dohan, Xingyou Song, Andreea Gane, Tamás Sarlós, Peter Hawkins, Jared Davis, Afroz Mohiuddin, Lukasz Kaiser, David Belanger, Lucy J. Colwell, Adrian Weller。ICLR 2020。 引入Performers。
-
高效Transformer:一项调查。Yi Tay, M. Dehghani, Dara Bahri, Donald Metzler。2020。
仅解码器架构:
- 语言模型是无监督多任务学习者。Alec Radford, Jeff Wu, R. Child, D. Luan, Dario Amodei, Ilya Sutskever。2019。 引入OpenAI的GPT-2。
- 语言模型是少样本学习者。Tom B. Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, J. Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, T. Henighan, R. Child, A. Ramesh, Daniel M. Ziegler, Jeff Wu, Clemens Winter, Christopher Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, Dario Amodei。NeurIPS 2020。 引入OpenAI的GPT-3。
- 扩展语言模型:训练Gopher的方法、分析和洞见。Jack W. Rae, Sebastian Borgeaud, Trevor Cai, Katie Millican, Jordan Hoffmann, Francis Song, J. Aslanides, Sarah Henderson, Roman Ring, Susannah Young, Eliza Rutherford, Tom Hennigan, Jacob Menick, Albin Cassirer, Richard Powell, G. V. D. Driessche, Lisa Anne Hendricks, Maribeth Rauh, Po-Sen Huang, Amelia Glaese, Johannes Welbl, Sumanth Dathathri, Saffron Huang, Jonathan Uesato, John F. J. Mellor, I. Higgins, Antonia Creswell, Nathan McAleese, Amy Wu, Erich Elsen, Siddhant M. Jayakumar, Elena Buchatskaya, D. Budden, Esme Sutherland, K. Simonyan, Michela Paganini, L. Sifre, Lena Martens, Xiang Lorraine Li, A. Kuncoro, Aida Nematzadeh, E. Gribovskaya, Domenic Donato, Angeliki Lazaridou, A. Mensch, J. Lespiau, Maria Tsimpoukelli, N. Grigorev, Doug Fritz, Thibault Sottiaux, Mantas Pajarskas, Tobias Pohlen, Zhitao Gong, Daniel Toyama, Cyprien de Masson d’Autume, Yujia Li, Tayfun Terzi, Vladimir Mikulik, I. Babuschkin, Aidan Clark, Diego de Las Casas, Aurelia Guy, Chris Jones, James Bradbury, Matthew Johnson, Blake A. Hechtman, Laura Weidinger, Iason Gabriel, William S. Isaac, Edward Lockhart, Simon Osindero, Laura Rimell, Chris Dyer, Oriol Vinyals, Kareem W. Ayoub, Jeff Stanway, L. Bennett, D. Hassabis, K. Kavukcuoglu, Geoffrey Irving。2021。 引入DeepMind的Gopher。
- Jurassic-1:技术细节和评估。Opher Lieber, Or Sharir, Barak Lenz, Yoav Shoham。2021。 引入AI21实验室的Jurassic。
仅编码器架构:
- BERT:用于语言理解的深度双向Transformer的预训练。Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova。NAACL 2019。 引入Google的BERT。
- RoBERTa:BERT预训练方法的鲁棒优化。Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, M. Lewis, Luke Zettlemoyer, Veselin Stoyanov。2019。 引入Facebook的RoBERTa。
编码器-解码器架构:
- BART:用于自然语言生成、翻译和理解的去噪序列到序列预训练。M. Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, Luke Zettlemoyer。ACL 2019。 引入Facebook的BART。
- 用统一的文本到文本Transformer探索迁移学习的限制。Colin Raffel, Noam M. Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, W. Li, Peter J. Liu。J. Mach. Learn. Res. 2019。 引入Google的T5。