大模型平民化技术之LORA

1. 引言

在这篇博文中, 我将向大家介绍LoRA技术背后的核心原理以及相应的代码实现。

LoRA Low-Rank AdaptationLow-Rank Adaptors 的首字母缩写词,它提供了一种高效且轻量级的方法,用于微调预先训练好的的大语言模型。这包括 BERT RoBERTa 等掩码语言模型,以及 GPTLlamaMistral 等因果推断模型。

闲话少说,我们直接开始吧!

2. 优势分析

LoRA的主要优点之一是他们的效率。通过使用更少的参数,LoRA显著降低了模型训练过程中计算复杂性和显存使用量。这可以让我们在消费级的GPU上来训练大模型,并且可以便利地将我们训练好的LoRA权重(以兆为单位)分发给其他人。

此外,LoRA可以提升模型的泛化性。通过限制模型的复杂度,可以有助于防止在训练数据有限场景下的过拟合现象;由于LoRA至少保留了初始模型的能力,在处理一些新的,未见过的数据时更具有弹性。

最后,LoRA可以无缝地集成到现有的神经网络架构中。这种集成允许以最小的额外训练成本对预训练模型进行微调和调整,使其非常适合迁移学习应用。

3. 工作原理

LoRA 的基本思想是保持预训练矩阵(即原始模型的参数)冻结(即处于固定状态),并且只在原始矩阵中添加一个小的增量,其参数量比原始矩阵少很多。

例如,考虑矩阵 W,它可以是全连接层的参数,也可以是来Transformer中计算自注意力机制的矩阵之一:
在这里插入图片描述

显然,如果 Worig 的维数为 n×m,而假如我们只是初始化一个具有相同维数的新的增量矩阵进行微调,虽然我们也实现类似的功能,但是我们的参数量将会加倍。 LoRA使用的Trick就是通过训练低维矩阵 B A ,通过矩阵乘法来构造 ΔW ,来使 ΔW 的参数量低于原始矩阵。
在这里插入图片描述
这里我们不妨定义秩 r,它明显小于基本矩阵维度 r≪nr≪m。则矩阵 B n×r,矩阵 A r×m。将它们相乘会得到一个维度为 nxmW 矩阵,但构建的参数量减小了很多。

此外,我们希望我们的增量ΔW在训练开始时为零,这样微调就会从原始模型一样开始。因此,B 通常初始化为全零,而 A 初始化为随机值(通常呈正态分布)。

4. 举个栗子

我们不妨来看个直观的栗子,如下图所示:
在这里插入图片描述
想象一下,我们的基本维数是 1024,我们选择了 LoRA 的秩r为 4,则对于上述过程:
● 权重W的参数量为1024X1024≈1M
AB的参数量一致,均为rX1024≈4K,这样二者之和为8K
● 这样使用LoRA技术,在上述例子中我们仅仅需要训练0.8%的参数就可以更新我们的参数矩阵

5. LoRA指令速查

主要可查阅微软的官方文档Github: 戳我 , 由于封装的很好,目前该库页整合至 HuggingFace Parameter-Efficient Fine-Tuning (PEFT) 。

  • 如果模型要将特定层替换成 LoRA,需要调整模型的结构,但调用很简单:
# ===== Before =====
# layer = nn.Linear(in_features, out_features)
# ===== After ======
import loralib as lora
# Add a pair of low-rank adaptation matrices with rank r=16
layer = lora.Linear(in_features, out_features, r=16)
  • 在训练之前要把原本的LLM模型 Freeze 住,并且设定只有 LoRA 的参数是可训练的
import loralib as lora
model = BigModel()
# This sets requires_grad to False for all parameters without the string "lora_" in their names
lora.mark_only_lora_as_trainable(model)
# Training loop
for batch in dataloader:
  • 保存模型时也可以只储存LoRA所训练的权重,这特性将方便大家分享自己的权重
# ===== Before =====
# torch.save(model.state_dict(), checkpoint_path)
# ===== After =====
torch.save(lora.lora_state_dict(model), checkpoint_path)
  • 推理时读取 LoRA 或是原本 LLM 的权重时,要将 strict 设定为 False
# Load the pretrained checkpoint first
model.load_state_dict(torch.load('ckpt_pretrained.pt'), strict=False)
# Then load the LoRA checkpoint
model.load_state_dict(torch.load('ckpt_lora.pt'), strict=False)

6. SD-LoRA应用

近年来生成式 AI DALLE 再到 Stable-diffusion,都显示了现在的 AI 可以生成高质量以及高分辨率的图片,但是让人诟病的还是需要大量的运算资源才能够训练得了这种高分辨率的模型,因为要训练一个高分辨率的扩散模型是需要相当多内存的,即便 Stable-diffusion 将原本的 Pixel-level Diffusion 变成 Latent Diffusion Model 已经大幅降低训练的内存,但仍无法在单一张 11 GB 的 GPU 上训练,但现在不一样了,有人将 LoRA 技术整合到 Stable-diffusion,推出了 Stable Diffusion LoRA
在这里插入图片描述
整合 LoRAStable-diffusion 直接带来了以下的好处:

  • 训练快很多
  • 可在 11GB 显卡上直接进行训练
  • LoRA 权重的保存只有 3MB~200MB,易于分享

7. SD-LoRA更多资源

LoRA这项技术上的突破也使得Stable Diffusion 的社区多了许多生成模型,甚至可将模型上传至网站 CivitAI,可以看到上面有许多模型是使用 LoRA 进行训练的:

在这里插入图片描述
当然,网络上也有许多资源是使用 Colab 或是在个人 PC 上面生成/训练模型,最近 Stable diffusion 的社群已经开源相当多项目,并提供 GUI 界面,甚至不需要懂程序代码就可以训练好生成式 AI。

stable-diffusion-webui-colab

Kohya’s GUI, Support Windows

如果只是想来看看 Stable-diffusion 的人建议使用 WebUI,不仅能使用官方释出的模型,也可以直接登陆到 CivitAI,直接下载别人的训练好的生成模型:

在这里插入图片描述
在这里插入图片描述

8. 总结

共享大型的LLM模型是未来的趋势,如果要适应到某个具体任务上,只要训练LoRA模组即可,而这项技术也带来方便的替换性,未来大家只要分享LoRA的模型权重,就可以快速切换至不同的任务。

此外,LoRA通过大量降低训练参数,来大幅降低了硬体的训练门槛,并且与完全 Fine-tuning 的模型相比,推论速度的增加是相当少的。

9. 附录

本文重点参考链接如下:

[1] LoRA论文:戳我
[2] LoRA tutorial:戳我
[3] PEFT tutorial: 戳我
[4] Stable Diffusion Webui: 戳我
[5] ai-drawing: 戳我

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.hqwc.cn/news/486769.html

如若内容造成侵权/违法违规/事实不符,请联系编程知识网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

2024年面试季,大前端相关开发者不妨了解一下鸿蒙开发岗

搜狐:我宣布与华为达成鸿蒙全面合作! 美团:我宣布与华为达成鸿蒙全面合作! 360 :我宣布与华为达成鸿蒙全面合作! 高德:我宣布与华为达成鸿蒙全面合作! 新浪:我宣布与华为…

HubSpot出海营销的优势有哪些?

HubSpot在出海营销方面的优势可以更为详细地分析如下: 全球化功能支持: HubSpot的多语言支持和多地区适配功能,使得企业能够在不同国家和地区进行营销活动,而不必担心语言和文化差异的障碍。 通过全球化的模板和内容管理系统&a…

导入excel某些数值是0

目录 导入excel某些数值是0数据全部都是0原因解决 部分数据是0原因解决 导入excel某些数值是0 数据全部都是0 有一列“工单本月入库重量”全部的数据都是0 原因 展示的时候,展示的字段和内表需要展示的字段不一致,导致显示的是0。 解决 修改展示的字…

静态时序分析:SDC约束命令set_driving_cell详解

相关阅读 静态时序分析https://blog.csdn.net/weixin_45791458/category_12567571.html?spm1001.2014.3001.5482 在上文中,我们不建议使用set_drive命令而是使用set_driving_cell命令,这是一个描述输入端口驱动能力更精确的方法。因为大多数情况下&…

Unicode转换 [ASIS 2019]Unicorn shop1

打开题目 点击进去之后是一个购买独角兽的界面,有四种类型的独角兽,前三种的价格比较便宜,最后的独角兽价格比较贵。 我们先尝试购买前三种独角兽,输入id,然后price输入9 我们直接查看源代码 可以看到在charset"…

代理模式笔记

代理模式 代理模式代理模式的应用场景先理解什么是代理,再理解动静态举例举例所用代码 动静态的区别静态代理动态代理 动态代理的优点代理模式与装饰者模式的区别 代理模式 代理模式在设计模式中是7种结构型模式中的一种,而代理模式有分动态代理&#x…

LabVIEW高效核磁测井仪器多线程优化

LabVIEW高效核磁测井仪器多线程优化 为提高核磁测井仪器的测试效率与性能,开发了基于LabVIEW的多线程优化模型。该研究针对传统的核磁测井仪器软件,在多任务调度测试和并行技术需求上存在的效率不高和资源利用率低的问题,提出了一个多线程优…

《教育教学论坛》期刊是什么级别?是核心期刊吗?是C刊吗?

​标题解答 问:《教育教学论坛》版面费? 答:VX:JDQJDQ444 问:《教育教学论坛》是核心期刊吗? 答:不是核心期刊 问:《教育教学论坛》是正规期刊吗? 答:是正规期刊 …

SIP 会话发起协议

目录 会话发起协议 SIP SIP 系统的构件 SIP 的地址 SIP 特点 一个简单的 SIP 会话 会话描述协议 SDP 会话发起协议 SIP H.323 过于复杂,不便于发展基于 IP 的新业务。 会话发起协议 SIP (Session Initiation Protocol) 是一套较为简单且实用的标准&#xff0…

Linux调试器——gdb的基础使用

目录 1.背景 2.指令的使用 2.1gdb的使用和退出 2.2显示源代码 2.3运行程序 2.4调试 1.打断点 2.查断点 3.去断点 4.运行 5.关闭断点 6.启用断点 7.逐过程 8.进入函数 9.显示变量的值 1.背景 众所周知,我们的程序发布有两种,分别是debug模式和release模式…

关于git子模块实践(一)

背景 在日常项目开发中,随着项目的迭代,不可避免的是主项目会引入到很多三方库,或者自研的一些模块。有一种场景,就是这些模块,是随着开发而进行迭代,且多个项目公用的,这种情况,在…

关于在分布式环境中RVN和使用场景的介绍4

简介 在前面的文档中,我们介绍了RVN的概念,通过RVN可以解决的某类问题和使用技巧,以及处理RVN的逻辑的具体实现。在本文中,我们将要介绍关于如何使用RVN解决另一种在分布式系统中常出现的问题。 问题 假设我们创建了一个servic…