Java知识分享网 - 轻松学习从此开始!    

Java知识分享网

        
AI编程,程序员挑战年入30~100万高级指南 - 职业规划
SpringBoot+SpringSecurity+Vue权限系统高级实战课程        

IDEA永久激活

Java微信小程序电商实战课程(SpringBoot+VUe)

     

AI人工智能学习大礼包

     

PyCharm永久激活

66套java实战课程无套路领取

     

Cursor+Claude AI编程 1天快速上手视频教程

     
当前位置: 主页 > Java文档 > 人工智能AI >

基于lora的llama2二次预训练 PDF 下载


时间:2025-04-19 10:12来源:http://www.java1234.com 作者:转载  侵权举报
基于lora的llama2二次预训练
失效链接处理
基于lora的llama2二次预训练  PDF 下载

 
 
相关截图:
 


主要内容:

一、为什么需要 对 llama2 做 基于lora的二次预训练?
加入中文训练语料进行llama2的二次预训练,这样模型就可以增加支持中文输出的能力。
 
二、基于lorallama2二次预训练 的目标是什么?
在保持预训练模型权重不变的情况下,通过添加额外的网络层并仅训练这些新增的网络层参数,实现大模型的高
效微调(peft)。
 
三、基于lorallama2二次预训练 的思想是什么?
思想:基于对模型本征维度(intrinsic dimension)的理解。
本征维度是指模型中真正有用的、能够影响模型输出的参数数量。
Aghajanyan研究发现,预训练模型的内在维度实际上非常小,即只有一小部分参数对模型输出有显著影响。就是
存在一个极低维度的参数,微调它和在全参数空间中微调能起到相同的效果
LORA假设模型在任务适配过程中权重的改变量是低秩(low rank
W=W0+ΔWΔW=BA
参数更新范围:只训练新增的网络层参数
 


 

------分隔线----------------------------


锋哥推荐