Python知識分享網(wǎng) - 專業(yè)的Python學習網(wǎng)站 學Python,上Python222
基于lora的llama2二次預訓練 PDF 下載
匿名網(wǎng)友發(fā)布于:2025-04-19 10:09:43
(侵權舉報)
(假如點擊沒反應,多刷新兩次就OK!)

基于lora的llama2二次預訓練  PDF 下載 圖1

 

 

資料內容:

 

 

一、為什么需要 對 llama2 做 基于lora的二次預訓練?
加入中文訓練語料進行llama2的二次預訓練,這樣模型就可以增加支持中文輸出的能力。
 
二、基于lorallama2二次預訓練 的目標是什么?
在保持預訓練模型權重不變的情況下,通過添加額外的網(wǎng)絡層并僅訓練這些新增的網(wǎng)絡層參數(shù),實現(xiàn)大模型的高
效微調(peft)。
 
三、基于lorallama2二次預訓練 的思想是什么?
思想:基于對模型本征維度(intrinsic dimension)的理解。
本征維度是指模型中真正有用的、能夠影響模型輸出的參數(shù)數(shù)量。
Aghajanyan研究發(fā)現(xiàn),預訓練模型的內在維度實際上非常小,即只有一小部分參數(shù)對模型輸出有顯著影響。就是
存在一個極低維度的參數(shù),微調它和在全參數(shù)空間中微調能起到相同的效果
LORA假設模型在任務適配過程中權重的改變量是低秩(low rank
W=W0+ΔW,ΔW=BA
參數(shù)更新范圍:只訓練新增的網(wǎng)絡層參數(shù)