
資料內(nèi)容:
什么是機器學習
如果機器學習模型本身比較簡單,比如高中學到的線性函數(shù)
y=b+ wx
神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)單元是一個神經(jīng)元的模型,其只能進行簡單的計算。假設(shè)輸入數(shù)
據(jù)有2個維度(x1, x2),那么這個神經(jīng)網(wǎng)絡(luò)可以寫成:
y=σ(w1x1+w2x2+b)
LLMs 已經(jīng)具備了較強能力了,為什么還需要 RAG(檢索增強生成
Pano
pticon Streams
•盡管 LLM 已展現(xiàn)出顯著的能力,但以下幾個挑戰(zhàn)依然值得關(guān)注:幻覺問題:LLM 采用基于統(tǒng)計的概
率方法逐詞生成文本,這一機制內(nèi)在地導致其可能出現(xiàn)看似邏輯嚴謹實則缺乏事實依據(jù)的輸出,即所
謂的“鄭重其事的虛構(gòu)陳述” ;
•時效性問題:隨著 LLM 規(guī)模擴大,訓練成本與周期相應(yīng)增加。鑒于此,包含最新信息的數(shù)據(jù)難以融
入模型訓練過程,導致 LLM 在應(yīng)對時間敏感性問題時力不從心;
•數(shù)據(jù)安全問題:通用的 LLM 沒有企業(yè)內(nèi)部數(shù)據(jù)和用戶數(shù)據(jù),那么企業(yè)想要在保證安全的前提下使用
LLM,最好的方式就是把數(shù)據(jù)全部放在本地,企業(yè)數(shù)據(jù)的業(yè)務(wù)計算全部在本地完成。而在線的大模型
僅僅完成一個歸納的功能;