omniture

源2.0大模型適配LLaMA-Factory框架 微調訓練快捷高效

2024-01-18 18:01 4347

北京2024年1月18日 /美通社/ -- 近日,2.0開源大模型與LLaMA-Factory框架完成全面適配,用戶通過LLaMA-Factory,即可快捷、高效地對不同參數規(guī)模的源2.0基礎模型進行全量微調及高效微調,輕松實現專屬大模型。


LLM(大語言模型)微調,是指在大模型的基礎上,針對特定任務或領域進行調整和優(yōu)化,以提升模型的性能和表現,有效的微調方案與工具也正是解決基礎大模型落地私有領域的一大利器。基于開源大模型的微調,不僅可以提升LLM對于指令的遵循能力,也能通過行業(yè)知識的引入,來提升LLM在專業(yè)領域的知識和能力。

當前,業(yè)界已經基于LLM開發(fā)及實踐出了眾多的微調方法,如指令微調、基于人類反饋的強化學習(RLHF,Reinforcement Learning from Human Feedback)、直接偏好優(yōu)化(DPO,Direct Preference Optimization)等。以高效微調(PEFT,Parameter-Efficient Fine-Tuning)方案為例,可有效解決內存和計算資源的制約,通過LoRA、QLoRA等高效微調技術,在單張GPU上完成千億參數的微調訓練。因此,一個能夠實現上述功能的簡潔、高效且易用的微調框架正是開展LLM微調工作的最佳抓手。

LLaMA-Factory是零隙智能(SeamLessAI)開源的低代碼大模型訓練框架,旨在為開發(fā)者提供可視化訓練、推理平臺及一鍵配置模型訓練。基于LLaMA-Factory, 用戶可輕松選擇業(yè)界最全面的微調方法和優(yōu)化技術,通過使用私域數據,或是LLaMA-Factory內置的中文數據集(GPT-4優(yōu)化后的alpaca中文數據集、ShareGPT數據集和llama-factory提供的模型認知數據集),對源2.0進行輕松微調,基于有限算力完成領域大模型的定制開發(fā)。實測數據顯示,在一臺搭載8顆GPU的主流AI服務器NF5468M7,7小時內即可實現千億模型(Yuan2.0- 102B)的高效指令微調,10分鐘即可完成Yuan2.0-2B參數的指令微調,輕松實現即調即用。


Step by Step 

單機即可實現千億參數模型微調

  • Step 1: 容器化環(huán)境部署,數條指令即可輕松完成
  • Step 2: 開源可商用Yuan2.0 Huggingface模型獲取
  • Step 3: 一鍵"啟動"web UI服務
  • Step 4: 構建LLM助手-可視化界面配置完成Yuan2.0微調
  • Step 5: 搭建我們的私有LLM助手

GitHub項目地址

https://github.com/IEIT-Yuan/Yuan-2.0/blob/main/docs/Yuan2_llama-factory.md

消息來源:浪潮信息
China-PRNewsire-300-300.png
全球TMT
微信公眾號“全球TMT”發(fā)布全球互聯網、科技、媒體、通訊企業(yè)的經營動態(tài)、財報信息、企業(yè)并購消息。掃描二維碼,立即訂閱!
collection