北京2024年8月28日 /美通社/ -- 超高"模算效率"的源2.0-M32大模型開源開放以來,已經(jīng)在諸多伙伴企業(yè)內(nèi)進(jìn)行了內(nèi)測上崗,收獲了醫(yī)療、金融和IT等行業(yè)伙伴的一眾好評!
對于不想在開發(fā)環(huán)境中使用大模型的"源"粉們來說,如何能夠在自己的PC上更方便地獲取和使用M32大模型的智能力呢?
現(xiàn)在!AI PC大模型效率工具YuanChat全面升級!簡潔直觀的交互界面,搭配聯(lián)網(wǎng)搜索、搭建個(gè)人知識(shí)庫(RAG)、模型參數(shù)個(gè)性化定制等豐富強(qiáng)大的插件功能,讓你在個(gè)人PC上可以輕松部署和使用"源2.0-M32"大模型,完成各類各類編程、數(shù)理計(jì)算、文檔解析和公文寫作等任務(wù),激發(fā)你的創(chuàng)造力和生產(chǎn)力!
YuanChat一鍵下載及教程: |
|
源2.0-M32具備超高的模算效率,在算力需求僅為1/19的情況下,性能全面對標(biāo)Llama 3-70B,對大模型運(yùn)行部署的硬件要求大幅降低。
現(xiàn)在,無需GPU,您在單CPU和XPU環(huán)境下即可輕松簡單地部署YuanChat以使用源2.0-M32大模型,所有交互數(shù)據(jù)均在本地處理,無需擔(dān)心數(shù)據(jù)泄露的風(fēng)險(xiǎn)。這對于涉及核心代碼、金融數(shù)據(jù)處理等敏感業(yè)務(wù)的場景來說,提供了一種既安全又私密的大模型應(yīng)用方案。
在YuanChat上,只需點(diǎn)擊鼠標(biāo)就可以將本地存儲(chǔ)的豐富文檔資源文件轉(zhuǎn)化為一個(gè)高度定制化的個(gè)人專屬知識(shí)庫。YuanChat內(nèi)置多種向量模型(Embedding),可以支持包括pdf、docx、pptx、txt、html、htm、md、json、jsonl、epub、mobi、xml在內(nèi)的12種文檔。
您可以與M32大模型基于特定的知識(shí)庫進(jìn)行對話,通過接入和學(xué)習(xí)專屬知識(shí)庫內(nèi)容,M32能夠更加精準(zhǔn)地理解和回應(yīng)查詢,顯著提升任務(wù)處理的準(zhǔn)確性和可靠性。
YuanChat支持谷歌(serper)和bing兩種方式進(jìn)行網(wǎng)絡(luò)檢索,打開網(wǎng)絡(luò)檢索插件,即可讓M32大模型訪問互聯(lián)網(wǎng),在全網(wǎng)為您檢索并總結(jié)相關(guān)信息,精準(zhǔn)獲取信息,高效完成任務(wù)。
讓M32大模型訪問互聯(lián)網(wǎng)為您檢索并總結(jié)最新信息
YuanChat提供了豐富的參數(shù)設(shè)定功能,支持在使用M32大模型的過程中根據(jù)任務(wù)情況自定義生成文本長度、生成文本多樣性、生成下一個(gè)詞之前考慮的備選詞數(shù)量,使得用戶能夠精細(xì)調(diào)節(jié)大模型的創(chuàng)造性、可靠性、速度和成本,從而更加靈活高效地利用M32大模型的強(qiáng)大能力。
YuanChat支持API Server功能,可將模型能力以及YuanChat的功能(Rag檢索、敏感詞識(shí)別、網(wǎng)絡(luò)檢索等)接入已有的應(yīng)用平臺(tái)。模型輸出數(shù)據(jù)支持openAI格式,使開發(fā)人員更好理解,降低二次開發(fā)成本和對接工作量。