北京2024年4月19日 /美通社/ -- 亞馬遜云科技宣布,Meta剛剛發(fā)布的兩款Llama 3基礎(chǔ)模型Llama 3 8B和Llama 3 70B現(xiàn)已在Amazon SageMaker JumpStart中提供。這兩款模型是一系列經(jīng)過預(yù)訓(xùn)練和微調(diào)的生成文本模型,上下文長度為8k,能夠支持廣泛的用例,并在推理、代碼生成和指令跟隨等方面有所改進(jìn)。客戶可以在Amazon SageMaker JumpStart中輕松發(fā)現(xiàn)、部署Llama 3基礎(chǔ)模型,并運(yùn)行推理。
Llama 3提供兩種參數(shù)大小的模型——8B和70B,上下文長度為8k,能夠支持廣泛的用例。Llama 3使用了僅含解碼器的Transformer架構(gòu),以及高達(dá)128k規(guī)模的新型分詞器,極大提升了模型的性能。此外,Meta改進(jìn)的訓(xùn)練后處理程序大幅降低了誤拒率,提高了模型響應(yīng)的一致性和多樣性。
Amazon SageMaker JumpStart提供預(yù)訓(xùn)練的模型、內(nèi)置算法和預(yù)構(gòu)建的解決方案,幫助客戶快速開始機(jī)器學(xué)習(xí)項(xiàng)目。Amazon SageMaker JumpStart能夠幫助客戶從廣泛的公開可用基礎(chǔ)模型中進(jìn)行選擇,并將基礎(chǔ)模型部署到專用的SageMaker實(shí)例中,這些實(shí)例置于網(wǎng)絡(luò)隔離的環(huán)境,并可以使用SageMaker進(jìn)行模型訓(xùn)練和部署。
客戶現(xiàn)在可以在Amazon SageMaker Studio中通過幾次點(diǎn)擊或通過SageMaker Python SDK編程方式發(fā)現(xiàn)并部署Llama 3模型,還可以利用SageMaker Pipelines、SageMaker Debugger或容器日志等功能,提升模型性能并實(shí)施MLOps控制。此外,該方式部署的模型始終處在亞馬遜云科技的安全環(huán)境下,由客戶的VPC控制,以確保數(shù)據(jù)安全。
Meta Llama 3基礎(chǔ)模型現(xiàn)已在Amazon SageMaker Studio的美東(北弗吉尼亞州)、美東(俄亥俄州)、美西(俄勒岡州)、歐洲(愛爾蘭)和亞太(東京)區(qū)域提供部署和推理服務(wù)。