Shutterstock與Lightricks的合作是全新數(shù)據(jù)授權(quán)模式的首次實(shí)踐,旨在為人工智能模型的訓(xùn)練開辟全新路徑
耶路撒冷和紐約2024年12月15日 /美通社/ -- 全球領(lǐng)先的人工智能驅(qū)動(dòng)創(chuàng)意技術(shù)公司Lightricks今日宣布將與Shutterstock, Inc.(紐約證券交易所代碼:SSTK)建立合作關(guān)系,獲得授權(quán)并使用Shutterstock龐大的視頻素材庫。 通過此次合作,Lightricks將能夠利用高質(zhì)量HD和4K視頻素材,進(jìn)一步訓(xùn)練其開源視頻生成模型——LTX Video(LTXV)。 Lightricks成為首個(gè)在Shutterstock行業(yè)首創(chuàng)的“研究授權(quán)”模式下進(jìn)行訓(xùn)練的全球合作伙伴。這一獨(dú)特模式有效降低了開源模型訓(xùn)練的準(zhǔn)入門檻。
通過這一研究授權(quán)模式,Lightricks展現(xiàn)了其拓展創(chuàng)意工具可及性的愿景,同時(shí)推動(dòng)高質(zhì)量生成式人工智能成果的落地,確保創(chuàng)作者從一開始便能有效保護(hù)其創(chuàng)作內(nèi)容。 通過首先整合研究授權(quán),初創(chuàng)公司和人工智能企業(yè)能夠在優(yōu)質(zhì)授權(quán)數(shù)據(jù)的支持下構(gòu)建和優(yōu)化人工智能工具,然后再根據(jù)需要進(jìn)一步擴(kuò)展,獲取全面的商業(yè)授權(quán)。 而且,這種方法為在研發(fā)階段獲取高質(zhì)量數(shù)據(jù)提供了一條具有成本效益的途徑,有效解決了許多初創(chuàng)公司或成熟企業(yè)在訓(xùn)練人工智能模型時(shí)可能面臨的核心挑戰(zhàn)。
“與Shutterstock的長期合作標(biāo)志著我們戰(zhàn)略發(fā)展的一個(gè)重要里程碑。這一合作是我們過去一年在授權(quán)領(lǐng)域多項(xiàng)舉措的延續(xù),包括與主要廣播公司和關(guān)鍵內(nèi)容提供商達(dá)成的關(guān)鍵協(xié)議。”Lightricks聯(lián)合創(chuàng)始人兼首席執(zhí)行官Zeev Farbman表示, “我們的核心使命是打造強(qiáng)大且易于獲取的創(chuàng)意工具。 這一合作不僅提高了我們利用優(yōu)質(zhì)、多樣化的視頻數(shù)據(jù)訓(xùn)練人工智能模型的能力,還進(jìn)一步提升了我們生成式視頻工具的質(zhì)量與契合度,更好地滿足了我們?nèi)找鎵汛蟮膶I(yè)創(chuàng)作者和企業(yè)社區(qū)的需求?!?/p>
這一合作也延續(xù)了Lightricks在人工智能領(lǐng)域的使命,推動(dòng)創(chuàng)意工具的廣泛普及,同時(shí)實(shí)現(xiàn)高質(zhì)量的生成式人工智能成果。 通過融入Shutterstock授權(quán)的視頻數(shù)據(jù),Lightricks進(jìn)一步強(qiáng)化了其訓(xùn)練模型,確保其建立在行業(yè)認(rèn)可的強(qiáng)大數(shù)據(jù)集之上,同時(shí)充分尊重電影制作人和廣播公司的獨(dú)創(chuàng)性。 此公告發(fā)布于Lightricks在2024年11月向開源社區(qū)公布LTXV 0.9之后。 Lightricks借助Shutterstock的高品質(zhì)HD和4K視頻數(shù)據(jù),旨在于下一版本的模型更新中優(yōu)先提升質(zhì)量,不僅為用戶營造更加卓越的體驗(yàn),而且推動(dòng)其開源項(xiàng)目的持續(xù)發(fā)展。
“通過我們的創(chuàng)新型研究許可模式,我們支持合作伙伴從一開始便能使用可信賴的授權(quán)數(shù)據(jù)進(jìn)行人工智能模型的訓(xùn)練?!盨hutterstock全球數(shù)據(jù)授權(quán)與人工智能部門負(fù)責(zé)人Daniel Mandell表示, “我們非常高興能與Lightricks攜手合作,共同推動(dòng)其尖端視頻工具的創(chuàng)新,并將繼續(xù)致力于提供他們所需的數(shù)據(jù)素材,助力其實(shí)現(xiàn)長期成功?!?/p>
Shutterstock的龐大資源庫包含超過十億件免版稅素材,涵蓋圖片、視頻、音樂、3D模型、模板等多種內(nèi)容,為多模態(tài)模型訓(xùn)練提供了全球最大且最具多樣性的媒體數(shù)據(jù)集之一。