北京2023年2月27日 /美通社/ -- 根據(jù)瑞銀最近一份研究報告估計,OpenAI去年11月底推出的ChatGPT在1月份達到了1億月度活躍用戶,成為歷史上增長最快的面向消費者的人工智能app。 根據(jù)Sensor Tower的數(shù)據(jù),從上線開始算,到達到1億月活, Instagram用了大約兩年半,TikTok抖音用了大約9個月,而ChatGPT只用了兩個月。
據(jù)業(yè)內(nèi)媒體反饋,ChatGPG也是當前中國企業(yè)開發(fā)者社區(qū)最關(guān)注的話題——如何將ChatGPT運用于企業(yè)? 用于哪些業(yè)務場景?怎么用?包括金融、制造和車企在內(nèi)的傳統(tǒng)企業(yè)也對此極為關(guān)注。一些開發(fā)者表示,他們的領(lǐng)導已經(jīng)下命令,讓他們加快研究ChatGPT如何在業(yè)務當中發(fā)揮作用。
IBM是全球企業(yè)級AI技術(shù)與應用的領(lǐng)導者,第三方研究機構(gòu)早在2021年就報告IBM連續(xù)三年位列全球 AI 市場份額的第一名,全球有超過4萬企業(yè)客戶正在使用IBM的人工智能,即Watson AI。近年來,許多把"數(shù)據(jù)為先"作為企業(yè)數(shù)字化轉(zhuǎn)型重點的中國企業(yè)也加入到積極采用人工智能技術(shù)的行列,他們與IBM的技術(shù)與行業(yè)專家一道,攜手打造了不少創(chuàng)新領(lǐng)先的AI應用場景,積累了一定的經(jīng)驗。
基于客戶與合作伙伴近期對于面向企業(yè)的人工智能應用的高度關(guān)注與探索需求,我們特別邀請IBM中國的技術(shù)與行業(yè)專家,分享他們的見解與實施經(jīng)驗,希望能夠?qū)V大客戶、合作伙伴和開發(fā)者社區(qū)的同行有所啟發(fā)和借鑒。首先與大家分享的是IBM杰出工程師、大中華區(qū)客戶成功架構(gòu)師、大中華區(qū)金融行業(yè)首席架構(gòu)師陳宇翔,以下是他近期的署名文章——
從ChatGPT的走紅談企業(yè)需要怎樣的AI -- 是"百事通"還是"業(yè)務助手"?
作者:陳宇翔
IBM杰出工程師、大中華區(qū)客戶成功架構(gòu)師、大中華區(qū)金融行業(yè)首席架構(gòu)師
ChatGPT火爆出圈
最近幾周,AI業(yè)界最大的新聞無疑是ChatGPT橫空出世,從而引發(fā)的業(yè)界震動。市場上有大量的評論文章,有把它描述成無所不能的,大有代替人類職業(yè)之勢;也有提出擔擾,某些頂級學術(shù)雜志和知名高校已經(jīng)明確限制AI作者發(fā)表論文和科研成果。
出于好奇,筆者也試用了ChatGPT。整體感覺對于一般的開放性問題,ChatGPT生成的回答文法結(jié)構(gòu)完整,語言風格自然,比之前的聊天機器人有明顯的進步。內(nèi)容的準確性和完整性,往往能超過正常交流時大多數(shù)人的"第一反應",更像是經(jīng)過了一番思考并整理后的結(jié)果,條理清晰,很有啟發(fā)。但對于專業(yè)性問題,尤其是需要邏輯推理的知識,ChatGPT并沒有像網(wǎng)上文章說的那么出色,經(jīng)常"張冠李戴"或者形式上像模像樣但內(nèi)容上卻不知所云。
為什么會這樣呢?我們可以問一問ChatGPT自己。
"ChatGPT是由OpenAI公司開發(fā)的一款預訓練語言模型,旨在生成人類可讀的文本。它通過讀取大量的文本數(shù)據(jù),學習了如何生成與語言相關(guān)的內(nèi)容,并在輸入一段文本時生成一段有關(guān)的文本輸出……"
ChatGPT中的GPT的全稱是的"Generative Pre-trained Transformer -即生成性預訓練變換模型"。借用一位名叫#硅谷學霸Jolin 的技術(shù)教育博主對GPT模型的淺顯解釋,她說,以ChatGPT為代表的"生成性AI"是一項技術(shù)突破,之前AI學習大多聚焦于觀測、分類和分析內(nèi)容,而生成性AI則不限于分析現(xiàn)有數(shù)據(jù),它可以生成新內(nèi)容,可以根據(jù)需要生成新的代碼、詩歌、文章和藝術(shù)品。ChatGPT是專注于文本內(nèi)容的生成性AI。所謂"預訓練"是指該模型已經(jīng)在某些有限的數(shù)據(jù)集上進行了訓練,事實上,ChatGPT已經(jīng)學習了2021年6月以前人類編寫和發(fā)布在互聯(lián)網(wǎng)上的海量信息,而且是通過"監(jiān)督學習"和"人類反饋強化學習"這兩種技術(shù)進行的學習。Transformer是一個非常底層的AI機器學習的算法架構(gòu),是一種深度神經(jīng)網(wǎng)絡。從GPT-1到今天的GPT-3.5都是采用Transformer架構(gòu),而GPT模型的進化有賴于底層硬件超級算力的效率提升,以支持AI對更多、更大數(shù)據(jù)集的訓練和學習[i]。
也就是說,ChatGPT是通過海量(約45TB[ii])語料訓練而掌握了語法和語義結(jié)構(gòu)的成熟的大型語言模型(Large Language Model, LLM),其特色是文本生成能力很強,產(chǎn)生的文字風格和內(nèi)容很像之前的輸入,即人類語言。由于訓練語料涉及面廣,所以ChatGPT對各行各業(yè)的信息都有涉獵,總能略知一二,有時甚至回答得頭頭是道。對某些專業(yè)領(lǐng)域,比如編程,甚至可以產(chǎn)生準確的代碼并直接運行。然而,若仔細觀察,這些代碼往往都是解決特定的小任務,代碼風格似曾相識。若要完成一個創(chuàng)新的算法,或者復雜問題的編程,ChatGPT就無能為力了。
總體而言,這類通過學習語料來生成文本的AI模型,都是在學習過去,其目標是模仿過去,生成出幾可亂真的作品,并不是真正意義下的創(chuàng)造未來。ChatGPT也不例外。作為助手,對思考的廣度往往有幫助,對思考的深度卻不盡然。
從聊天到業(yè)務助手
ChatGPT讓我們看到了大型語言模型的未來。然而,在企業(yè)應用中,為了創(chuàng)造業(yè)務價值,這類對話形式的應用(ChatBot)則更多用于對外的"客戶服務"或?qū)?nèi)的"業(yè)務助手"方面。這就對此類模型提出更高的要求——
第一, 準確性和專業(yè)性
企業(yè)往往要求回答準確且專業(yè),如果對答案沒有把握,回答"不知道"也好過生成一大段豐富而無用的文字。
ChatGPT是一種"開放領(lǐng)域系統(tǒng)"(Open-domain system),類似的還有Google的Bard,它們都需要海量的信息輸入和長時間的訓練,能應付所有領(lǐng)域的對話,回答內(nèi)容相關(guān)度高,對答自知,語法自然。
而企業(yè)級的ChatBot是一種"封閉領(lǐng)域系統(tǒng)"(Close-domain system),往往不是需要一個乖巧的"百事通",而是需要專業(yè)領(lǐng)域可靠的"知識助手"。它的訓練語料是有限的,包含企業(yè)內(nèi)部文檔和資料、專業(yè)領(lǐng)域知識庫、外部該領(lǐng)域的相關(guān)文章等等,大量的資料都是不公開的。ChatBot能回答的問題也限定在專業(yè)領(lǐng)域的場景語境中。不必面面俱到,但求簡練、精準、專業(yè)。
第二,主動式對話
碰到提問模棱兩可的時候,企業(yè)應用往往要求通過主動引導式對話,甚至反問的辦法,迅速澄清意圖。然后,再給出明確的答案。這一點ChatGPT目前尚未做到,當問題模糊時,回答也模糊,提問者發(fā)現(xiàn)后,換一種問法,或者在對話中縮小范圍,可逐步得到想要的結(jié)果。整個過程中,ChatGPT每次都是被動回答。
第三,后臺集成能力
ChatBot往往作為企業(yè)對話的渠道入口,在提供服務時需要和企業(yè)大量的后臺系統(tǒng)集成。比如:在識別意圖后可以從數(shù)據(jù)庫或大數(shù)據(jù)平臺中自動收集相關(guān)數(shù)據(jù),并進行分析和推理,得到客戶所需的明確答案;或者啟動一條指令或一個后臺流程,幫助客戶完成相關(guān)操作。
IBM Watson服務企業(yè)級AI應用
OpenAI從2018年以來長期堅持研發(fā)大型語言模型,通過不斷迭代,從最初的GPT-1到目前的GPT-3,且今年會發(fā)行GPT-4。目前,在開源社區(qū)找到GPT-3模型,也為企業(yè)開展此類研究提供了范本。
ChatGPT對企業(yè)的吸引力是毋庸置疑的,多數(shù)企業(yè)都有意愿擁有一個自己的ChatGPT。然而,當前ChatGPT采用最新的GPT-3.5模型,含有千億級參數(shù),一次訓練就要花費數(shù)百萬美元[iii]。大多數(shù)企業(yè)不具備如此大的算力,但如果為了獲得對話模型,把企業(yè)內(nèi)部數(shù)據(jù)都上傳到網(wǎng)上,利用公有云訓練也會有安全顧慮。所以,企業(yè)主導訓練一個定制版ChatGPT,無論從財力還是合規(guī)方面都會有障礙。
IBM Watson,也就是IBM企業(yè)級的人工智能,經(jīng)過十多年的發(fā)展,從研究到實驗,至今已經(jīng)發(fā)展成為一套可以在紅帽 OpenShift上任意運行的AI能力,以產(chǎn)品化的方式提供給用戶,幫助企業(yè)整合和分析混合環(huán)境下分散而復雜的企業(yè)數(shù)據(jù),從而實現(xiàn)數(shù)據(jù)驅(qū)動的預測性決策、智能自動化和基于企業(yè)內(nèi)外適時數(shù)據(jù)和洞察的安全策略與響應。
今天IBM Watson已經(jīng)應用于全球四萬多企業(yè)用戶的業(yè)務場景當中,為具有不同水平AI技能的用戶提供尖端的AI能力,無論是缺乏AI技能卻想通過AI重獲時間效率的商務及專業(yè)人士(例如人力資源、財務、網(wǎng)絡安全管理人員等),還是具備一定AI技能并且正在大規(guī)模使用AI的數(shù)據(jù)科學家、IT專業(yè)人員等。
IBM Watson提供了許多不同的工具和服務,用于解決多種問題。它涵蓋了語言處理,解釋、回答和生成文本等多種功能,以幫助客戶解決商業(yè)問題。同時,它也提供了語音識別、圖像識別等其它功能,使之成為一個非常強大和全面的人工智能平臺。
長期以來,IBM Watson面向企業(yè)級AI應用,特別為企業(yè)定制"業(yè)務助手"類的對話式應用?;旧?,Watson有語音文字轉(zhuǎn)換、意圖識別、對話流設計、文本分析、知識整理、情感分析等功能。使得Watson可以在通用的語言模型上疊加專業(yè)領(lǐng)域知識,并有意識地設計和引導對話方向。
Watson通過后臺的機器學習、自然語言處理、文本生成、語音識別與合成、對話系統(tǒng)、知識圖譜技術(shù),可以分解文本結(jié)構(gòu),精準定位觀點、事實、論據(jù)、邏輯關(guān)系等,早在數(shù)年前,采用IBM Watson技術(shù)的IBM人工智能辯手(Project Debater)[iv]就曾以它的機智幽默和高情商而驚艷業(yè)界,它可以針對任何一個預設話題,比如"國家應該為每個人提供基本收入",臨時選擇正方或反方,與人類的辯論冠軍選手進行對辯。今天的ChatGPT也可以達到這個效果。應該承認,其通用語言模型和文本生成技術(shù)所呈現(xiàn)的體驗感受甚至可以超過Watson,令人驚艷,其開放的用戶界面更是讓大眾能夠親身體驗這種驚艷,然而Watson的專業(yè)性、可設計性、集成性則更適合企業(yè)級的業(yè)務定位。IBM把這種普適性的大型基礎模型稱為基礎模型(Foundation model)[v],它利用遷移學習(Transfer learning)經(jīng)過少量的專業(yè)訓練,就能進入一個知識領(lǐng)域,并且得到新的啟發(fā),這一點非常像人類的學習過程,有廣闊的應用前景,也是IBM今后研究的重點。
我設想,對于企業(yè)已有的Watson對話模型,也可以利用ChatGPT得到增強。可以是協(xié)同模式:當發(fā)現(xiàn)是專業(yè)領(lǐng)域的封閉式問題,可用原有Watson模型回答,當發(fā)現(xiàn)是開放式問題,可用ChatGPT回答。也可以通過競爭模式:一次生成多個答案,由人類做裁判,相互學習,共同提高。
總言之,ChatGPT將人機對話的體驗提高了一個檔次,利用強大的搜索和知識整理的能力,在問題回答的廣度上往往很有啟發(fā),但深度不足。目前只能學習(Learn)人類語言和知識,還做不到思考(Think)推理,也難以駕馭高度創(chuàng)新和深度思考的任務。我認為,對于企業(yè)級的應用,融合ChatGPT與IBM Watson之所長,不乏為快速高效地應用AI 提升體驗、創(chuàng)造價值之選。
參考資料:
[1] OpenAI公司在GitHub上開源的GPT-3模型,https://github.com/openai/gpt-3 |
[2] IBM致力于基礎模型研究 https://research.ibm.com/blog/what-are-foundation-models |
https://research.ibm.com/blog/molecular-transformer-discovery |
本文作者簡介:
陳宇翔先生現(xiàn)任IBM大中華區(qū)客戶成功架構(gòu)師,他是IBM杰出工程師(Distinguish Engineer), 也是IBM大中華區(qū)金融行業(yè)首席架構(gòu)師。在近25年的IT 從業(yè)經(jīng)歷中,他主持了許多大型項目的解決方案設計和IT 架構(gòu)設計,熟悉銀行領(lǐng)域相關(guān)業(yè)務,是行業(yè)高級顧問。陳宇翔先生也是軟件和技術(shù)專家,長期致力于軟件推廣工作。同時擁有IBM 高級工程師和資深架構(gòu)師認證。
陳宇翔先生長期致力于"人工智能、云計算、物聯(lián)網(wǎng)、量子計算"的技術(shù)推廣,結(jié)合金融行業(yè)創(chuàng)新應用,是金融行業(yè)創(chuàng)新解決方案設計的領(lǐng)導者和實踐者。
[i] 至頂網(wǎng)2023年2月8日文章:《助力AI科研,IBM研究院打造Vela超級計算機》鏈接:https://server.zhiding.cn/server/2023/0208/3147388.shtml |
[ii] 東吳證券研報分析認為,ChatGPT的模型經(jīng)歷從GPT-1到GPT-3的升級,優(yōu)化主要來自算力增加。GPT-1、GPT-2和GPT-3在算法模型并沒有太大改變,但參數(shù)量從1.17億增加到1750億,預訓練數(shù)據(jù)量從5GB增加到45TB,其中GPT-3訓練一次的費用是460萬美元,總訓練成本達1200萬美元。雖然訓練數(shù)據(jù)量和算力大幅增加使GPT-3有顯著優(yōu)化,但高額投入也使其只能走B端變現(xiàn)。信息源:第一財經(jīng)2022年12月7日報道:《拳打谷歌ChatGPT火出圈!投資人稱更需警惕投資泡沫化跟風》。信息源:https://www.yicai.com/news/101616572.html |
[iii] 東吳證券研報分析認為,ChatGPT的模型經(jīng)歷從GPT-1到GPT-3的升級,優(yōu)化主要來自算力增加。GPT-1、GPT-2和GPT-3在算法模型并沒有太大改變,但參數(shù)量從1.17億增加到1750億,預訓練數(shù)據(jù)量從5GB增加到45TB,其中GPT-3訓練一次的費用是460萬美元,總訓練成本達1200萬美元。雖然訓練數(shù)據(jù)量和算力大幅增加使GPT-3有顯著優(yōu)化,但高額投入也使其只能走B端變現(xiàn)。信息源:第一財經(jīng)2022年12月7日報道:《拳打谷歌ChatGPT火出圈!投資人稱更需警惕投資泡沫化跟風》,https://www.yicai.com/news/101616572.html |
[iv] IBM中國微信公眾號 2019年5月19日文章:《AI下棋還在喧囂,AI辯論早已啟航》鏈接:https://mp.weixin.qq.com/s/XqvPkQqtpHjfp_Erh3QrAw |
[v] 至頂網(wǎng)2023年2月14日文章《IBM運用基礎模型加生成式AI,展示開創(chuàng)性AI研究成果》鏈接: https://www.sohu.com/a/640755030_114765 |