圖片來源:外灘大會官方提供
時隔三年,2023Inclusion·外灘大會于9月7日在黃浦世博園召開,對AI的影響展開了探討。延續(xù)“金融+科技”的脈絡和國際化的特點,圍繞“科技·創(chuàng)造可持續(xù)未來”這一主題,大會第一天的主論壇圍繞技術(shù)、產(chǎn)業(yè)與未來三個篇章進行展開。其中,科技篇探討了科技是如何為全球經(jīng)濟與產(chǎn)業(yè)注入新動能,同時令未來更加可持續(xù)。
(資料圖片)
去年底開始,硅谷創(chuàng)業(yè)公司OpenAI發(fā)布聊天機器人大模型ChatGPT,也直接開啟了從美國到全球的大模型熱潮。僅在中國,以百度文心一言、阿里通義千問、騰訊混元和其它科技公司為代表的大模型競賽,就正在如火如荼得進行當中。
在這個大模型涌現(xiàn)的時代,AI為技術(shù)和科研帶來了哪些改變和挑戰(zhàn)?我們又有哪些應對的辦法?
中國科學院院士、復旦大學副校長張人禾表示,科學智能已經(jīng)成為人工智能發(fā)展的重點方向。
如今,科學智能通過多模態(tài)、大模型等人工智能新技術(shù),實現(xiàn)了對多類別、高維度、跨尺度的海量數(shù)據(jù)進行建模、推理和分析,為復雜場景提供了研究新線索和科學新假設,從而發(fā)現(xiàn)了新物質(zhì)、合成新材料、構(gòu)建新機理。
具體來講,在基礎研究領域中,可以通過AI賦能規(guī)律的探析;在科學發(fā)展過程中,AI可以在從設計假設到實驗設計、數(shù)據(jù)收集到數(shù)據(jù)分析的過程中,起到增速的作用,進而重塑科學發(fā)現(xiàn)、推動科研成果涌現(xiàn)。
此外,從范式角度出發(fā),Type1(數(shù)據(jù)驅(qū)動,強調(diào)科研中的直覺性思考)可以通過對實驗數(shù)據(jù)的分析,從經(jīng)驗出發(fā)尋找科學規(guī)律并解決實際問題;Type2(機理驅(qū)動,強調(diào)科研中的推理性思考)則是基于第一性原理的研究方式,通過構(gòu)建真實世界的數(shù)學模型試圖發(fā)現(xiàn)物理世界的基本規(guī)律。后者往往能夠很大程度上驅(qū)動物理學的發(fā)展,但卻在求解真實場景的復雜物理系統(tǒng)的過程中存在著計算量過大的問題。
AI For Science則為上述兩種科研范式的融合提供了路徑。據(jù)張人禾介紹,谷歌旗下的AI公司DeepMind開發(fā)的AI蛋白質(zhì)結(jié)構(gòu)預測ALphaFold2,就是Type1和Type2融合的典型案例。AlphaFold2基于大規(guī)模蛋白質(zhì)結(jié)構(gòu)數(shù)據(jù)庫PDB訓練,并將蛋白質(zhì)結(jié)構(gòu)的生物學知識和事實記憶通過多序列比對、三角形更新、IPA等技術(shù)嵌入深度學習算法模型中,能夠達到前所未有的預測準確度。
機器學習泰斗,美國科學院、美國工程院院士邁克爾·喬丹(Michael I.Jordan),同樣講述了科學智能之于科研的重要作用。
在分子生物學領域,AI系統(tǒng)AlphaFold可以通過對大量蛋白質(zhì)結(jié)構(gòu)和氨基酸數(shù)據(jù)的學習,預測最終的蛋白質(zhì)結(jié)構(gòu),其預測的結(jié)構(gòu)種類可以達到上億的數(shù)量級,對分子生物學的研究工作產(chǎn)生了巨大的推動作用。邁克爾·喬丹舉例,在2004年的一篇研究中,需要探究蛋白質(zhì)的固有無序性與生物學功能的磷酸化之間的關聯(lián),這就需要大量的蛋白質(zhì)結(jié)構(gòu)數(shù)據(jù)作為支撐。然而人們通過X射線衍射的方式得到的蛋白質(zhì)結(jié)構(gòu)數(shù)據(jù)庫只有一萬量級,AlphaFold的預測則可以達到兩億量級,盡管不是真實實驗的數(shù)據(jù),但它的準確度并不低,由此推動了分子生物學、乃至更多領域的科研工作。
同時,邁克爾·喬丹還指出了AI現(xiàn)階段所面臨的問題:“如果你問ChatGPT,你剛剛寫的內(nèi)容你確定嗎?你會發(fā)現(xiàn),它完全無法回答這個問題。”這是現(xiàn)階段的人工智能正在面臨的一個問題。邁克爾·喬丹還強調(diào),金融科技歸根到底是不確定的技術(shù),那么對于正在金融科技領域發(fā)揮重要作用的人工智能,解決其不確定性以及對不確定性進行量化的問題成為了十分關鍵的一點。
人是多種多樣的,相對應的,AI的本質(zhì)應該是集體,而不是個人。正是從這一觀點出發(fā),邁克爾·喬丹指出,我們可以通過設計一個協(xié)作式的、去中心化的系統(tǒng)來實現(xiàn)集體智能,并通過這樣一個集體智能體,去解決不確定性。
除了不確定的問題,大模型時代還存在著顯著的安全問題。
中國科學院院士何積豐認為,大模型時代顯著的安全問題就在于隱私和“對齊(alignment)”。
對齊指的是AI系統(tǒng)的目標或者說產(chǎn)出要與人類的價值觀和設計者的期望相符合。“如果把人工智能看作西游記里的孫悟空,‘對齊’就是唐僧的緊箍咒。有了緊箍咒,就可以保證技術(shù)不會任意使用能力胡作非為?!?/p>
一方面,大模型能力的發(fā)展及其對于我們?nèi)粘I畹臐B透,對隱私保護提出了更高的要求。
另一方面,對齊技術(shù)在規(guī)范AI的同時也面臨著挑戰(zhàn),人類的價值觀是多元且動態(tài)發(fā)展的;AI大模型的“有用性”與“無害性”之間的目標也并不是完全一致的,這些都對“對齊”技術(shù)提出了挑戰(zhàn)。
面臨上述挑戰(zhàn),通過人工反饋保證輸出內(nèi)容的質(zhì)量,以及事先規(guī)定大模型應當遵循的原則,讓系統(tǒng)自動訓練模型對生成結(jié)果提供初始排序,或可成為一條解決問題的途徑,何積豐表示,“人類和機器將持續(xù)共同學習”。