這些人工智能(AI)生成的“胡言亂語”雖是網(wǎng)友們茶余飯后的笑談,但提醒我們要清醒認識到其背后折射出的問題:數(shù)據(jù)質(zhì)量是大模型應(yīng)用成敗的關(guān)鍵。以個性化推薦AI系統(tǒng)為例,一些企業(yè)在開發(fā)過程中,雖然收集了大量的用戶行為數(shù)據(jù),但數(shù)據(jù)中充斥著錯誤的標注、重復的數(shù)據(jù)以及相互矛盾的信息,數(shù)據(jù)的量增加了,但系統(tǒng)推薦的準確性并沒有顯著提升。《自然》雜志(Nature)刊登的一篇有關(guān)大模型可靠性研究的文章指出,一個西班牙研究團隊發(fā)現(xiàn),包括OpenAI公司的GPT在內(nèi)的幾個大模型升級后,雖然參數(shù)量更大了,誤答情況卻更嚴重了。因此,大模型長得壯不壯,不僅取決于“食量”(即數(shù)據(jù)的數(shù)量),更在于食物的“質(zhì)量”(即數(shù)據(jù)的質(zhì)量)——吃得飽并不等同于吃得好。
數(shù)據(jù)是大模型的基石,在數(shù)據(jù)質(zhì)量不高、可靠性缺失的情況下,一味追求大模型參數(shù)量的增加,不僅無法提升模型性能,反而會放大偏差和謬誤,產(chǎn)生更多不可信數(shù)據(jù)。如此一來,勢必造成計算與存儲資源的浪費,增加開發(fā)和維護成本,降低用戶信任度。更為嚴重的是,這種“大模型幻覺”和“災(zāi)難性遺忘”現(xiàn)象如果發(fā)生在精確性要求極高的工業(yè)生產(chǎn)領(lǐng)域中,還可能引發(fā)不可預(yù)測的風險和隱患。以油氣勘探為例,基于大模型給出的錯誤預(yù)測進行開采可能導致數(shù)億元的資金損失,并對自然環(huán)境造成不可逆轉(zhuǎn)的破壞。
提升大模型性能,關(guān)鍵是處理好數(shù)據(jù)“質(zhì)”和“量”的關(guān)系,構(gòu)建大規(guī)模、高質(zhì)量的數(shù)據(jù)集。應(yīng)建立完善的數(shù)據(jù)收集、清洗、驗證和存儲機制,加強對數(shù)據(jù)質(zhì)量的監(jiān)控和評估,確保數(shù)據(jù)的準確性、完整性和一致性。此外,還應(yīng)注重跨領(lǐng)域合作,引入數(shù)據(jù)科學家、AI算法工程師等多方力量,開展大模型算法合作、制定數(shù)據(jù)共享和隱私安全保密協(xié)議,推動大模型產(chǎn)學研用生態(tài)建設(shè)。
如今,大模型的發(fā)展已邁入多模態(tài)融合階段。通過加強數(shù)據(jù)治理,優(yōu)化人工智能學習、訓練和驗證的“基礎(chǔ)食材”,端上大規(guī)模、高質(zhì)量、多模態(tài)數(shù)據(jù)集的“豐盛大餐”,必將助力大模型能力的提升,讓人工智能更好地賦能千行百業(yè)、造福人類社會。
關(guān)于我們 加入我們 聯(lián)系我們 商務(wù)合作
茶葉前線 www.cyqxw.com.cn 版權(quán)所有
投稿投訴聯(lián)系郵箱:8 8 6 2 3 9 5@qq.com