霽彩華年,因夢同行—— 慶祝深圳霽因生物醫(yī)藥轉(zhuǎn)化研究院成立十周年 情緒益生菌PS128助力孤獨(dú)癥治療,權(quán)威研究顯示可顯著改善孤獨(dú)癥癥狀 PARP抑制劑氟唑帕利助力患者從維持治療中獲益,改寫晚期卵巢癌治療格局 新東方智慧教育發(fā)布“東方創(chuàng)科人工智能開發(fā)板2.0” 精準(zhǔn)血型 守護(hù)生命 腸道超聲可用于檢測兒童炎癥性腸病 迷走神經(jīng)刺激對抑郁癥有積極治療作用 探索梅尼埃病中 MRI 描述符的性能和最佳組合 自閉癥患者中癡呆癥的患病率增加 超聲波 3D 打印輔助神經(jīng)源性膀胱的骶神經(jīng)調(diào)節(jié) 胃食管反流病患者耳鳴風(fēng)險增加 間質(zhì)性膀胱炎和膀胱疼痛綜合征的臨床表現(xiàn)不同 研究表明 多語言能力可提高自閉癥兒童的認(rèn)知能力 科學(xué)家揭示人類與小鼠在主要癌癥免疫治療靶點(diǎn)上的驚人差異 利用正確的成像標(biāo)準(zhǔn)改善對腦癌結(jié)果的預(yù)測 地中海飲食通過腸道細(xì)菌變化改善記憶力 讓你在 2025 年更健康的 7 種驚人方法 為什么有些人的頭發(fā)和指甲比其他人長得快 物質(zhì)的使用會改變大腦的結(jié)構(gòu)嗎 飲酒如何影響你的健康 20個月,3大平臺,300倍!元育生物以全左旋蝦青素引領(lǐng)合成生物新紀(jì)元 從技術(shù)困局到創(chuàng)新錨點(diǎn),天與帶來了一場屬于養(yǎng)老的“情緒共振” “華潤系”大動作落槌!昆藥集團(tuán)完成收購華潤圣火 十七載“冬至滋補(bǔ)節(jié)”,東阿阿膠將品牌營銷推向新高峰 150個國家承認(rèn)巴勒斯坦國意味著什么 中國海警對非法闖仁愛礁海域菲船只采取管制措施 國家四級救災(zāi)應(yīng)急響應(yīng)啟動 涉及福建、廣東 女生查分查出608分后,上演取得理想成績“三件套” 多吃紅色的櫻桃能補(bǔ)鐵、補(bǔ)血? 中國代表三次回?fù)裘婪焦糁肛?zé) 探索精神健康前沿|情緒益生菌PS128閃耀寧波醫(yī)學(xué)盛會,彰顯科研實力 圣美生物:以科技之光,引領(lǐng)肺癌早篩早診新時代 神經(jīng)干細(xì)胞移植有望治療慢性脊髓損傷 一種簡單的血漿生物標(biāo)志物可以預(yù)測患有肥胖癥青少年的肝纖維化 嬰兒的心跳可能是他們說出第一句話的關(guān)鍵 研究發(fā)現(xiàn)基因檢測正成為主流 血液測試顯示心臟存在排斥風(fēng)險 無需提供組織樣本 假體材料有助于減少靜脈導(dǎo)管感染 研究發(fā)現(xiàn)團(tuán)隊運(yùn)動對孩子的大腦有很大幫助 研究人員開發(fā)出診斷 治療心肌炎的決策途徑 兩項研究評估了醫(yī)療保健領(lǐng)域人工智能工具的發(fā)展 利用女子籃球隊探索足部生物力學(xué) 抑制前列腺癌細(xì)胞:雄激素受體可以改變前列腺的正常生長 肽抗原上的反應(yīng)性半胱氨酸可能開啟新的癌癥免疫治療可能性 研究人員發(fā)現(xiàn)新基因療法可以緩解慢性疼痛 研究人員揭示 tisa-cel 療法治療復(fù)發(fā)或難治性 B 細(xì)胞淋巴瘤的風(fēng)險 適量飲酒可降低高危人群罹患嚴(yán)重心血管疾病的風(fēng)險 STIF科創(chuàng)節(jié)揭曉獎項,新東方智慧教育榮膺雙料殊榮 中科美菱發(fā)布2025年產(chǎn)品戰(zhàn)略布局!技術(shù)方向支撐產(chǎn)品生態(tài)縱深! 從雪域高原到用戶口碑 —— 復(fù)方塞隆膠囊的品質(zhì)之旅
您的位置:首頁 >資訊 >

技術(shù)提高了大型語言模型的推理能力

像ChatGPT所支持的大型語言模型在起草法律摘要、分析客戶評論的情緒或?qū)⑽臋n翻譯成不同語言等任務(wù)上表現(xiàn)出色。

這些機(jī)器學(xué)習(xí)模型通常僅使用自然語言處理信息和回答查詢,這使得它們難以執(zhí)行需要數(shù)字或符號推理的任務(wù)。

例如,大型語言模型可能能夠記住并背誦美國歷任總統(tǒng)及其生日的列表,但如果問“1950年后當(dāng)選的哪些美國總統(tǒng)出生在星期三?”,該模型可能會失敗(答案是吉米·卡特。)

麻省理工學(xué)院等機(jī)構(gòu)的研究人員提出了一項新技術(shù),使大型語言模型能夠通過生成程序來解決自然語言、數(shù)學(xué)和數(shù)據(jù)分析以及符號推理任務(wù)。

他們的方法稱為自然語言嵌入式程序(NLEP),涉及提示語言模型創(chuàng)建和執(zhí)行Python程序來解決用戶的查詢,然后將解決方案輸出為自然語言。

他們發(fā)現(xiàn),NLEP使大型語言模型能夠在各種推理任務(wù)上實現(xiàn)更高的準(zhǔn)確率。這種方法也是可推廣的,這意味著一個NLEP提示可以重復(fù)用于多個任務(wù)。

NLEP還提高了透明度,因為用戶可以檢查程序以準(zhǔn)確了解模型如何推理查詢,如果模型給出了錯誤的答案,則可以修復(fù)程序。

“我們希望人工智能能夠以透明和值得信賴的方式進(jìn)行復(fù)雜的推理。雖然還有很長的路要走,但我們已經(jīng)證明,在大型語言模型中結(jié)合編程和自然語言的能力,是邁向未來人們能夠完全理解和信任人工智能模型內(nèi)部發(fā)生的事情的一個非常好的潛在第一步,”麻省理工學(xué)院博士后、NLEP論文的共同主要作者HongyinLuo博士(2022年)表示。

與羅一起參與撰寫這篇論文的還有香港中文大學(xué)研究生張?zhí)烊A、北京大學(xué)本科生葛佳欣、麻省理工學(xué)院電子工程與計算機(jī)科學(xué)系助理教授、計算機(jī)科學(xué)與人工智能實驗室(CSAIL)成員YoonKim、CSAIL高級研究員兼口語系統(tǒng)小組負(fù)責(zé)人JamesGlass等。這項研究將在計算語言學(xué)協(xié)會北美分會的年度會議上發(fā)表。

使用程序解決問題

許多流行的大型語言模型的工作原理是,根據(jù)一些自然語言輸入預(yù)測下一個單詞或標(biāo)記。雖然GPT-4等模型可用于編寫程序,但它們將這些程序嵌入自然語言中,這可能會導(dǎo)致程序推理或結(jié)果出現(xiàn)錯誤。

麻省理工學(xué)院的研究人員在NLEP中采用了相反的方法。他們讓模型完全用Python代碼生成分步程序,然后在程序中嵌入必要的自然語言。

NLEP是一個包含四個步驟的問題解決模板。首先,模型調(diào)用解決任務(wù)所需的必要包或函數(shù)。第二步涉及導(dǎo)入任務(wù)所需知識的自然語言表示(例如美國總統(tǒng)生日列表)。對于第三步,模型實現(xiàn)一個計算答案的函數(shù)。最后一步,模型將結(jié)果輸出為一行自然語言,并根據(jù)需要自動進(jìn)行數(shù)據(jù)可視化。

“它就像一個數(shù)字計算器,只要程序正確,它就總能給出正確的計算結(jié)果,”羅說。

用戶可以輕松調(diào)查程序并直接修復(fù)代碼中的任何錯誤,而不需要重新運(yùn)行整個模型來排除故障。

這種方法也比其他一些方法效率更高。如果用戶有許多類似的問題,他們可以生成一個核心程序,然后替換某些變量,而不需要重復(fù)運(yùn)行模型。

為了促使模型生成NLEP,研究人員給了它一個編寫Python程序的總體指令,提供了兩個NLEP示例(一個是數(shù)學(xué),一個是自然語言)和一個測試問題。

“通常,當(dāng)人們進(jìn)行這種小樣本提示時,他們?nèi)匀恍枰獮槊宽椚蝿?wù)設(shè)計提示。我們發(fā)現(xiàn),我們可以為許多任務(wù)設(shè)置一個提示,因為它不是教法學(xué)碩士解決一個問題的提示,而是教法學(xué)碩士通過編寫程序解決許多問題的提示,”羅說。

麻省理工學(xué)院-IBM沃森人工智能實驗室首席科學(xué)家LeonidKarlinsky表示:“使用語言模型對代碼進(jìn)行推理,為工具使用、輸出驗證、對模型功能和思維方式的更有條理的理解等提供了許多機(jī)會。”

“這里沒有魔法”

在提示GPT-4解決一系列符號推理任務(wù)(例如跟蹤打亂的物體或玩24點(diǎn)游戲)以及指令跟蹤和文本分類任務(wù)時,NLEP的準(zhǔn)確率超過90%。研究人員發(fā)現(xiàn),NLEP的準(zhǔn)確率甚至比特定任務(wù)的提示方法高出30%。該方法還顯示出比開源LLM更好的性能。

除了提高大型語言模型的準(zhǔn)確性之外,NLEP還可以改善數(shù)據(jù)隱私。由于NLEP程序在本地運(yùn)行,因此敏感的用戶數(shù)據(jù)無需發(fā)送到OpenAI或Google等公司進(jìn)行模型處理。

此外,NLEP可以使小型語言模型表現(xiàn)得更好,而無需為某項任務(wù)重新訓(xùn)練模型,這可能是一個昂貴的過程。

“這里沒有什么魔法。我們沒有更昂貴或更花哨的語言模型。我們所做的就是使用程序生成而不是自然語言生成,我們可以讓它的表現(xiàn)更好,”羅說。

然而,NLEP依賴于模型的程序生成能力,因此該技術(shù)對于在有限數(shù)據(jù)集上訓(xùn)練的較小模型效果不佳。未來,研究人員計劃研究使較小語言模型生成更有效的NLEP的方法。此外,他們還希望研究提示變化對NLEP的影響,以增強(qiáng)模型推理過程的穩(wěn)健性。

標(biāo)簽:

免責(zé)聲明:本文由用戶上傳,與本網(wǎng)站立場無關(guān)。財經(jīng)信息僅供讀者參考,并不構(gòu)成投資建議。投資者據(jù)此操作,風(fēng)險自擔(dān)。 如有侵權(quán)請聯(lián)系刪除!

最新文章