自 ChatGPT 問世,OpenAI 使用的訓練方法人類反饋強化學習(RLHF)就備受關注,已經成為微調大型語言模型(LLM)的核心方法。RLHF 方法在訓練中使用人類反饋,以最小化無益、失真或偏見的輸出,使 AI 模型與人類價值觀對齊。
然而,RLHF 方法也存在一些缺陷,最近來自 MIT CSAIL、哈佛大學、哥倫比亞大學等機構的數十位研究者聯合發表了一篇綜述論文,對兩百余篇領域內的研究論文進行分析探討,系統地研究了 RLHF 方法的缺陷。
論文地址:https://huggingface.co/papers/2307.15217
【資料圖】
總的來說,該論文強調了 RLHF 的局限性,并表明開發更安全的 AI 系統需要使用多方面方法(multi-faceted approach)。研究團隊做了如下工作:
調查了 RLHF 和相關方法的公開問題和基本限制;概述了在實踐中理解、改進和補充 RLHF 的方法;提出審計和披露標準,以改善社會對 RLHF 系統的監督。具體來說,論文的核心內容包括以下三個部分:
1.RLHF 面臨的具體挑戰。研究團隊對 RLHF 相關問題進行了分類和調查,并區分了 RLHF 面臨的挑戰與 RLHF 的根本局限性,前者更容易解決,可以在 RLHF 框架內使用改進方法來解決,而后者則必須通過其他方法來解決對齊問題。
2. 將 RLHF 納入更廣泛的技術安全框架。論文表明 RLHF 并非開發安全 AI 的完整框架,并闡述了有助于更好地理解、改進和補充 RLHF 的一些方法,強調了多重冗余策略(multiple redundant strategy)對減少問題的重要性。
3. 治理與透明度。該論文分析探討了改進行業規范面臨的挑戰。例如,研究者討論了讓使用 RLHF 訓練 AI 系統的公司披露訓練細節是否有用。
我們來看下論文核心部分的結構和基本內容。
如下圖 1 所示,該研究分析了與 RLHF 相關 3 個過程:收集人類反饋、獎勵建模和策略優化。其中,反饋過程引出人類對模型輸出的評估;獎勵建模過程使用監督學習訓練出模仿人類評估的獎勵模型;策略優化過程優化人工智能系統,以產生獎勵模型評估更優的輸出。論文第三章從這三個過程以及聯合訓練獎勵模型和策略四個方面探討了 RLHF 方法存在的問題和挑戰。
論文第三章總結的問題表明:嚴重依賴 RLHF 來開發人工智能系統會帶來安全風險。雖然 RLHF 很有用,但它并沒有解決開發人性化人工智能的基本挑戰。
研究團隊認為:任何單一策略都不應被視為綜合解決方案。更好的做法是采用多種安全方法的「深度防御」,論文第四章從理解、改進、補充 RLHF 這幾個方面詳細闡述了提高 AI 安全性的方法。
論文第五章概述了 RLHF 治理面臨的風險因素和審計措施。
總結該研究發現,實踐中很多問題來源于 RLHF 的根本局限性,必須采用非 RLHF 的方法來避免或彌補。因此,該論文強調兩種策略的重要性:(1) 根據 RLHF 和其他方法的根本局限性來評估技術進步,(2) 通過采取深度防御安全措施和與科學界公開共享研究成果,來應對 AI 的對齊問題。
此外,該研究闡明一些挑戰和問題并非是 RLHF 所獨有的,如 RL 策略的難題,還有一些是 AI 對齊的基本問題。
感興趣的讀者可以閱讀論文原文,了解更多研究內容。
關鍵詞:
新聞發布平臺 |科極網 |環球周刊網 |中國創投網 |教體產業網 |中國商界網 |萬能百科 |薄荷網 |資訊_時尚網 |連州財經網 |劇情啦 |5元服裝包郵 |中華網河南 |網購省錢平臺 |海淘返利 |太平洋裝修網 |勵普網校 |九十三度白茶網 |商標注冊 |專利申請 |啟哈號 |速挖投訴平臺 |深度財經網 |深圳熱線 |財報網 |財報網 |財報網 |咕嚕財經 |太原熱線 |電路維修 |防水補漏 |水管維修 |墻面翻修 |舊房維修 |參考經濟網 |中原網視臺 |財經產業網 |全球經濟網 |消費導報網 |外貿網 |重播網 |國際財經網 |星島中文網 |手機測評 |品牌推廣 |名律網 |項目大全 |整形資訊 |整形新聞 |美麗網 |佳人網 |稅法網 |法務網 |法律服務 |法律咨詢 |成報網 |媒體采購網 |聚焦網 |參考網 |熱點網
亞洲資本網 版權所有
Copyright © 2011-2020 亞洲資本網 All Rights Reserved. 聯系網站:55 16 53 8 @qq.com