亞洲資本網 > 關注 > 正文
調查分析兩百余篇大模型論文,數十位研究者一文綜述RLHF的挑戰與局限
2023-08-01 17:38:13來源: 機器之心

自 ChatGPT 問世,OpenAI 使用的訓練方法人類反饋強化學習(RLHF)就備受關注,已經成為微調大型語言模型(LLM)的核心方法。RLHF 方法在訓練中使用人類反饋,以最小化無益、失真或偏見的輸出,使 AI 模型與人類價值觀對齊。

然而,RLHF 方法也存在一些缺陷,最近來自 MIT CSAIL、哈佛大學、哥倫比亞大學等機構的數十位研究者聯合發表了一篇綜述論文,對兩百余篇領域內的研究論文進行分析探討,系統地研究了 RLHF 方法的缺陷。

論文地址:https://huggingface.co/papers/2307.15217


【資料圖】

總的來說,該論文強調了 RLHF 的局限性,并表明開發更安全的 AI 系統需要使用多方面方法(multi-faceted approach)。研究團隊做了如下工作:

調查了 RLHF 和相關方法的公開問題和基本限制;概述了在實踐中理解、改進和補充 RLHF 的方法;提出審計和披露標準,以改善社會對 RLHF 系統的監督。

具體來說,論文的核心內容包括以下三個部分:

1.RLHF 面臨的具體挑戰。研究團隊對 RLHF 相關問題進行了分類和調查,并區分了 RLHF 面臨的挑戰與 RLHF 的根本局限性,前者更容易解決,可以在 RLHF 框架內使用改進方法來解決,而后者則必須通過其他方法來解決對齊問題。

2. 將 RLHF 納入更廣泛的技術安全框架。論文表明 RLHF 并非開發安全 AI 的完整框架,并闡述了有助于更好地理解、改進和補充 RLHF 的一些方法,強調了多重冗余策略(multiple redundant strategy)對減少問題的重要性。

3. 治理與透明度。該論文分析探討了改進行業規范面臨的挑戰。例如,研究者討論了讓使用 RLHF 訓練 AI 系統的公司披露訓練細節是否有用。

我們來看下論文核心部分的結構和基本內容。

如下圖 1 所示,該研究分析了與 RLHF 相關 3 個過程:收集人類反饋、獎勵建模和策略優化。其中,反饋過程引出人類對模型輸出的評估;獎勵建模過程使用監督學習訓練出模仿人類評估的獎勵模型;策略優化過程優化人工智能系統,以產生獎勵模型評估更優的輸出。論文第三章從這三個過程以及聯合訓練獎勵模型和策略四個方面探討了 RLHF 方法存在的問題和挑戰。

論文第三章總結的問題表明:嚴重依賴 RLHF 來開發人工智能系統會帶來安全風險。雖然 RLHF 很有用,但它并沒有解決開發人性化人工智能的基本挑戰。

研究團隊認為:任何單一策略都不應被視為綜合解決方案。更好的做法是采用多種安全方法的「深度防御」,論文第四章從理解、改進、補充 RLHF 這幾個方面詳細闡述了提高 AI 安全性的方法。

論文第五章概述了 RLHF 治理面臨的風險因素和審計措施。

總結

該研究發現,實踐中很多問題來源于 RLHF 的根本局限性,必須采用非 RLHF 的方法來避免或彌補。因此,該論文強調兩種策略的重要性:(1) 根據 RLHF 和其他方法的根本局限性來評估技術進步,(2) 通過采取深度防御安全措施和與科學界公開共享研究成果,來應對 AI 的對齊問題。

此外,該研究闡明一些挑戰和問題并非是 RLHF 所獨有的,如 RL 策略的難題,還有一些是 AI 對齊的基本問題。

感興趣的讀者可以閱讀論文原文,了解更多研究內容。

關鍵詞:

專題新聞
  • 預防、搶修兩手抓,河北移動聚力抗汛保暢通
  • 勤哲EXCEL服務器無代碼實現裝飾企業管理系統
  • 成都大運會女排直播/回放平臺
  • 妻子談萊萬未來:不知發生什么,但我無法想象巴塞羅那以外的生活
  • 追夢赤子心!六載寒暑,武漢三鎮梯隊球員朱梓墨歷經足球的苦與樂
  • 在這里,有一處被稱為“南風古灶”的地方,今天,就讓我們一起走進南風古灶,感受千年窯火的不朽魅力。

京ICP備2021034106號-51

Copyright © 2011-2020  亞洲資本網   All Rights Reserved. 聯系網站:55 16 53 8 @qq.com