論文の概要: BOOST: Harnessing Black-Box Control to Boost Commonsense in LMs'
Generation
- arxiv url: http://arxiv.org/abs/2310.17054v1
- Date: Wed, 25 Oct 2023 23:32:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-27 22:55:28.486665
- Title: BOOST: Harnessing Black-Box Control to Boost Commonsense in LMs'
Generation
- Title(参考訳): BOOST:LM世代でコモンセンスを高めるブラックボックスコントロール
- Authors: Yufei Tian, Felix Zhang, Nanyun Peng
- Abstract要約: 本稿では,凍結した事前学習言語モデルを,より汎用的な生成に向けて操る,計算効率のよいフレームワークを提案する。
具体的には、まず、文に常識的スコアを割り当てる参照なし評価器を構築する。
次に、スコアラをコモンセンス知識のオラクルとして使用し、NADOと呼ばれる制御可能な生成法を拡張して補助ヘッドを訓練する。
- 参考スコア(独自算出の注目度): 60.77990074569754
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) such as GPT-3 have demonstrated a strong
capability to generate coherent and contextually relevant text. However, amidst
their successes, a crucial issue persists: their generated outputs still lack
commonsense at times. Moreover, fine-tuning the entire LLM towards more
commonsensical outputs is computationally expensive if not infeasible. In this
paper, we present a computation-efficient framework that steers a frozen
Pre-Trained Language Model (PTLM) towards more commonsensical generation (i.e.,
producing a plausible output that incorporates a list of concepts in a
meaningful way). Specifically, we first construct a reference-free evaluator
that assigns a sentence with a commonsensical score by grounding the sentence
to a dynamic commonsense knowledge base from four different relational aspects.
We then use the scorer as the oracle for commonsense knowledge, and extend the
controllable generation method called NADO to train an auxiliary head that
guides a fixed PTLM to better satisfy the oracle. We test our framework on a
series of GPT-2-, Flan-T5-, and Alpaca-based language models (LMs) on two
constrained concept-to-sentence benchmarks. Human evaluation results
demonstrate that our method consistently leads to the most commonsensical
outputs.
- Abstract(参考訳): GPT-3のような大規模言語モデル(LLM)は、一貫性と文脈に関連のあるテキストを生成する強力な能力を示している。
しかし、その成功の中で重大な問題は続いている: 生成されたアウトプットは、時として常識を欠いている。
さらに、LLM全体をより一般的な感覚出力に微調整することは、実現不可能でも計算コストがかかる。
本稿では,凍結した事前学習言語モデル(PTLM)をより一般的な感覚生成(つまり,概念のリストを有意義に組み込んだ可算な出力)に向けて操る,計算効率のよいフレームワークを提案する。
具体的には,まず,4つの異なる関係面から文を動的コモンセンス知識ベースに接地することで,文に共通感覚スコアを割り当てる参照フリー評価器を構築する。
その後、スコアラーをコモンセンス知識のオラクルとして使用し、nadoと呼ばれる制御可能な生成メソッドを拡張して、固定ptlmをガイドしてオラクルを満足させる補助ヘッドをトレーニングします。
GPT-2-, Flan-T5-, Alpaca をベースとした言語モデル (LM) を2つの制約付き概念・文間ベンチマークでテストした。
人間の評価結果は,本手法が常に最も一般的な感覚出力につながることを示す。
関連論文リスト
- Unveiling and Manipulating Prompt Influence in Large Language Models [12.04811490937078]
Token Distribution Dynamics (TDD)は、大規模言語モデル(LLM)の生成におけるプロンプトの役割を公表し、操作するための、テキストカラーの簡易かつ効果的なアプローチである。
論文 参考訳(メタデータ) (2024-05-20T09:15:36Z) - Enhancing Contextual Understanding in Large Language Models through Contrastive Decoding [9.2433070542025]
大規模言語モデル(LLM)は、テキスト生成時に入力コンテキストを不適切に統合する傾向がある。
本稿では, 逆無関係なパスを負のサンプルとして, コントラストデコーディングを統合する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-04T20:38:41Z) - FAC$^2$E: Better Understanding Large Language Model Capabilities by Dissociating Language and Cognition [56.76951887823882]
大規模言語モデル(LLM)は、主に様々なテキスト理解および生成タスクにおける全体的なパフォーマンスによって評価される。
FAC$2$E, FAC$2$Eについて述べる。
論文 参考訳(メタデータ) (2024-02-29T21:05:37Z) - LLMRefine: Pinpointing and Refining Large Language Models via Fine-Grained Actionable Feedback [65.84061725174269]
最近の大規模言語モデル(LLM)は、世代品質を改善するために人間のフィードバックを活用している。
LLMの出力を最適化する推論時間最適化手法であるLLMRefineを提案する。
機械翻訳、長文質問応答(QA)、話題要約を含む3つのテキスト生成タスクについて実験を行った。
LLMRefineは、すべてのベースラインアプローチを一貫して上回り、翻訳タスクの1.7 MetricXポイント、ASQAの8.1 ROUGE-L、トピックの要約の2.2 ROUGE-Lの改善を実現している。
論文 参考訳(メタデータ) (2023-11-15T19:52:11Z) - LINC: A Neurosymbolic Approach for Logical Reasoning by Combining
Language Models with First-Order Logic Provers [60.009969929857704]
論理的推論は、科学、数学、社会に潜在的影響を与える可能性のある人工知能にとって重要なタスクである。
本研究では、LINCと呼ばれるモジュール型ニューロシンボリックプログラミングのようなタスクを再構成する。
我々は,FOLIOとProofWriterのバランスの取れたサブセットに対して,ほぼすべての実験条件下で,3つの異なるモデルに対して顕著な性能向上を観察した。
論文 参考訳(メタデータ) (2023-10-23T17:58:40Z) - Constraints First: A New MDD-based Model to Generate Sentences Under
Constraints [45.498315114762484]
本稿では,強い制約のあるテキストを生成するための新しいアプローチを提案する。
制約に対処するためには、よく知られたデータ構造である多値決定図(MDD)を用いる。
私たちは、よく知られた視覚スクリーニングテスト(MNREAD)で通常利用できる数十の文と比較して、何百ものボナファイド候補文を得る。
論文 参考訳(メタデータ) (2023-09-21T18:29:52Z) - SelfCheckGPT: Zero-Resource Black-Box Hallucination Detection for
Generative Large Language Models [55.60306377044225]
「SelfCheckGPT」は、ブラックボックスモデルの応答をファクトチェックする単純なサンプリングベースアプローチである。
本稿では,GPT-3を用いてWikiBioデータセットから個人に関するパスを生成する手法について検討する。
論文 参考訳(メタデータ) (2023-03-15T19:31:21Z) - Reflective Decoding: Beyond Unidirectional Generation with Off-the-Shelf
Language Models [63.808843089941405]
大規模な事前訓練された言語モデル(LM)は、顕著な品質のテキストを生成するが、左から右へ連続的にしか生成しない。
非順序タスクへの一方向LMの直接適用を可能にする新しい教師なしアルゴリズムであるReflective Decodingを提案する。
2段階のアプローチでは、監視もパラレルコーパスも必要ありません。
論文 参考訳(メタデータ) (2020-10-16T18:02:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。