論文の概要: Knowledge-Augmented Language Model Verification
- arxiv url: http://arxiv.org/abs/2310.12836v1
- Date: Thu, 19 Oct 2023 15:40:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-20 14:35:27.456483
- Title: Knowledge-Augmented Language Model Verification
- Title(参考訳): 知識強化型言語モデル検証
- Authors: Jinheon Baek, Soyeong Jeong, Minki Kang, Jong C. Park, Sung Ju Hwang
- Abstract要約: 最近の言語モデル(LM)は、パラメータに内在化された知識を持つテキストを生成する際、印象的な能力を示している。
本稿では,知識付加型LMの出力と知識を別個の検証器で検証することを提案する。
その結果,提案した検証器は,検索と生成の誤りを効果的に識別し,LMがより現実的に正しい出力を提供できることを示した。
- 参考スコア(独自算出の注目度): 68.6099592486075
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent Language Models (LMs) have shown impressive capabilities in generating
texts with the knowledge internalized in parameters. Yet, LMs often generate
the factually incorrect responses to the given queries, since their knowledge
may be inaccurate, incomplete, and outdated. To address this problem, previous
works propose to augment LMs with the knowledge retrieved from an external
knowledge source. However, such approaches often show suboptimal text
generation performance due to two reasons: 1) the model may fail to retrieve
the knowledge relevant to the given query, or 2) the model may not faithfully
reflect the retrieved knowledge in the generated text. To overcome these, we
propose to verify the output and the knowledge of the knowledge-augmented LMs
with a separate verifier, which is a small LM that is trained to detect those
two types of errors through instruction-finetuning. Then, when the verifier
recognizes an error, we can rectify it by either retrieving new knowledge or
generating new text. Further, we use an ensemble of the outputs from different
instructions with a single verifier to enhance the reliability of the
verification processes. We validate the effectiveness of the proposed
verification steps on multiple question answering benchmarks, whose results
show that the proposed verifier effectively identifies retrieval and generation
errors, allowing LMs to provide more factually correct outputs. Our code is
available at https://github.com/JinheonBaek/KALMV.
- Abstract(参考訳): 最近の言語モデル (lms) は、パラメータに内在した知識を持つテキストを生成する素晴らしい能力を示している。
しかし、LMは、その知識が不正確で不完全であり、時代遅れである可能性があるため、与えられたクエリに対する事実的に誤った応答を生成することが多い。
この問題に対処するため、従来の研究では、外部知識ソースから取得した知識を用いてLMを強化することを提案した。
しかし、このようなアプローチは2つの理由から、最適テキスト生成性能を示すことが多い。
1) モデルは,所定のクエリに関する知識の取得に失敗する可能性がある。
2) モデルは,生成されたテキストから得られた知識を忠実に反映するものではない。
そこで本研究では,これらの2種類の誤りを命令ファインタニングによって検出する訓練を施した,別個の検証器による知識付加型LMの出力と知識の検証を提案する。
そして、検証者がエラーを認識すると、新しい知識を検索するか、新しいテキストを生成することで修正できる。
さらに,検証プロセスの信頼性を高めるために,異なる命令からの出力を単一の検証器でアンサンブルする。
提案手法の有効性を複数の質問応答ベンチマークで検証し,提案手法の有効性を検証した結果,提案手法は検索と生成の誤りを効果的に識別し,LMがより現実的に正しい出力を提供できることを示した。
私たちのコードはhttps://github.com/JinheonBaek/KALMV.comから入手可能です。
関連論文リスト
- GenAudit: Fixing Factual Errors in Language Model Outputs with Evidence [68.82726887802856]
GenAudit - 文書基底タスクの事実チェック LLM 応答を支援するためのツール。
これらのタスクを実行するためにモデルをトレーニングし、ユーザに対して推奨の編集とエビデンスを示すインタラクティブインターフェースを設計します。
システムによってほとんどのエラーがフラグ付けされていることを保証するため,精度への影響を最小限に抑えつつエラーリコールを増大させる手法を提案する。
論文 参考訳(メタデータ) (2024-02-19T21:45:55Z) - ChIRAAG: ChatGPT Informed Rapid and Automated Assertion Generation [11.029782515762477]
大規模言語モデル(LLM)による自動アサーション生成が注目されている。
我々はLLMに基づく新しいパイプラインを設計し、自然言語仕様から英語、線形時間論理、SVAのアサーションを生成する。
以上の結果から,LCMはアサーション生成ワークフローを合理化し,検証を再構築できることがわかった。
論文 参考訳(メタデータ) (2024-01-31T12:41:27Z) - Deductive Closure Training of Language Models for Coherence, Accuracy,
and Updatability [52.298001704957635]
言語モデル(LM)は、実際に正しいテキストを生成し、個々のクレームの真理値を推定することがある。
現在のLMは誤った内容や非意味な内容を生成しており、編集や更新は困難である。
本稿では,DCT(Deductive Closure Training)と呼ばれる手法を提案する。
論文 参考訳(メタデータ) (2024-01-16T18:58:37Z) - R-Tuning: Teaching Large Language Models to Refuse Unknown Questions [68.60002086172133]
我々はRefusal-Aware Instruction Tuning (R-Tuning)と呼ばれる新しいアプローチを提案する。
このアプローチは、まずパラメトリック知識と命令チューニングデータの間の知識ギャップを識別することによって定式化される。
実験により、この新しい命令チューニングアプローチは、既知の質問に答えるモデルの能力を効果的に改善することを示した。
論文 参考訳(メタデータ) (2023-11-16T08:45:44Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - Automatic Hallucination Assessment for Aligned Large Language Models via
Transferable Adversarial Attacks [98.22864957942821]
本稿では,大規模言語モデルが忠実に振る舞う既存データを適切に修正し,評価データを自動的に生成する手法を開発することを目的とする。
具体的には,LLM ベースのフレームワークである Auto Debug について述べる。
実験結果から, LLMは, インプロンプトに与えられた知識とパラメトリック知識との間に矛盾がある場合, 質問応答シナリオの2つのカテゴリに幻覚を与える可能性が示唆された。
論文 参考訳(メタデータ) (2023-10-19T06:37:32Z) - FactLLaMA: Optimizing Instruction-Following Language Models with
External Knowledge for Automated Fact-Checking [10.046323978189847]
本稿では,命令追従言語モデルと外部エビデンス検索を併用して,ファクトチェック性能を向上させることを提案する。
我々のアプローチは、与えられた入力クレームに関する適切な証拠を検索するために検索エンジンを活用することである。
そして、この証拠を用いて、LLaMAと呼ばれるオープンソースの言語モデルを作成し、入力クレームの正確性をより正確に予測できるようにする。
論文 参考訳(メタデータ) (2023-09-01T04:14:39Z) - SelfEvolve: A Code Evolution Framework via Large Language Models [5.6607714367826105]
大きな言語モデル(LLM)は、公開コードデータで事前訓練された後、コード生成に革命をもたらした。
本稿では,LLMを知識提供者と自己表現型プログラマの両方として活用する,autoknowと呼ばれる新しい2段階パイプラインを提案する。
データサイエンスコードのDS-1000、ソフトウェアエンジニアリングコードのHumanEval、C++からPythonへの翻訳のためのTransCoderの3つの自動知識生成データセットを評価した。
論文 参考訳(メタデータ) (2023-06-05T14:12:46Z) - LM-CORE: Language Models with Contextually Relevant External Knowledge [13.451001884972033]
モデルパラメータに大量の知識を格納することは、絶え間なく増加する知識とリソースの要求を考えると、準最適である、と我々は主張する。
LM-CORE - これを実現するための一般的なフレームワークで、外部の知識ソースから言語モデルのトレーニングをテキストデカップリングすることができる。
実験結果から, LM-COREは知識探索タスクにおいて, 最先端の知識強化言語モデルよりも大きく, 堅牢な性能を実現していることがわかった。
論文 参考訳(メタデータ) (2022-08-12T18:59:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。