論文の概要: Truth-Aware Context Selection: Mitigating the Hallucinations of Large
Language Models Being Misled by Untruthful Contexts
- arxiv url: http://arxiv.org/abs/2403.07556v1
- Date: Tue, 12 Mar 2024 11:40:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 21:55:58.041718
- Title: Truth-Aware Context Selection: Mitigating the Hallucinations of Large
Language Models Being Misled by Untruthful Contexts
- Title(参考訳): 真理認識コンテキスト選択:不真理なコンテキストによって誤解される大規模言語モデルの幻覚を緩和する
- Authors: Tian Yu, Shaolei Zhang and Yang Feng
- Abstract要約: 大規模言語モデル(LLM)は、ユーザや知識の議論ツールが提供する非現実的なコンテキストによって容易に誤解される。
我々は、入力から非現実的なコンテキストを保護するために、TACS(Truth-Aware Context Selection)を提案する。
- 参考スコア(独自算出の注目度): 35.70565340994264
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although large language models (LLMs) have demonstrated impressive text
generation capabilities, they are easily misled by the untruthful context
provided by users or knowledge argumentation tools, thereby producing
hallucinations. To alleviate the LLMs from being misled by untruthful
information and take advantage of knowledge argumentation, we propose
Truth-Aware Context Selection (TACS), a lightweight method to shield untruthful
context from the inputs. TACS begins by performing truth detection on the input
context, leveraging the parameterized knowledge within the LLM. Subsequently,
it constructs a corresponding attention mask based on the truthfulness of each
position, selecting the truthful context and discarding the untruthful context.
Additionally, we introduce a new evaluation metric, Disturbance Adaption Rate,
to further study the LLMs' ability to accept truthful information and resist
untruthful information. Experimental results show that TACS can effectively
filter information in context and significantly improve the overall quality of
LLMs' responses when presented with misleading information.
- Abstract(参考訳): 大規模言語モデル(llm)は印象的なテキスト生成能力を示しているが、ユーザや知識議論ツールが提供する真偽のコンテキストによって容易に誤解され、幻覚を生み出す。
本研究では,LLMが非現実的な情報によって誤解されるのを防止し,知識の議論を活かすために,非現実的なコンテキストを入力から保護する軽量な方法であるTruth-Aware Context Selection (TACS)を提案する。
TACSは入力コンテキスト上で真理検出を行い、LLM内のパラメータ化された知識を活用することから始まる。
その後、それぞれの位置の真理に基づいて対応する注意マスクを構築し、真理のコンテキストを選択し、真理のコンテキストを破棄する。
さらに,新たな評価基準である外乱適応率を導入し,LLMが真理情報を受け入れ,非真理情報に抵抗する能力をさらに研究する。
実験結果から,TACSはコンテキスト内の情報を効果的にフィルタリングし,誤った情報を表示するとLLMの応答の全体的な品質を著しく向上できることがわかった。
関連論文リスト
- Enhanced Language Model Truthfulness with Learnable Intervention and Uncertainty Expression [19.69104070561701]
大きな言語モデル(LLM)は長文で一貫性のあるテキストを生成することができるが、事実を幻覚させることが多い。
真性最適化のための学習可能なインターベンション手法であるLITOを提案する。
複数のLLMと質問応答データセットの実験は、LITOがタスク精度を維持しながら真理性を改善することを示した。
論文 参考訳(メタデータ) (2024-05-01T03:50:09Z) - LLMs' Reading Comprehension Is Affected by Parametric Knowledge and Struggles with Hypothetical Statements [59.71218039095155]
言語モデルの自然言語理解(NLU)能力を評価するための主要な手段として、読解理解(RC)があげられる。
文脈がモデルの内部知識と一致している場合、モデルの回答がコンテキスト理解に由来するのか、あるいは内部情報から生じるのかを識別することは困難である。
この問題に対処するために、架空の事実や実体に基づいて、想像上のデータにRCを使うことを提案する。
論文 参考訳(メタデータ) (2024-04-09T13:08:56Z) - Is Factuality Enhancement a Free Lunch For LLMs? Better Factuality Can Lead to Worse Context-Faithfulness [39.74642729786543]
我々は、現在の事実性向上手法は、大規模言語モデル(LLM)の文脈忠実性を著しく損なう可能性があると論じている。
実験の結果、これらの手法は事実の正確性に矛盾する改善をもたらす可能性があるが、文脈不信感の低下も引き起こすことが明らかとなった。
論文 参考訳(メタデータ) (2024-03-30T02:08:28Z) - TruthX: Alleviating Hallucinations by Editing Large Language Models in Truthful Space [31.769428095250912]
大規模言語モデル(LLM)は、正しい知識を知っていても、時に非現実的な応答を生成する。
LLMの真偽を活性化する推論時間介入手法であるTrathXを提案する。
論文 参考訳(メタデータ) (2024-02-27T14:45:04Z) - Improving Factual Consistency of Text Summarization by Adversarially
Decoupling Comprehension and Embellishment Abilities of LLMs [67.56087611675606]
大規模言語モデル(LLM)は、本来の記事と現実的に矛盾する要約を生成する。
これらの幻覚は、従来の方法による検出が困難である。
LLM(DECENT)の能力を阻害する逆デカップリング法を提案する。
論文 参考訳(メタデータ) (2023-10-30T08:40:16Z) - The Perils & Promises of Fact-checking with Large Language Models [55.869584426820715]
大規模言語モデル(LLM)は、学術論文、訴訟、ニュース記事を書くことをますます信頼されている。
語句検索,文脈データ検索,意思決定などにより,実検におけるLLMエージェントの使用状況を評価する。
本研究は, 文脈情報を用いたLLMの高度化を示すものである。
LLMは事実チェックにおいて有望であるが、不整合の正確性のため注意が必要である。
論文 参考訳(メタデータ) (2023-10-20T14:49:47Z) - Do Large Language Models Know about Facts? [60.501902866946]
大規模言語モデル(LLM)は、最近、さまざまな自然言語処理タスクにおいて、大幅なパフォーマンス改善を推進している。
我々は,ベンチマークPinocchioを設計し,LLM内の事実知識の範囲と範囲を評価することを目的とする。
Pinocchioには、異なるソース、タイムライン、ドメイン、リージョン、言語にまたがる20万のさまざまな事実質問が含まれている。
論文 参考訳(メタデータ) (2023-10-08T14:26:55Z) - DoLa: Decoding by Contrasting Layers Improves Factuality in Large
Language Models [79.01926242857613]
大型言語モデル(LLM)は幻覚を起こす傾向があり、事前訓練中に見られる事実から逸脱した内容を生成する。
事前学習したLLMによる幻覚を低減するための簡単な復号法を提案する。
コントラスティング・レイヤ(DoLa)アプローチによるこのデコーディングは,事実知識をよりよく提示し,誤った事実の生成を減らすことができる。
論文 参考訳(メタデータ) (2023-09-07T17:45:31Z) - Context-faithful Prompting for Large Language Models [51.194410884263135]
大言語モデル(LLM)は世界事実に関するパラメトリック知識を符号化する。
パラメトリック知識への依存は、文脈的手がかりを見落とし、文脈に敏感なNLPタスクにおいて誤った予測をもたらす可能性がある。
我々は, LLMの文脈的忠実度を, 知識の衝突と, 棄権による予測の2つの側面で評価し, 向上する。
論文 参考訳(メタデータ) (2023-03-20T17:54:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。