論文の概要: TruthX: Alleviating Hallucinations by Editing Large Language Models in
Truthful Space
- arxiv url: http://arxiv.org/abs/2402.17811v1
- Date: Tue, 27 Feb 2024 14:45:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-29 17:24:41.643606
- Title: TruthX: Alleviating Hallucinations by Editing Large Language Models in
Truthful Space
- Title(参考訳): truthx: 真理空間における大規模言語モデルの編集による幻覚の緩和
- Authors: Shaolei Zhang, Tian Yu, Yang Feng
- Abstract要約: 本稿では,大規模言語モデル (LLM) の真偽を推論時間で推定する方法である TruthX を提案する。
TruthXは自動エンコーダを使用して、LLMの表現をそれぞれ意味的および真正な潜在空間にマッピングし、真正空間内の真正な編集方向を特定するために対照的な学習を適用する。
実験の結果,TruthfulQAベンチマークでは,13の高度なLCMの真偽を平均20%向上することがわかった。
- 参考スコア(独自算出の注目度): 35.70565340994264
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) have demonstrated remarkable capabilities across
various tasks. However, they sometimes suffer from producing hallucinations,
particularly in cases where they may generate untruthful responses despite
possessing the correct knowledge. In this paper, we propose TruthX, an
inference-time method to elicit the truthfulness of LLMs by editing their
internal representations in truthful space. TruthX employs an auto-encoder to
map LLM's representations into semantic and truthful latent spaces
respectively, and applies contrastive learning to identify a truthful editing
direction within the truthful space. During inference, by editing LLM's
internal representations in truthful space, TruthX effectively enhances the
truthfulness of LLMs. Experiments show that TruthX effectively improves the
truthfulness of 13 advanced LLMs by an average of 20% on TruthfulQA benchmark.
Further analyses suggest that the truthful space acquired by TruthX plays a
pivotal role in controlling LLM to produce truthful or hallucinatory responses.
- Abstract(参考訳): 大規模言語モデル(llm)は様々なタスクにまたがる顕著な能力を示している。
しかし、しばしば幻覚を生じさせ、特に正しい知識を持っているにもかかわらず、不合理な反応を起こすことがある。
本論文では,LLMの内部表現を真理空間で編集することで,LLMの真理性を引き出す推論時間手法であるTrathXを提案する。
TruthX は自動エンコーダを用いて LLM の表現をそれぞれ意味空間と真理空間にマッピングし、真理空間内の真理編集方向を特定するために対照的な学習を適用する。
推測では、LLMの内部表現を真理空間で編集することで、TruthXはLLMの内部表現を効果的に強化する。
実験の結果,TruthfulQAベンチマークでは,13の高度なLCMの真偽を平均20%向上することがわかった。
さらなる分析により、トゥルースXが獲得した真理空間は、真理または幻覚応答を生成するLLMを制御する上で重要な役割を担っていることが示唆される。
関連論文リスト
- FLAME: Factuality-Aware Alignment for Large Language Models [86.76336610282401]
従来のアライメントプロセスでは,大規模言語モデル(LLM)の事実精度が向上しない。
両段階の幻覚につながる要因は,教師付き微調整(SFT)と強化学習(RL)である。
直接選好最適化により,事実認識型SFTと事実認識型RLで構成された事実認識型アライメントを提案する。
論文 参考訳(メタデータ) (2024-05-02T17:54:54Z) - Truth-Aware Context Selection: Mitigating the Hallucinations of Large Language Models Being Misled by Untruthful Contexts [31.769428095250912]
大規模言語モデル(LLM)は、ユーザや知識向上ツールが提供する非現実的なコンテキストによって容易に誤解される。
我々は、入力から非現実的なコンテキストを保護するために、TACS(Truth-Aware Context Selection)を提案する。
論文 参考訳(メタデータ) (2024-03-12T11:40:44Z) - GRATH: Gradual Self-Truthifying for Large Language Models [63.502835648056305]
GRATH(Gradual Self-Truthifying)は,大規模言語モデル(LLM)の真偽性を高めるためのポストプロセッシング手法である。
GRATHは、反復的に真理データを洗練し、モデルを更新する。
GRATHはTruthfulQAの最先端性能を達成し、MC1の精度は54.71%、MC2の精度は69.10%であり、70B-LLMよりも高い。
論文 参考訳(メタデータ) (2024-01-22T19:00:08Z) - Truth Forest: Toward Multi-Scale Truthfulness in Large Language Models
through Intervention without Tuning [18.92421817900689]
大規模言語モデル(LLM)における真理性を高める手法であるTrath Forestを紹介する。
また、シーケンス内の幅広い位置を考慮に入れた体系的手法であるランダム・ピークを導入する。
論文 参考訳(メタデータ) (2023-12-29T06:08:18Z) - LLM Factoscope: Uncovering LLMs' Factual Discernment through Inner
States Analysis [12.411191820675045]
大規模言語モデル(LLM)は、現実と異なる出力を生成する。
この現象は特に、医療相談や法的な助言といった繊細な応用に関係している。
本稿では,LCMの内部状態を実測に活用した,新しいシームズネットワークベースモデルであるLCMファクトスコープを提案する。
論文 参考訳(メタデータ) (2023-12-27T01:44:47Z) - FactCHD: Benchmarking Fact-Conflicting Hallucination Detection [52.513957834345746]
FactCHD は LLM からファクトコンフリクトの幻覚を検出するために設計されたベンチマークである。
FactCHDは、バニラ、マルチホップ、比較、セット操作など、さまざまな事実パターンにまたがる多様なデータセットを備えている。
Llama2 に基づくツール強化 ChatGPT と LoRA-tuning による反射的考察を合成する Truth-Triangulator を提案する。
論文 参考訳(メタデータ) (2023-10-18T16:27:49Z) - The Geometry of Truth: Emergent Linear Structure in Large Language Model
Representations of True/False Datasets [7.953477673546057]
大きな言語モデル(LLM)には印象的な機能があるが、偽装を出力する傾向がある。
本稿では,言語モデルが事実文の真偽を線形に表現していることを示す。
提案手法は, モデル出力において他の探索手法よりも因果関係が深く, より一般化し, 因果関係が深い新しい手法である質量平均探索法を提案する。
論文 参考訳(メタデータ) (2023-10-10T17:54:39Z) - Do Large Language Models Know about Facts? [60.501902866946]
大規模言語モデル(LLM)は、最近、さまざまな自然言語処理タスクにおいて、大幅なパフォーマンス改善を推進している。
我々は,ベンチマークPinocchioを設計し,LLM内の事実知識の範囲と範囲を評価することを目的とする。
Pinocchioには、異なるソース、タイムライン、ドメイン、リージョン、言語にまたがる20万のさまざまな事実質問が含まれている。
論文 参考訳(メタデータ) (2023-10-08T14:26:55Z) - DoLa: Decoding by Contrasting Layers Improves Factuality in Large
Language Models [79.01926242857613]
大型言語モデル(LLM)は幻覚を起こす傾向があり、事前訓練中に見られる事実から逸脱した内容を生成する。
事前学習したLLMによる幻覚を低減するための簡単な復号法を提案する。
コントラスティング・レイヤ(DoLa)アプローチによるこのデコーディングは,事実知識をよりよく提示し,誤った事実の生成を減らすことができる。
論文 参考訳(メタデータ) (2023-09-07T17:45:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。