論文の概要: A Cause-Effect Look at Alleviating Hallucination of Knowledge-grounded Dialogue Generation
- arxiv url: http://arxiv.org/abs/2404.03491v1
- Date: Thu, 4 Apr 2024 14:45:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-05 14:31:56.719147
- Title: A Cause-Effect Look at Alleviating Hallucination of Knowledge-grounded Dialogue Generation
- Title(参考訳): 知識接地対話生成のハロシン化を緩和する要因
- Authors: Jifan Yu, Xiaohan Zhang, Yifan Xu, Xuanyu Lei, Zijun Yao, Jing Zhang, Lei Hou, Juanzi Li,
- Abstract要約: 我々は,対話知識の相互作用を利用して,KGDの幻覚を緩和するための解決策を提案する。
本手法は,他の対話性能を損なうことなく幻覚を低減できることを示す。
- 参考スコア(独自算出の注目度): 51.53917938874146
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Empowered by the large-scale pretrained language models, existing dialogue systems have demonstrated impressive performance conducting fluent and natural-sounding conversations. However, they are still plagued by the hallucination problem, causing unpredictable factual errors in the generated responses. Recently, knowledge-grounded dialogue generation models, that intentionally invoke external knowledge resources to more informative responses, are also proven to be effective in reducing hallucination. Following the idea of getting high-quality knowledge, a few efforts have achieved pretty good performance on this issue. As some inevitable knowledge noises may also lead to hallucinations, it is emergent to investigate the reason and future directions for building noise-tolerant methods in KGD tasks. In this paper, we analyze the causal story behind this problem with counterfactual reasoning methods. Based on the causal effect analysis, we propose a possible solution for alleviating the hallucination in KGD by exploiting the dialogue-knowledge interaction. Experimental results of our example implementation show that this method can reduce hallucination without disrupting other dialogue performance, while keeping adaptive to different generation models. We hope our efforts can support and call for more attention to developing lightweight techniques towards robust and trusty dialogue systems.
- Abstract(参考訳): 既存の対話システムは,大規模な事前学習型言語モデルを活用して,流動的で自然な会話を行うという印象的なパフォーマンスを実証している。
しかし、それらはまだ幻覚の問題に悩まされており、生成した応答において予測不可能な事実エラーを引き起こしている。
近年,外部知識資源を故意に呼び起こしてより情報的応答を与える知識接地対話生成モデルも,幻覚の低減に有効であることが証明されている。
高品質な知識を得るというアイデアに続き、いくつかの取り組みがこの問題でかなり優れたパフォーマンスを実現しています。
必然的な知識ノイズも幻覚を引き起こす可能性があるため、KGDタスクにおけるノイズ耐性手法の構築の理由と今後の方向性を調査することが急務である。
本稿では,この問題の背後にある因果関係を,反実的推論手法を用いて分析する。
因果効果分析に基づいて,対話と知識の相互作用を利用して,KGDの幻覚を緩和するための解決策を提案する。
本手法は,異なる世代モデルに適応しながら,他の対話性能を損なうことなく幻覚を低減できることを示す。
我々は、堅牢で信頼性の高い対話システムに向けた軽量な技術開発に、我々の取り組みを支援し、より注意を喚起することを願っている。
関連論文リスト
- Detecting and Mitigating Hallucination in Large Vision Language Models via Fine-Grained AI Feedback [48.065569871444275]
我々は,LVLM(Large Vision Language Models)における幻覚の検出と緩和について,きめ細かいAIフィードバックを用いて提案する。
プロプライエタリモデルによる小型幻覚アノテーションデータセットを生成する。
そこで本研究では,幻覚緩和モデルの訓練のための選好データセットを自動構築する検出テーマ書き換えパイプラインを提案する。
論文 参考訳(メタデータ) (2024-04-22T14:46:10Z) - Hallucinations in Neural Automatic Speech Recognition: Identifying
Errors and Hallucinatory Models [11.492702369437785]
幻覚は、ソースの発声とは意味的に無関係であるが、それでも流動的でコヒーレントである。
単語誤り率などの一般的なメトリクスは、幻覚モデルと非幻覚モデルとを区別できないことを示す。
本研究は,幻覚を識別する枠組みを考案し,その意味的関係と基礎的真理と流布との関係を解析する。
論文 参考訳(メタデータ) (2024-01-03T06:56:56Z) - HalluciDoctor: Mitigating Hallucinatory Toxicity in Visual Instruction Data [102.56792377624927]
機械生成データに固有の幻覚は未発見のままである。
本稿では,クロスチェックパラダイムに基づく新しい幻覚検出・除去フレームワークであるHaluciDoctorを提案する。
LLaVAに比べて44.6%の幻覚を緩和し,競争性能を維持した。
論文 参考訳(メタデータ) (2023-11-22T04:52:58Z) - Towards Mitigating Hallucination in Large Language Models via
Self-Reflection [63.2543947174318]
大規模言語モデル(LLM)は、質問応答(QA)タスクを含む生成的および知識集約的なタスクを約束している。
本稿では,広範に採用されているLCMとデータセットを用いた医療再生QAシステムにおける幻覚現象を解析する。
論文 参考訳(メタデータ) (2023-10-10T03:05:44Z) - Diving Deep into Modes of Fact Hallucinations in Dialogue Systems [2.8360662552057323]
知識グラフ(KG)に基づく会話は、しばしば大きな事前訓練されたモデルを使用し、通常、事実幻覚に悩まされる。
我々は、応答を生成しながら、誤った内容を制御する微妙な信号を提供するエンティティレベルの幻覚検出システムを構築した。
論文 参考訳(メタデータ) (2023-01-11T13:08:57Z) - Contrastive Learning Reduces Hallucination in Conversations [76.55116206021346]
そこで我々はMixCLという対照的な学習手法を提案する。
LMの暗黙的知識抽出過程を明示的に最適化するために、新しい混合コントラスト目的を提案する。
我々は、MixCLが最先端KBベースのアプローチに匹敵する性能を実現することを示す。
論文 参考訳(メタデータ) (2022-12-20T16:26:18Z) - Neural Path Hunter: Reducing Hallucination in Dialogue Systems via Path
Grounding [15.62141731259161]
知識グラフ(KG)による既知の事実に対するニューラルダイアログシステムの忠実度向上の課題に焦点をあてる。
KG の k-hop サブグラフを用いて生成した応答を修正する生成・再定義戦略に従ったニューラルパスハンターを提案する。
提案モデルは,モデルを再トレーニングすることなく,任意の対話生成応答に容易に適用できる。
論文 参考訳(メタデータ) (2021-04-17T05:23:44Z) - Retrieval Augmentation Reduces Hallucination in Conversation [49.35235945543833]
知識に基づく対話のためのループ型ニューラルネットワークアーキテクチャの利用を検討する。
我々は,2つの知識に基づく会話タスクにおいて,最高のモデルが最先端のパフォーマンスを得ることを示す。
論文 参考訳(メタデータ) (2021-04-15T16:24:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。