論文の概要: InEx: Hallucination Mitigation via Introspection and Cross-Modal Multi-Agent Collaboration
- arxiv url: http://arxiv.org/abs/2512.02981v1
- Date: Tue, 02 Dec 2025 17:59:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-03 21:04:45.994598
- Title: InEx: Hallucination Mitigation via Introspection and Cross-Modal Multi-Agent Collaboration
- Title(参考訳): InEx: イントロスペクションとクロスモーダルマルチエージェントコラボレーションによる幻覚軽減
- Authors: Zhongyu Yang, Yingfang Yuan, Xuanming Jiang, Baoyi An, Wei Pang,
- Abstract要約: InExは、幻覚を自律的に緩和するために設計された、トレーニング不要でマルチエージェントのフレームワークである。
InExは既存の手法を一貫して上回り、一般および幻覚ベンチマークで4%-27%向上した。
- 参考スコア(独自算出の注目度): 6.103123418191468
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hallucination remains a critical challenge in large language models (LLMs), hindering the development of reliable multimodal LLMs (MLLMs). Existing solutions often rely on human intervention or underutilize the agent's ability to autonomously mitigate hallucination. To address these limitations, we draw inspiration from how humans make reliable decisions in the real world. They begin with introspective reasoning to reduce uncertainty and form an initial judgment, then rely on external verification from diverse perspectives to reach a final decision. Motivated by this cognitive paradigm, we propose InEx, a training-free, multi-agent framework designed to autonomously mitigate hallucination. InEx introduces internal introspective reasoning, guided by entropy-based uncertainty estimation, to improve the reliability of the decision agent's reasoning process. The agent first generates a response, which is then iteratively verified and refined through external cross-modal multi-agent collaboration with the editing agent and self-reflection agents, further enhancing reliability and mitigating hallucination. Extensive experiments show that InEx consistently outperforms existing methods, achieving 4%-27% gains on general and hallucination benchmarks, and demonstrating strong robustness.
- Abstract(参考訳): 幻覚は大きな言語モデル(LLM)において重要な課題であり、信頼性の高いマルチモーダルLSM(MLLM)の開発を妨げる。
既存のソリューションは、しばしば人間の介入に依存したり、幻覚を自律的に緩和するエージェントの能力を弱めたりする。
これらの制限に対処するために、人間が現実世界で信頼できる意思決定をする方法からインスピレーションを得ます。
彼らはまず、不確実性を減らし、最初の判断を形成するために内省的推論から始まり、その後、さまざまな視点から外部の検証に頼って最終決定に達する。
この認知パラダイムを動機として,幻覚を自律的に緩和するトレーニングフリーでマルチエージェントなフレームワークであるInExを提案する。
InExは、エントロピーに基づく不確実性推定によって導かれる内部の内省的推論を導入し、意思決定者の推論プロセスの信頼性を向上させる。
エージェントは、最初に応答を生成し、その後、編集剤及び自己反射剤との外部の相互マルチエージェント協調により反復的に検証され、精製され、さらに信頼性を高め、幻覚を緩和する。
大規模な実験によると、InExは既存の手法を一貫して上回り、一般と幻覚のベンチマークで4%-27%の上昇を示し、強い堅牢性を示している。
関連論文リスト
- Multi-agent Undercover Gaming: Hallucination Removal via Counterfactual Test for Multimodal Reasoning [12.06050648342985]
幻覚は、大きな言語モデルの推論能力において大きな障害となる。
以下、Multi-Adnt Undercover Gaming(MUG)プロトコルを紹介します。
MUGは、マルチモーダル・カウンターファクト・テスト(英語版)を用いることで、(幻覚に苦しむ)「アンダーカバー」エージェントを検出するプロセスとしてMADを再編成する。
論文 参考訳(メタデータ) (2025-11-14T11:27:55Z) - Simulating and Understanding Deceptive Behaviors in Long-Horizon Interactions [18.182800471968132]
大規模言語モデルにおける偽造の探索と評価のための最初のシミュレーションフレームワークを紹介する。
11のフロンティアモデルで実験を行い、クローズドシステムとオープンソースシステムの両方にまたがっています。
詐欺はモデルに依存しており、イベントプレッシャーの増加とともに増加し、常に監督的信頼を損なう。
論文 参考訳(メタデータ) (2025-10-05T02:18:23Z) - Self-Consistency as a Free Lunch: Reducing Hallucinations in Vision-Language Models via Self-Reflection [71.8243083897721]
視覚言語モデルは、しばしば詳細を幻覚させ、既存のオブジェクトを生成するか、出力信頼性を損なう不正確な属性を生成する。
本稿では、長文応答と短文応答の自己整合性を利用して、学習のための選好ペアを生成する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-27T10:37:11Z) - LLM-based Agents Suffer from Hallucinations: A Survey of Taxonomy, Methods, and Directions [80.12078194093013]
LLMをベースとした幻覚の包括的調査を行った。
そこで本研究では,異なる段階において発生するさまざまな種類の幻覚を識別する新しい分類法を提案する。
エージェント幻覚の出現の根底にある18の要因について詳細な検討を行った。
論文 参考訳(メタデータ) (2025-09-23T13:24:48Z) - Towards Mitigation of Hallucination for LLM-empowered Agents: Progressive Generalization Bound Exploration and Watchdog Monitor [18.9616029343245]
大型言語モデル(LLM)が生成する幻覚は、知的エージェントの信頼性を損なう。
HalMitは、LCMを動力とするエージェントの一般化境界をモデル化する、新しいブラックボックスウォッチドッグフレームワークである。
論文 参考訳(メタデータ) (2025-07-21T09:08:58Z) - Delusions of Large Language Models [62.43923767408462]
大規模言語モデルは、しばしば幻覚として知られる、事実的に間違っているが、もっともらしい出力を生成する。
高信頼幻覚と定義され、不正確な出力を異常に高い信頼性で検出し、緩和することが難しくなる、より惨めな現象であるLSM妄想を識別する。
論文 参考訳(メタデータ) (2025-03-09T17:59:16Z) - What if...?: Thinking Counterfactual Keywords Helps to Mitigate Hallucination in Large Multi-modal Models [50.97705264224828]
大規模マルチモーダルモデルに反現実的思考を組み込む新しい手法である反現実的インセプションを提案する。
我々は、より広い文脈のシーン理解にまたがる応答をモデルが関与し、生成することを目指している。
オープンソースモデルとプロプライエタリモデルの両方を含む様々なLMMの包括的分析は、反事実的思考が幻覚を著しく減少させることを裏付ける。
論文 参考訳(メタデータ) (2024-03-20T11:27:20Z) - Towards Mitigating Hallucination in Large Language Models via
Self-Reflection [63.2543947174318]
大規模言語モデル(LLM)は、質問応答(QA)タスクを含む生成的および知識集約的なタスクを約束している。
本稿では,広範に採用されているLCMとデータセットを用いた医療再生QAシステムにおける幻覚現象を解析する。
論文 参考訳(メタデータ) (2023-10-10T03:05:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。