論文の概要: 100% Elimination of Hallucinations on RAGTruth for GPT-4 and GPT-3.5 Turbo
- arxiv url: http://arxiv.org/abs/2412.05223v2
- Date: Wed, 26 Mar 2025 15:18:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-27 14:57:01.077801
- Title: 100% Elimination of Hallucinations on RAGTruth for GPT-4 and GPT-3.5 Turbo
- Title(参考訳): GPT-4およびGPT-3.5ターボのRAGTruthに対する幻覚の100%除去
- Authors: Michael C. Wood, Adam A. Forbes,
- Abstract要約: Acuraiは、入力前にクエリやコンテキストデータを再構成することで、大きな言語モデル(LLM)で100%幻覚のない応答を達成する。
本手法をRAGTruth corpusを用いて検証し, GPT-4 と GPT-3.5 Turbo の幻覚を100%除去できることを実証した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The issue of hallucinations in large language models (LLMs) remains a critical barrier to the adoption of AI in enterprise and other high-stakes applications. Despite advancements in retrieval-augmented generation (RAG) systems, current state-of-the-art methods fail to achieve more than 80% accuracy in generating faithful and factually correct outputs, even when provided with relevant and accurate context. In this work, we introduce Acurai, a novel systematic approach that achieves 100% hallucination-free responses in LLMs by reformatting queries and context data prior to input. Leveraging a deep understanding of LLM internal representations, the importance of noun-phrase dominance, and the role of discrete functional units (DFUs), Acurai ensures alignment between input context and generated output. We validate this method using the RAGTruth corpus, demonstrating its ability to eliminate 100% hallucinations for both GPT-4 and GPT-3.5 Turbo. Acurai sets a new standard for achieving consistent, accurate, and faithful AI responses, marking a significant step forward in the development of trustworthy AI systems.
- Abstract(参考訳): 大規模言語モデル(LLMs)における幻覚の問題は、エンタープライズや他の高度なアプリケーションでAIを採用する上で、依然として重要な障壁である。
検索強化世代(RAG)システムの進歩にもかかわらず、現在の最先端の手法は、関連性があり正確なコンテキストが与えられた場合でも、忠実で事実的に正しい出力を生成する際に80%以上の精度を達成できない。
本研究では,LLMにおける100%幻覚のない応答を,入力前にクエリやコンテキストデータを再構成することで実現した,新しい体系的アプローチであるAcuraiを紹介する。
LLMの内部表現の深い理解、名詞句支配の重要性、離散関数単位(DFU)の役割を活用することで、Acuraiは入力コンテキストと生成された出力の整合性を確保する。
本手法をRAGTruth corpusを用いて検証し, GPT-4 と GPT-3.5 Turbo の幻覚を100%除去できることを実証した。
Acuraiは、一貫性があり、正確で忠実なAI応答を達成するための、新しい標準を設定している。
関連論文リスト
- PropRAG: Guiding Retrieval with Beam Search over Proposition Paths [2.548569570955189]
PropRAGは、文脈的に豊かな命題と提案経路上の新しいビーム探索アルゴリズムを活用するフレームワークである。
PropRAGのオンライン検索プロセスは、生成する大規模言語モデルを呼び出すことなく完全に動作する。
PropRAGは、PopQA (55.3%)、2Wiki (93.7%)、2HotpotQA (97.0%)、MuSiQue (77.3%)で最先端のゼロショットリコール@5結果を達成する。
論文 参考訳(メタデータ) (2025-04-25T04:47:34Z) - Towards Statistical Factuality Guarantee for Large Vision-Language Models [15.51028935811803]
LVLM出力の事実性に関する有限サンプル分布自由統計保証を実現するためのフレームワークを提案する。
ConfLVLMは、シーン記述においてLLaVa-1.5が生成したクレームの誤り率を87.8%から10.0%に下げ、95.3%の真の正のクレームをフィルタリングする。
さらに, ConfLVLMは高い柔軟性を示し, 画像条件付き自由形式のテキスト生成タスクに対して, 不確実性を考慮した任意のブラックボックスLVLMに適用可能であることを示した。
論文 参考訳(メタデータ) (2025-02-27T22:01:22Z) - Trustworthy Answers, Messier Data: Bridging the Gap in Low-Resource Retrieval-Augmented Generation for Domain Expert Systems [7.76315323320043]
生のマルチモーダルデータを構造化コーパスとQ&Aペアに変換するデータ生成パイプラインを導入する。
本システムは,非RAGベースライン上での事実正当性(+1.94),報知性(+1.16),助力性(+1.67)を改善する。
結果は、強い答えの根拠と透明性によって、異なる側面にわたるアプローチの有効性を強調します。
論文 参考訳(メタデータ) (2025-02-26T22:20:08Z) - Hallucination Mitigation using Agentic AI Natural Language-Based Frameworks [0.0]
現在のジェネレーティブAIモデルにおいて、幻覚は依然として重要な課題である。
本研究では,複数の人工知能エージェントを編成することで幻覚を緩和する方法について検討する。
論文 参考訳(メタデータ) (2025-01-19T11:19:25Z) - Understand What LLM Needs: Dual Preference Alignment for Retrieval-Augmented Generation [64.7982176398485]
Retrieval-augmented Generation (RAG)は、大規模言語モデル(LLM)の幻覚化問題を緩和する効果を実証している。
本稿では,RAGシステム内での多様な知識嗜好の整合を図った汎用フレームワークであるDPA-RAGを提案する。
論文 参考訳(メタデータ) (2024-06-26T18:26:53Z) - Synchronous Faithfulness Monitoring for Trustworthy Retrieval-Augmented Generation [96.78845113346809]
Retrieval-augmented Language Model (RALMs) は、知識集約型タスクにおいて、高い性能と幅広い適用性を示している。
本稿では,非偽文の検出に微細な復号力学を利用する軽量モニタであるSynCheckを提案する。
また、長文検索拡張生成のためのビームサーチによって導かれる忠実度指向の復号アルゴリズムであるFODを導入する。
論文 参考訳(メタデータ) (2024-06-19T16:42:57Z) - Retrieve Only When It Needs: Adaptive Retrieval Augmentation for Hallucination Mitigation in Large Language Models [68.91592125175787]
幻覚は、大規模言語モデル(LLM)の実践的実装において重要な課題となる。
本稿では,幻覚に対処するための選択的検索拡張プロセスにより,Lowenを改良する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-02-16T11:55:40Z) - It's Never Too Late: Fusing Acoustic Information into Large Language
Models for Automatic Speech Recognition [70.77292069313154]
大規模言語モデル(LLM)は、自動音声認識(ASR)出力の上の生成誤り訂正(GER)に成功することができる。
本研究では,不確実性認識ダイナミックフュージョン (UADF) と呼ばれる新しい遅延融合解によって予測された転写を生成する前に,音響情報を注入することにより,そのような制限を克服することを目的とする。
論文 参考訳(メタデータ) (2024-02-08T07:21:45Z) - INSIDE: LLMs' Internal States Retain the Power of Hallucination Detection [39.52923659121416]
本稿では,textbfinternal textbfStates内に保持される密接な意味情報について,HoluctextbfInation textbfDEtectionについて検討する。
応答の自己整合性をよりよく評価するために、単純で効果的な textbfEigenScore メトリクスが提案されている。
内部状態における極端なアクティベーションを阻害するために,テスト時間特徴クリッピング手法を提案する。
論文 参考訳(メタデータ) (2024-02-06T06:23:12Z) - HyPoradise: An Open Baseline for Generative Speech Recognition with
Large Language Models [81.56455625624041]
ASRの誤り訂正に外部の大規模言語モデル(LLM)を利用する最初のオープンソースベンチマークを導入する。
提案したベンチマークには、334,000組以上のN-best仮説を含む新しいデータセットHyPoradise (HP)が含まれている。
合理的なプロンプトと生成能力を持つLLMは、N-bestリストに欠けているトークンを修正できる。
論文 参考訳(メタデータ) (2023-09-27T14:44:10Z) - A Stitch in Time Saves Nine: Detecting and Mitigating Hallucinations of
LLMs by Validating Low-Confidence Generation [76.34411067299331]
大規模な言語モデルは、しばしば信頼性を著しく損なう「ハロシン化」する傾向がある。
生成過程における幻覚を積極的に検出・緩和する手法を提案する。
提案手法は, GPT-3.5モデルの幻覚を平均47.5%から14.5%に低減する。
論文 参考訳(メタデータ) (2023-07-08T14:25:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。