論文の概要: Enhancing Hallucination Detection via Future Context
- arxiv url: http://arxiv.org/abs/2507.20546v1
- Date: Mon, 28 Jul 2025 06:13:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 16:23:57.881745
- Title: Enhancing Hallucination Detection via Future Context
- Title(参考訳): 将来の文脈による幻覚検出の強化
- Authors: Joosung Lee, Cheonbok Park, Hwiyeol Jo, Jeonghoon Kim, Joonsuk Park, Kang Min Yoo,
- Abstract要約: ブラックボックスジェネレータのための幻覚検出フレームワークを開発した。
幻覚が一度導入されると持続する傾向にあるという観察に動機付けられ、我々は将来の文脈をサンプリングする。
サンプル化された将来の文脈は幻覚検出のための貴重な手がかりを提供し、様々なサンプリングベースの手法と効果的に統合することができる。
- 参考スコア(独自算出の注目度): 24.949380108597197
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) are widely used to generate plausible text on online platforms, without revealing the generation process. As users increasingly encounter such black-box outputs, detecting hallucinations has become a critical challenge. To address this challenge, we focus on developing a hallucination detection framework for black-box generators. Motivated by the observation that hallucinations, once introduced, tend to persist, we sample future contexts. The sampled future contexts provide valuable clues for hallucination detection and can be effectively integrated with various sampling-based methods. We extensively demonstrate performance improvements across multiple methods using our proposed sampling approach.
- Abstract(参考訳): 大規模言語モデル(LLM)は、生成プロセスを明らかにすることなく、オンラインプラットフォーム上で可塑性テキストを生成するために広く使用されている。
ユーザーがこのようなブラックボックス出力に遭遇するにつれて、幻覚を検出することが重要な課題となっている。
この課題に対処するために、ブラックボックスジェネレータのための幻覚検出フレームワークの開発に焦点をあてる。
幻覚が一度導入されると持続する傾向にあるという観察に動機付けられ、我々は将来の文脈をサンプリングする。
サンプル化された将来の文脈は幻覚検出のための貴重な手がかりを提供し、様々なサンプリングベースの手法と効果的に統合することができる。
提案手法を用いて,複数の手法にまたがる性能改善を広範囲に示す。
関連論文リスト
- Generate, but Verify: Reducing Hallucination in Vision-Language Models with Retrospective Resampling [67.14942827452161]
VLM(Vision-Language Models)は視覚的理解に優れ、視覚幻覚に悩まされることが多い。
本研究では,幻覚を意識したトレーニングとオンザフライの自己検証を統合した統合フレームワークREVERSEを紹介する。
論文 参考訳(メタデータ) (2025-04-17T17:59:22Z) - Robust Hallucination Detection in LLMs via Adaptive Token Selection [25.21763722332831]
大きな言語モデル(LLM)の幻覚は、より広範なデプロイメントを妨げる重要な安全性上の懸念を引き起こす。
本研究では,適応的選択とクリティカルトークンの学習を通じて,幻覚の堅牢な検出を可能にする新しいアプローチであるHaMIを提案する。
本研究では,ハロシン化検出タスクの革新的な定式化により,このロバスト性を実現する。
論文 参考訳(メタデータ) (2025-04-10T15:39:10Z) - Detecting and Mitigating Hallucination in Large Vision Language Models via Fine-Grained AI Feedback [40.930238150365795]
我々は,LVLM(Large Vision Language Models)における幻覚の検出と緩和について,きめ細かいAIフィードバックを用いて提案する。
プロプライエタリモデルによる小型幻覚アノテーションデータセットを生成する。
そこで本研究では,幻覚緩和モデルの訓練のための選好データセットを自動構築する検出テーマ書き換えパイプラインを提案する。
論文 参考訳(メタデータ) (2024-04-22T14:46:10Z) - AutoHall: Automated Hallucination Dataset Generation for Large Language Models [56.92068213969036]
本稿では,AutoHallと呼ばれる既存のファクトチェックデータセットに基づいて,モデル固有の幻覚データセットを自動的に構築する手法を提案する。
また,自己コントラディションに基づくゼロリソース・ブラックボックス幻覚検出手法を提案する。
論文 参考訳(メタデータ) (2023-09-30T05:20:02Z) - HaluEval: A Large-Scale Hallucination Evaluation Benchmark for Large
Language Models [146.87696738011712]
大型言語モデル(LLM)は幻覚を生成する傾向があり、すなわち、ソースと矛盾したり、事実の知識によって検証できないコンテンツである。
言語モデル(HaluEval)のための幻覚評価ベンチマーク(Halucination Evaluation benchmark)を導入する。
論文 参考訳(メタデータ) (2023-05-19T15:36:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。