論文の概要: Hallucination Detection and Mitigation with Diffusion in Multi-Variate Time-Series Foundation Models
- arxiv url: http://arxiv.org/abs/2508.00881v1
- Date: Wed, 23 Jul 2025 11:09:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-10 09:30:49.290727
- Title: Hallucination Detection and Mitigation with Diffusion in Multi-Variate Time-Series Foundation Models
- Title(参考訳): 多変量時系列基礎モデルにおける幻覚検出と拡散による緩和
- Authors: Vijja Wichitwechkarn, Charles Fox, Ruchi Choudhary,
- Abstract要約: MVTS幻覚の新しい定義と,新しい検出法と緩和法を提案する。
我々は、一般的な時系列データセットから関係データセットを導き、幻覚レベルをベンチマークする。
- 参考スコア(独自算出の注目度): 1.8434042562191815
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Foundation models for natural language processing have many coherent definitions of hallucination and methods for its detection and mitigation. However, analogous definitions and methods do not exist for multi-variate time-series (MVTS) foundation models. We propose new definitions for MVTS hallucination, along with new detection and mitigation methods using a diffusion model to estimate hallucination levels. We derive relational datasets from popular time-series datasets to benchmark these relational hallucination levels. Using these definitions and models, we find that open-source pre-trained MVTS imputation foundation models relationally hallucinate on average up to 59.5% as much as a weak baseline. The proposed mitigation method reduces this by up to 47.7% for these models. The definition and methods may improve adoption and safe usage of MVTS foundation models.
- Abstract(参考訳): 自然言語処理の基礎モデルには、幻覚の多くのコヒーレントな定義と、その検出と緩和のための方法がある。
しかし、Multi-variate Time-Series (MVTS) の基礎モデルには類似の定義や手法は存在しない。
本研究では,MVTS幻覚の新しい定義と,拡散モデルを用いて幻覚レベルを推定する新たな検出法と緩和法を提案する。
我々は、これらの関係性幻覚レベルをベンチマークするために、人気のある時系列データセットから関係性データセットを導出する。
これらの定義とモデルを用いて、オープンソースで事前訓練されたMVTSインプット基礎モデルは、平均して59.5%の弱いベースラインでリレーショナル幻覚を呈する。
提案手法により,これらのモデルに対して最大47.7%削減できる。
この定義と方法はMVTSファンデーションモデルの採用と安全な使用を改善する可能性がある。
関連論文リスト
- LD-RPS: Zero-Shot Unified Image Restoration via Latent Diffusion Recurrent Posterior Sampling [23.886038479359918]
本稿では,事前学習した潜伏拡散モデルを用いた再帰サンプリングによるデータセットフリーで統一的な手法を提案する。
本手法では,マルチモーダル理解モデルを用いて,タスクブレンド条件下で生成モデルにセマンティックな事前情報を提供する。
論文 参考訳(メタデータ) (2025-07-01T14:25:09Z) - Mitigating Image Captioning Hallucinations in Vision-Language Models [13.707454974844095]
視覚言語モデルの幻覚は、信頼性と現実の応用性を妨げている。
本稿では,推論中の幻覚を緩和するための強化学習を用いた新しいテスト時間適応フレームワークを提案する。
本手法は, 幻覚緩和効果が68.3%向上し, 最先端のベースラインを上回った。
論文 参考訳(メタデータ) (2025-05-06T10:55:21Z) - Semantic Entropy Probes: Robust and Cheap Hallucination Detection in LLMs [32.901839335074676]
幻覚は、大規模言語モデルの導入において大きな課題となる。
Farquhar et al. (2024) による最近の研究はセマンティックエントロピー (SE) を提案している。
本稿では, 単一世代の隠蔽状態から直接SEを近似するSEPを提案する。
論文 参考訳(メタデータ) (2024-06-22T19:46:06Z) - A New Benchmark and Reverse Validation Method for Passage-level
Hallucination Detection [63.56136319976554]
大きな言語モデル(LLM)は幻覚を発生させ、ミッションクリティカルなタスクにデプロイすると大きなダメージを与える可能性がある。
本稿では,逆検証に基づく自己チェック手法を提案し,ゼロリソース方式で事実誤りを自動的に検出する。
提案手法と既存のゼロリソース検出手法を2つのデータセット上で実証的に評価した。
論文 参考訳(メタデータ) (2023-10-10T10:14:59Z) - How Much is Enough? A Study on Diffusion Times in Score-based Generative
Models [76.76860707897413]
現在のベストプラクティスは、フォワードダイナミクスが既知の単純なノイズ分布に十分に近づくことを確実にするために大きなTを提唱している。
本稿では, 理想とシミュレーションされたフォワードダイナミクスのギャップを埋めるために補助モデルを用いて, 標準的な逆拡散過程を導出する方法について述べる。
論文 参考訳(メタデータ) (2022-06-10T15:09:46Z) - Fake It Till You Make It: Near-Distribution Novelty Detection by
Score-Based Generative Models [54.182955830194445]
既存のモデルは、いわゆる"近く分布"設定で失敗するか、劇的な低下に直面します。
本稿では, スコアに基づく生成モデルを用いて, 合成近分布異常データを生成することを提案する。
本手法は,9つのノベルティ検出ベンチマークにおいて,近分布ノベルティ検出を6%改善し,最先端のノベルティ検出を1%から5%パスする。
論文 参考訳(メタデータ) (2022-05-28T02:02:53Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [54.94763543386523]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。