論文の概要: Uncertainty-Aware Dynamic Knowledge Graphs for Reliable Question Answering
- arxiv url: http://arxiv.org/abs/2601.09720v1
- Date: Fri, 26 Dec 2025 12:53:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-25 16:54:51.700779
- Title: Uncertainty-Aware Dynamic Knowledge Graphs for Reliable Question Answering
- Title(参考訳): 信頼性の高い質問応答のための不確実性を考慮した動的知識グラフ
- Authors: Yu Takahashi, Shun Takeuchi, Kexuan Xin, Guillaume Pelat, Yoshiaki Ikai, Junya Saito, Jonathan Vitale, Shlomo Berkovsky, Amin Beheshti,
- Abstract要約: i)進化するKGの動的構築,(ii)信頼度評価と不確実性認識検索,および(iii)信頼性と解釈可能なQAのための対話型インタフェースを組み合わせた,不確実性を考慮した動的KGのデモンストレーションを行う。
本システムでは,ユーザが動的グラフを探索し,信頼度を付与したトリプルを検査し,ベースラインと信頼度を意識した回答を比較することで,不確実性モデリングがQAをより堅牢かつ透明にする方法を強調している。
- 参考スコア(独自算出の注目度): 10.327538786351667
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Question answering (QA) systems are increasingly deployed across domains. However, their reliability is undermined when retrieved evidence is incomplete, noisy, or uncertain. Existing knowledge graph (KG) based QA frameworks typically represent facts as static and deterministic, failing to capture the evolving nature of information and the uncertainty inherent in reasoning. We present a demonstration of uncertainty-aware dynamic KGs, a framework that combines (i) dynamic construction of evolving KGs, (ii) confidence scoring and uncertainty-aware retrieval, and (iii) an interactive interface for reliable and interpretable QA. Our system highlights how uncertainty modeling can make QA more robust and transparent by enabling users to explore dynamic graphs, inspect confidence-annotated triples, and compare baseline versus confidence-aware answers. The target users of this demo are clinical data scientists and clinicians, and we instantiate the framework in healthcare: constructing personalized KGs from electronic health records, visualizing uncertainty across patient visits, and evaluating its impact on a mortality prediction task. This use case demonstrates the broader promise of uncertainty-aware dynamic KGs for enhancing QA reliability in high-stakes applications.
- Abstract(参考訳): 質問応答(QA)システムは、ドメインにまたがってますますデプロイされる。
しかし、その信頼性は、回収された証拠が不完全、騒々しい、あるいは不確実な場合に損なわれる。
既存の知識グラフ(KG)ベースのQAフレームワークは通常、事実を静的で決定論的として表現し、情報の進化する性質と推論に固有の不確実性を捉えない。
本稿では,不確実性を考慮した動的KGの実証について述べる。
(i)進化するKGの動的構成
二 信頼度評価及び不確実性認識検索、及び
三 信頼性及び解釈可能なQAのための対話型インタフェース。
本システムでは,ユーザが動的グラフを探索し,信頼度を付与したトリプルを検査し,ベースラインと信頼度を意識した回答を比較することで,不確実性モデリングがQAをより堅牢かつ透明にする方法を強調している。
電子カルテからパーソナライズされたKGを構築すること、患者訪問における不確実性を可視化すること、死亡予測タスクに対するその影響を評価することである。
このユースケースは、ハイテイクアプリケーションにおけるQA信頼性を高めるために、不確実性を考慮した動的KGの幅広い可能性を示す。
関連論文リスト
- From Passive Metric to Active Signal: The Evolving Role of Uncertainty Quantification in Large Language Models [77.04403907729738]
このサーベイは、受動的診断基準からリアルタイムモデル動作を導くアクティブ制御信号への不確実性の進化をグラフ化する。
3つのフロンティアにまたがるアクティブ制御信号として不確実性がいかに活用されているかを示す。
この調査は、次世代のスケーラブルで信頼性があり、信頼できるAIを構築するためには、新しい不確実性のトレンドを習得することが不可欠である、と論じている。
論文 参考訳(メタデータ) (2026-01-22T06:21:31Z) - Graphing the Truth: Structured Visualizations for Automated Hallucination Detection in LLMs [0.0]
本稿では,プロプライエタリな知識とモデル生成コンテンツをインタラクティブな視覚的知識グラフにまとめるフレームワークを提案する。
ユーザは不整合を診断し、弱い推論チェーンを特定し、修正フィードバックを提供する。
論文 参考訳(メタデータ) (2025-11-29T23:09:15Z) - Enhancing Trustworthiness with Mixed Precision: Benchmarks, Opportunities, and Challenges [12.438306093697]
大規模言語モデル(LLM)は、様々なタスクで有望なパフォーマンスを示している。
LLMの自己回帰デコーディングプロセスは、既存のAIハードウェアへの効率的なデプロイに重大な課題をもたらす。
論文 参考訳(メタデータ) (2025-11-27T14:17:43Z) - The challenge of uncertainty quantification of large language models in medicine [0.0]
本研究では,医学応用のための大規模言語モデル(LLM)の不確実性定量化について検討する。
私たちの研究は、不確実性を障壁としてではなく、AI設計に対する動的で反射的なアプローチを招待する知識の不可欠な部分として捉えています。
論文 参考訳(メタデータ) (2025-04-07T17:24:11Z) - Dynamic-KGQA: A Scalable Framework for Generating Adaptive Question Answering Datasets [9.785129730843435]
知識グラフから適応的なQAデータセットを生成するスケーラブルなフレームワークであるDynamic-KGQAを紹介する。
固定ベンチマークとは異なり、Dynamic-KGQAは、基盤となるディストリビューションを保持しながら、実行毎に新しいデータセットバリアントを生成する。
Dynamic-KGQAは、KGQAモデルのトレーニングと評価を容易にするコンパクトでセマンティックなコヒーレントなサブグラフを生成する。
論文 参考訳(メタデータ) (2025-03-06T23:58:01Z) - Know Where You're Uncertain When Planning with Multimodal Foundation Models: A Formal Framework [54.40508478482667]
認識と計画生成の不確実性を解消し、定量化し、緩和する包括的枠組みを提案する。
本稿では,知覚と意思決定の独特な性質に合わせた手法を提案する。
この不確実性分散フレームワークは, 変動率を最大40%削減し, タスク成功率をベースラインに比べて5%向上させることを示した。
論文 参考訳(メタデータ) (2024-11-03T17:32:00Z) - Which Client is Reliable?: A Reliable and Personalized Prompt-based Federated Learning for Medical Image Question Answering [51.26412822853409]
本稿では,医学的視覚的質問応答(VQA)モデルのための,パーソナライズド・フェデレーションド・ラーニング(pFL)手法を提案する。
提案手法では,学習可能なプロンプトをTransformerアーキテクチャに導入し,膨大な計算コストを伴わずに,多様な医療データセット上で効率的にトレーニングする。
論文 参考訳(メタデータ) (2024-10-23T00:31:17Z) - Certainly Uncertain: A Benchmark and Metric for Multimodal Epistemic and Aleatoric Awareness [106.52630978891054]
視覚言語AIシステムに特有の不確実性の分類法を提案する。
また、精度と校正誤差の両方によく相関する新しい計量信頼度重み付き精度を導入する。
論文 参考訳(メタデータ) (2024-07-02T04:23:54Z) - Are VQA Systems RAD? Measuring Robustness to Augmented Data with Focused
Interventions [18.545193011418654]
本稿では,視覚的質問応答(VQA)システムの一般化機能について考察する。
本稿では,モデル予測の一貫性を計測する新しいロバストネス尺度,Robustness to Augmented Data (RAD)を提案する。
私たちは、現在のVQAシステムがまだ脆弱であることを示す、重大な障害ケースを見つけました。
論文 参考訳(メタデータ) (2021-06-08T16:09:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。