論文の概要: Explainable AI Using Inherently Interpretable Components for Wearable-based Health Monitoring
- arxiv url: http://arxiv.org/abs/2603.12880v1
- Date: Fri, 13 Mar 2026 10:31:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-16 17:38:12.050868
- Title: Explainable AI Using Inherently Interpretable Components for Wearable-based Health Monitoring
- Title(参考訳): ウェアラブル型健康モニタリングのためのインヒーレント解釈可能なコンポーネントを用いた説明可能なAI
- Authors: Maurice Kuschel, Solveig Vieluf, Claus Reinsberger, Tobias Loddenkemper, Tanuj Hasija,
- Abstract要約: 時系列データからAI予測を説明するために,説明空間と概念に基づく説明を組み合わせた新しいXAI手法を提案する。
Inherently Interpretable Components (IICs) を用いて、概念に基づく説明の解釈可能性を実現しつつ、時系列で訓練されたモデルの性能を保ちます。
- 参考スコア(独自算出の注目度): 5.773836636708158
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The use of wearables in medicine and wellness, enabled by AI-based models, offers tremendous potential for real-time monitoring and interpretable event detection. Explainable AI (XAI) is required to assess what models have learned and build trust in model outputs, for patients, healthcare professionals, model developers, and domain experts alike. Explaining AI decisions made on time-series data recorded by wearables is especially challenging due to the data's complex nature and temporal dependencies. Too often, explainability using interpretable features leads to performance loss. We propose a novel XAI method that combines explanation spaces and concept-based explanations to explain AI predictions on time-series data. By using Inherently Interpretable Components (IICs), which encapsulate domain-specific, interpretable concepts within a custom explanation space, we preserve the performance of models trained on time series while achieving the interpretability of concept-based explanations based on extracted features. Furthermore, we define a domain-specific set of IICs for wearable-based health monitoring and demonstrate their usability in real applications, including state assessment and epileptic seizure detection.
- Abstract(参考訳): 医療におけるウェアラブルの利用と、AIベースのモデルによって実現されたウェルネスは、リアルタイムの監視と解釈可能なイベント検出に膨大な可能性を秘めている。
説明可能なAI(XAI)は、モデルが学んだことを評価し、患者、医療専門家、モデル開発者、ドメインエキスパートなどのモデルアウトプットに対する信頼を構築するために必要である。
ウェアラブルが記録する時系列データに基づくAI決定の説明は、データの複雑な性質と時間的依存関係のため、特に難しい。
あまりに頻繁に、解釈可能な機能を使用した説明可能性によってパフォーマンスが低下する。
時系列データからAI予測を説明するために,説明空間と概念に基づく説明を組み合わせた新しいXAI手法を提案する。
Inherently Interpretable Components (IICs) を用いて、ドメイン固有で解釈可能な概念をカスタムな説明空間内にカプセル化することにより、時系列で訓練されたモデルの性能を保ちながら、抽出された特徴に基づく概念ベースの説明の解釈可能性を達成する。
さらに、ウェアラブルベースの健康モニタリングのためのドメイン固有のICCセットを定義し、状態評価やてんかん発作検出を含む実際のアプリケーションにおけるそれらのユーザビリティを実証する。
関連論文リスト
- XForecast: Evaluating Natural Language Explanations for Time Series Forecasting [72.57427992446698]
時系列予測は、特に正確な予測に依存するステークホルダーにとって、意思決定を支援する。
伝統的に説明可能なAI(XAI)メソッドは、機能や時間的重要性を基盤とするものであり、専門家の知識を必要とすることが多い。
時系列データにおける複雑な因果関係のため,予測NLEの評価は困難である。
論文 参考訳(メタデータ) (2024-10-18T05:16:39Z) - Interpreting Differentiable Latent States for Healthcare Time-series
Data [4.581930518669275]
本稿では,高関係な入力特徴を用いて潜時状態の解釈を可能にする簡潔なアルゴリズムを提案する。
本手法により、実世界の医療データセットにおける夜間行動を予測するために、昼間の行動パターンを識別できることを示す。
論文 参考訳(メタデータ) (2023-11-29T11:48:16Z) - QXAI: Explainable AI Framework for Quantitative Analysis in Patient
Monitoring Systems [9.29069202652354]
定量的分析のための説明可能なAI(QXAI)フレームワークは、回帰および分類タスクのポストホックモデル説明可能性と本質的な説明可能性によって提案される。
我々は,センサデータに基づく心拍数予測と身体活動の分類を行うために,人工ニューラルネットワーク (ANN) と注意に基づく双方向LSTM (BiLSTM) モデルを採用した。
論文 参考訳(メタデータ) (2023-09-19T03:50:30Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - Towards a Rigorous Evaluation of Explainability for Multivariate Time
Series [5.786452383826203]
本研究では,時系列予測問題におけるモデル非依存な説明可能性の実現と評価を行った。
その解決策は、販売契約を予測する時系列予測問題として問題をフレーミングすることであった。
LIMEとSHAPによる説明は、機械学習モデルによる予測を理解する上で、人間を大いに助けた。
論文 参考訳(メタデータ) (2021-04-06T17:16:36Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Proactive Pseudo-Intervention: Causally Informed Contrastive Learning
For Interpretable Vision Models [103.64435911083432]
PPI(Proactive Pseudo-Intervention)と呼ばれる新しい対照的な学習戦略を提案する。
PPIは、因果関係のない画像の特徴を保護するために積極的に介入する。
また,重要な画像画素を識別するための,因果的に通知された新たなサリエンスマッピングモジュールを考案し,モデル解釈の容易性を示す。
論文 参考訳(メタデータ) (2020-12-06T20:30:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。