論文の概要: Explainable Deep Learning Framework for Human Activity Recognition
- arxiv url: http://arxiv.org/abs/2408.11552v1
- Date: Wed, 21 Aug 2024 11:59:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-22 17:17:15.197353
- Title: Explainable Deep Learning Framework for Human Activity Recognition
- Title(参考訳): ヒューマンアクティビティ認識のための説明可能なディープラーニングフレームワーク
- Authors: Yiran Huang, Yexu Zhou, Haibin Zhao, Till Riedel, Michael Beigl,
- Abstract要約: 本稿では,HARモデルの解釈性と有効性を高めるモデル非依存フレームワークを提案する。
競争力のあるデータ拡張を実装することで、我々のフレームワークはモデル決定の直感的でアクセスしやすい説明を提供する。
- 参考スコア(独自算出の注目度): 3.9146761527401424
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the realm of human activity recognition (HAR), the integration of explainable Artificial Intelligence (XAI) emerges as a critical necessity to elucidate the decision-making processes of complex models, fostering transparency and trust. Traditional explanatory methods like Class Activation Mapping (CAM) and attention mechanisms, although effective in highlighting regions vital for decisions in various contexts, prove inadequate for HAR. This inadequacy stems from the inherently abstract nature of HAR data, rendering these explanations obscure. In contrast, state-of-th-art post-hoc interpretation techniques for time series can explain the model from other perspectives. However, this requires extra effort. It usually takes 10 to 20 seconds to generate an explanation. To overcome these challenges, we proposes a novel, model-agnostic framework that enhances both the interpretability and efficacy of HAR models through the strategic use of competitive data augmentation. This innovative approach does not rely on any particular model architecture, thereby broadening its applicability across various HAR models. By implementing competitive data augmentation, our framework provides intuitive and accessible explanations of model decisions, thereby significantly advancing the interpretability of HAR systems without compromising on performance.
- Abstract(参考訳): 人間活動認識(HAR)の領域では、複雑なモデルの意思決定プロセスを解明し、透明性と信頼を促進するために、説明可能な人工知能(XAI)の統合が不可欠である。
クラスアクティベーションマッピング(CAM)やアテンションメカニズムのような従来の説明手法は、さまざまな文脈において決定に不可欠な領域を強調するのに有効であるが、HARには不十分であることが証明されている。
この不適切さは、本質的に抽象的なHARデータの性質に起因し、これらの説明を曖昧にしている。
対照的に、時系列に対する最先端のポストホック解釈技術は、他の観点からモデルを説明することができる。
しかし、これは余分な努力を要する。
通常、説明を生成するのに10秒から20秒かかる。
これらの課題を克服するために,競争データ拡張の戦略的利用を通じて,HARモデルの解釈可能性と有効性を両立させる,新しいモデルに依存しないフレームワークを提案する。
この革新的なアプローチは特定のモデルアーキテクチャに頼らず、様々なHARモデルに適用性を広げる。
競争力のあるデータ拡張を実装することで,本フレームワークはモデル決定の直感的かつアクセシブルな説明を提供し,性能を損なうことなく,HARシステムの解釈可能性を大幅に向上させる。
関連論文リスト
- Model-Agnostic Interpretation Framework in Machine Learning: A
Comparative Study in NBA Sports [0.2937071029942259]
本稿では,モデル性能と解釈可能性のトレードオフを整理する,革新的な枠組みを提案する。
我々のアプローチは高次元データに対するモジュラー操作を中心とし、解釈可能性を維持しながらエンドツーエンドの処理を可能にする。
我々は、我々のフレームワークを広範囲にテストし、計算効率と解釈可能性のバランスをとる上で、その優れた効果を検証した。
論文 参考訳(メタデータ) (2024-01-05T04:25:21Z) - Enhancing Explainability in Mobility Data Science through a combination
of methods [0.08192907805418582]
本稿では,重要なXAI技法を調和させる包括的フレームワークを提案する。
LIME Interpretable Model-a-gnostic Explanations, SHAP, Saliency Map, attention mechanism, direct trajectory Visualization, and Permutation Feature (PFI)
本研究の枠組みを検証するため,様々な利用者の嗜好や受容度を評価する調査を行った。
論文 参考訳(メタデータ) (2023-12-01T07:09:21Z) - A Novel Neural-symbolic System under Statistical Relational Learning [50.747658038910565]
本稿では,GBPGRと呼ばれる2段階の確率的グラフィカル推論フレームワークを提案する。
GBPGRでは、シンボル推論の結果を用いて、ディープラーニングモデルによる予測を洗練し、修正する。
提案手法は高い性能を示し, 帰納的タスクと帰納的タスクの両方において効果的な一般化を示す。
論文 参考訳(メタデータ) (2023-09-16T09:15:37Z) - Latent Variable Representation for Reinforcement Learning [131.03944557979725]
モデルに基づく強化学習のサンプル効率を改善するために、潜在変数モデルが学習、計画、探索をいかに促進するかは理論上、実証上、不明である。
状態-作用値関数に対する潜在変数モデルの表現ビューを提供する。これは、抽出可能な変分学習アルゴリズムと楽観主義/悲観主義の原理の効果的な実装の両方を可能にする。
特に,潜伏変数モデルのカーネル埋め込みを組み込んだUPB探索を用いた計算効率の良い計画アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-17T00:26:31Z) - Causal Reasoning Meets Visual Representation Learning: A Prospective
Study [117.08431221482638]
解釈可能性の欠如、堅牢性、分布外一般化が、既存の視覚モデルの課題となっている。
人間レベルのエージェントの強い推論能力にインスパイアされた近年では、因果推論パラダイムの開発に多大な努力が注がれている。
本稿では,この新興分野を包括的に概観し,注目し,議論を奨励し,新たな因果推論手法の開発の急激さを先導することを目的とする。
論文 参考訳(メタデータ) (2022-04-26T02:22:28Z) - Towards Interpretable Deep Reinforcement Learning Models via Inverse
Reinforcement Learning [27.841725567976315]
本稿では,逆逆強化学習を利用した新しいフレームワークを提案する。
このフレームワークは、強化学習モデルによる決定のグローバルな説明を提供する。
モデルの意思決定過程を要約することで、モデルが従う直感的な傾向を捉える。
論文 参考訳(メタデータ) (2022-03-30T17:01:59Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - Algebraic Learning: Towards Interpretable Information Modeling [0.0]
この論文は、一般的な情報モデリングにおける解釈可能性の問題に対処し、問題を2つの範囲から緩和する試みである。
まず、問題指向の視点を用いて、興味深い数学的性質が自然に現れるモデリング実践に知識を取り入れる。
第二に、訓練されたモデルを考えると、基礎となるシステムに関するさらなる洞察を抽出するために様々な方法を適用することができる。
論文 参考訳(メタデータ) (2022-03-13T15:53:39Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - A Dependency Syntactic Knowledge Augmented Interactive Architecture for
End-to-End Aspect-based Sentiment Analysis [73.74885246830611]
エンドツーエンドABSAのためのマルチタスク学習を用いた対話型アーキテクチャを新たに提案する。
このモデルは、よく設計された依存性関係埋め込みグラフ畳み込みネットワーク(DreGcn)を活用することで、構文知識(依存性関係と型)を完全に活用することができる。
3つのベンチマークデータセットの大規模な実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2020-04-04T14:59:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。