論文の概要: Explainable Activity Recognition for Smart Home Systems
- arxiv url: http://arxiv.org/abs/2105.09787v2
- Date: Fri, 26 May 2023 16:21:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 00:45:24.021176
- Title: Explainable Activity Recognition for Smart Home Systems
- Title(参考訳): スマートホームシステムのための説明可能なアクティビティ認識
- Authors: Devleena Das, Yasutaka Nishimura, Rajan P. Vivek, Naoto Takeda, Sean
T. Fish, Thomas Ploetz, Sonia Chernova
- Abstract要約: 我々は、説明可能な活動認識フレームワークを開発するために、説明可能な人工知能(XAI)技術からの洞察に基づいて構築する。
以上の結果から,XAI アプローチ SHAP は 92% の成功率を持つことが明らかとなった。
サンプルシナリオの83%では、ユーザは単純なアクティビティラベルよりも自然言語の説明を好む。
- 参考スコア(独自算出の注目度): 9.909901668370589
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Smart home environments are designed to provide services that help improve
the quality of life for the occupant via a variety of sensors and actuators
installed throughout the space. Many automated actions taken by a smart home
are governed by the output of an underlying activity recognition system.
However, activity recognition systems may not be perfectly accurate and
therefore inconsistencies in smart home operations can lead users reliant on
smart home predictions to wonder "why did the smart home do that?" In this
work, we build on insights from Explainable Artificial Intelligence (XAI)
techniques and introduce an explainable activity recognition framework in which
we leverage leading XAI methods to generate natural language explanations that
explain what about an activity led to the given classification. Within the
context of remote caregiver monitoring, we perform a two-step evaluation: (a)
utilize ML experts to assess the sensibility of explanations, and (b) recruit
non-experts in two user remote caregiver monitoring scenarios, synchronous and
asynchronous, to assess the effectiveness of explanations generated via our
framework. Our results show that the XAI approach, SHAP, has a 92% success rate
in generating sensible explanations. Moreover, in 83% of sampled scenarios
users preferred natural language explanations over a simple activity label,
underscoring the need for explainable activity recognition systems. Finally, we
show that explanations generated by some XAI methods can lead users to lose
confidence in the accuracy of the underlying activity recognition model. We
make a recommendation regarding which existing XAI method leads to the best
performance in the domain of smart home automation, and discuss a range of
topics for future work to further improve explainable activity recognition.
- Abstract(参考訳): スマートホーム環境は、空間全体に設置されたさまざまなセンサーやアクチュエータを通じて、居住者の生活の質を改善するサービスを提供するように設計されている。
スマートホームが行う多くの自動アクションは、基礎となるアクティビティ認識システムの出力によって制御される。
しかし、アクティビティ認識システムは必ずしも正確ではないため、スマートホーム操作の不整合により、スマートホームの予測に頼って「なぜスマートホームがそれをしたのか?
本研究は、説明可能な人工知能(XAI)技術からの洞察に基づいて、先導的なXAI手法を利用して、与えられた分類に繋がった活動が何をもたらすかを説明する自然言語の説明を生成する、説明可能なアクティビティ認識フレームワークを導入する。
遠隔介護者監視の文脈において,我々は2段階評価を行う。
(a)MLの専門家を用いて説明の感受性を評価し、
(b) 当社のフレームワークを通じて生成された説明の有効性を評価するために, 同期および非同期の2つのリモート介護監視シナリオにおいて, 非専門家を採用。
以上の結果から,XAI アプローチ SHAP は 92% の成功率を持つことが明らかとなった。
さらに、サンプルシナリオの83%では、ユーザは単純なアクティビティラベルよりも自然言語の説明を好み、説明可能なアクティビティ認識システムの必要性を強調している。
最後に、いくつかのXAI手法によって生成された説明は、ユーザが基礎となる活動認識モデルの精度を損なう可能性があることを示す。
スマートホームオートメーションの分野では,既存のXAI手法が最高のパフォーマンスをもたらすのかを推奨するとともに,今後の課題を議論して,より説明可能な活動認識を改善する。
関連論文リスト
- Adaptive Language-Guided Abstraction from Contrastive Explanations [53.48583372522492]
報酬を計算するためにこれらの特徴をどのように使うべきかを決定する前に、環境のどの特徴が関係しているかを決定する必要がある。
連立特徴と報奨学習のためのエンドツーエンドの手法は、しばしば、刺激的な状態特徴に敏感な脆い報酬関数をもたらす。
本稿では,言語モデルを用いて人間に意味のある特徴を反復的に識別するALGAEという手法について述べる。
論文 参考訳(メタデータ) (2024-09-12T16:51:58Z) - Using Large Language Models to Compare Explainable Models for Smart Home Human Activity Recognition [0.3277163122167433]
本稿では,Large Language Models (LLMs) を用いた自動評価手法を提案する。
予備的な結果は,LCMの評価がユーザ調査と一致していることを示唆している。
論文 参考訳(メタデータ) (2024-07-24T12:15:07Z) - Layout Agnostic Human Activity Recognition in Smart Homes through Textual Descriptions Of Sensor Triggers (TDOST) [0.22354214294493352]
スマートホームにおけるヒューマンアクティビティ認識(HAR)システムのためのレイアウトに依存しないモデリング手法を開発した。
我々は、周囲のトリガー条件をカプセル化するセンサートリガーのテキスト記述(TDOST)を生成する。
我々は、ベンチマークしたCASASデータセットの実験を通して、見知らぬスマートホームにおけるTDOSTベースのモデルの有効性を実証する。
論文 参考訳(メタデータ) (2024-05-20T20:37:44Z) - Explaining AI Decisions: Towards Achieving Human-Centered Explainability in Smart Home Environments [45.55363754551388]
我々は、スマートホームシステムにおける説明を表現する上で、人間中心のアプローチの必要性を論じる。
本稿では,人間中心のXAI手法を提唱し,理解しやすい説明を提供することの重要性を強調した。
論文 参考訳(メタデータ) (2024-04-23T22:31:42Z) - Unsupervised Self-Driving Attention Prediction via Uncertainty Mining
and Knowledge Embedding [51.8579160500354]
本研究では、不確実性モデリングと知識統合の駆動による自動運転の注意を予測できる教師なし手法を提案する。
結果は、完全に教師された最先端のアプローチと比較して、同等またはさらに印象的なパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-03-17T00:28:33Z) - Learning Action-Effect Dynamics for Hypothetical Vision-Language
Reasoning Task [50.72283841720014]
本研究では,行動の効果に関する推論を改善する新しい学習戦略を提案する。
本稿では,提案手法の有効性を実証し,性能,データ効率,一般化能力の観点から,従来のベースラインに対する優位性を論じる。
論文 参考訳(メタデータ) (2022-12-07T05:41:58Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Backprop-Free Reinforcement Learning with Active Neural Generative
Coding [84.11376568625353]
動的環境におけるエラー(バックプロップ)のバックプロパゲーションを伴わない行動駆動型生成モデルの学習のための計算フレームワークを提案する。
我々は、まばらな報酬でも機能するインテリジェントエージェントを開発し、推論として計画の認知理論からインスピレーションを得ている。
我々のエージェントの堅牢な性能は、神経推論と学習のためのバックプロップフリーアプローチがゴール指向の行動を促進するという有望な証拠を提供する。
論文 参考訳(メタデータ) (2021-07-10T19:02:27Z) - Domain-Robust Visual Imitation Learning with Mutual Information
Constraints [0.0]
Disentangling Generative Adversarial Imitation Learning (DisentanGAIL)と呼ばれる新しいアルゴリズムを導入する。
本アルゴリズムは,タスクを実行する専門家の高次元観察から自律エージェントを直接学習することを可能にする。
論文 参考訳(メタデータ) (2021-03-08T21:18:58Z) - Enabling Edge Cloud Intelligence for Activity Learning in Smart Home [1.3858051019755284]
エッジクラウドアーキテクチャに基づく新しいアクティビティ学習フレームワークを提案する。
我々は,1つのスマートホーム環境における活動認識と予測に時間的特徴を利用する。
論文 参考訳(メタデータ) (2020-05-14T11:43:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。