論文の概要: Explainable Activity Recognition for Smart Home Systems
- arxiv url: http://arxiv.org/abs/2105.09787v1
- Date: Thu, 20 May 2021 14:35:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-21 13:23:42.409147
- Title: Explainable Activity Recognition for Smart Home Systems
- Title(参考訳): スマートホームシステムのための説明可能なアクティビティ認識
- Authors: Devleena Das, Yasutaka Nishimura, Rajan P. Vivek, Naoto Takeda, Sean
T. Fish, Thomas Ploetz, Sonia Chernova
- Abstract要約: 我々は、説明可能な活動認識のための計算手法に貢献するために、説明可能な人工知能(XAI)技術からの洞察に基づいて構築する。
我々は,スマートホーム活動認識システムについて,ある活動が与えられた分類に繋がった理由を説明する説明文を生成する。
以上の結果から, SHAPは92%の成功率を示し, 正確な説明が得られた。
- 参考スコア(独自算出の注目度): 11.96472519408262
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Smart home environments are designed to provide services that help improve
the quality of life for the occupant via a variety of sensors and actuators
installed throughout the space. Many automated actions taken by a smart home
are governed by the output of an underlying activity recognition system.
However, activity recognition systems may not be perfectly accurate and
therefore inconsistencies in smart home operations can lead a user to wonder
"why did the smart home do that?" In this work, we build on insights from
Explainable Artificial Intelligence (XAI) techniques to contribute
computational methods for explainable activity recognition. Specifically, we
generate explanations for smart home activity recognition systems that explain
what about an activity led to the given classification. To do so, we introduce
four computational techniques for generating natural language explanations of
smart home data and compare their effectiveness at generating meaningful
explanations. Through a study with everyday users, we evaluate user preferences
towards the four explanation types. Our results show that the leading approach,
SHAP, has a 92% success rate in generating accurate explanations. Moreover, 84%
of sampled scenarios users preferred natural language explanations over a
simple activity label, underscoring the need for explainable activity
recognition systems. Finally, we show that explanations generated by some XAI
methods can lead users to lose confidence in the accuracy of the underlying
activity recognition model, while others lead users to gain confidence. Taking
all studied factors into consideration, we make a recommendation regarding
which existing XAI method leads to the best performance in the domain of smart
home automation, and discuss a range of topics for future work in this area.
- Abstract(参考訳): スマートホーム環境は、空間全体に設置されたさまざまなセンサーやアクチュエータを通じて、居住者の生活の質を改善するサービスを提供するように設計されている。
スマートホームが行う多くの自動アクションは、基礎となるアクティビティ認識システムの出力によって制御される。
しかし、アクティビティ認識システムは必ずしも正確ではないため、スマートホーム操作の不整合により、ユーザは「なぜスマートホームがそれをしたのか?
本研究では,xai(resolvable artificial intelligence)技術から得られた知見に基づいて,行動認識のための計算手法を提案する。
具体的には、スマートホーム活動認識システムについて、特定の分類に繋がった活動についての説明を行う。
そこで我々は,スマートホームデータの自然言語説明を生成するための4つの計算手法を導入し,その有効性を比較した。
日常的なユーザを対象とした調査を通じて,4つの説明型に対するユーザの嗜好を評価する。
以上の結果から, SHAPは92%の成功率を示し, 正確な説明が得られた。
さらに、サンプルシナリオの84%は、単純なアクティビティラベルよりも自然言語の説明を好んでおり、説明可能なアクティビティ認識システムの必要性を強調している。
最後に,いくつかのXAI手法によって生成された説明は,利用者の行動認識モデルの精度への信頼を損なうとともに,利用者の信頼を損なう可能性があることを示す。
検討されたすべての要因を考慮し、スマートホームオートメーションの分野において、既存のXAI手法がどのパフォーマンスをもたらすかを推奨し、この分野における今後の課題について論じる。
関連論文リスト
- Adaptive Language-Guided Abstraction from Contrastive Explanations [53.48583372522492]
報酬を計算するためにこれらの特徴をどのように使うべきかを決定する前に、環境のどの特徴が関係しているかを決定する必要がある。
連立特徴と報奨学習のためのエンドツーエンドの手法は、しばしば、刺激的な状態特徴に敏感な脆い報酬関数をもたらす。
本稿では,言語モデルを用いて人間に意味のある特徴を反復的に識別するALGAEという手法について述べる。
論文 参考訳(メタデータ) (2024-09-12T16:51:58Z) - Using Large Language Models to Compare Explainable Models for Smart Home Human Activity Recognition [0.3277163122167433]
本稿では,Large Language Models (LLMs) を用いた自動評価手法を提案する。
予備的な結果は,LCMの評価がユーザ調査と一致していることを示唆している。
論文 参考訳(メタデータ) (2024-07-24T12:15:07Z) - Layout Agnostic Human Activity Recognition in Smart Homes through Textual Descriptions Of Sensor Triggers (TDOST) [0.22354214294493352]
スマートホームにおけるヒューマンアクティビティ認識(HAR)システムのためのレイアウトに依存しないモデリング手法を開発した。
我々は、周囲のトリガー条件をカプセル化するセンサートリガーのテキスト記述(TDOST)を生成する。
我々は、ベンチマークしたCASASデータセットの実験を通して、見知らぬスマートホームにおけるTDOSTベースのモデルの有効性を実証する。
論文 参考訳(メタデータ) (2024-05-20T20:37:44Z) - Explaining AI Decisions: Towards Achieving Human-Centered Explainability in Smart Home Environments [45.55363754551388]
我々は、スマートホームシステムにおける説明を表現する上で、人間中心のアプローチの必要性を論じる。
本稿では,人間中心のXAI手法を提唱し,理解しやすい説明を提供することの重要性を強調した。
論文 参考訳(メタデータ) (2024-04-23T22:31:42Z) - Unsupervised Self-Driving Attention Prediction via Uncertainty Mining
and Knowledge Embedding [51.8579160500354]
本研究では、不確実性モデリングと知識統合の駆動による自動運転の注意を予測できる教師なし手法を提案する。
結果は、完全に教師された最先端のアプローチと比較して、同等またはさらに印象的なパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-03-17T00:28:33Z) - Learning Action-Effect Dynamics for Hypothetical Vision-Language
Reasoning Task [50.72283841720014]
本研究では,行動の効果に関する推論を改善する新しい学習戦略を提案する。
本稿では,提案手法の有効性を実証し,性能,データ効率,一般化能力の観点から,従来のベースラインに対する優位性を論じる。
論文 参考訳(メタデータ) (2022-12-07T05:41:58Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Backprop-Free Reinforcement Learning with Active Neural Generative
Coding [84.11376568625353]
動的環境におけるエラー(バックプロップ)のバックプロパゲーションを伴わない行動駆動型生成モデルの学習のための計算フレームワークを提案する。
我々は、まばらな報酬でも機能するインテリジェントエージェントを開発し、推論として計画の認知理論からインスピレーションを得ている。
我々のエージェントの堅牢な性能は、神経推論と学習のためのバックプロップフリーアプローチがゴール指向の行動を促進するという有望な証拠を提供する。
論文 参考訳(メタデータ) (2021-07-10T19:02:27Z) - Domain-Robust Visual Imitation Learning with Mutual Information
Constraints [0.0]
Disentangling Generative Adversarial Imitation Learning (DisentanGAIL)と呼ばれる新しいアルゴリズムを導入する。
本アルゴリズムは,タスクを実行する専門家の高次元観察から自律エージェントを直接学習することを可能にする。
論文 参考訳(メタデータ) (2021-03-08T21:18:58Z) - Enabling Edge Cloud Intelligence for Activity Learning in Smart Home [1.3858051019755284]
エッジクラウドアーキテクチャに基づく新しいアクティビティ学習フレームワークを提案する。
我々は,1つのスマートホーム環境における活動認識と予測に時間的特徴を利用する。
論文 参考訳(メタデータ) (2020-05-14T11:43:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。