論文の概要: Using Large Language Models to Compare Explainable Models for Smart Home Human Activity Recognition
- arxiv url: http://arxiv.org/abs/2408.06352v1
- Date: Wed, 24 Jul 2024 12:15:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-19 03:57:10.754449
- Title: Using Large Language Models to Compare Explainable Models for Smart Home Human Activity Recognition
- Title(参考訳): 大規模言語モデルを用いたスマートホーム活動認識のための説明可能なモデルの比較
- Authors: Michele Fiori, Gabriele Civitarese, Claudio Bettini,
- Abstract要約: 本稿では,Large Language Models (LLMs) を用いた自動評価手法を提案する。
予備的な結果は,LCMの評価がユーザ調査と一致していることを示唆している。
- 参考スコア(独自算出の注目度): 0.3277163122167433
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recognizing daily activities with unobtrusive sensors in smart environments enables various healthcare applications. Monitoring how subjects perform activities at home and their changes over time can reveal early symptoms of health issues, such as cognitive decline. Most approaches in this field use deep learning models, which are often seen as black boxes mapping sensor data to activities. However, non-expert users like clinicians need to trust and understand these models' outputs. Thus, eXplainable AI (XAI) methods for Human Activity Recognition have emerged to provide intuitive natural language explanations from these models. Different XAI methods generate different explanations, and their effectiveness is typically evaluated through user surveys, that are often challenging in terms of costs and fairness. This paper proposes an automatic evaluation method using Large Language Models (LLMs) to identify, in a pool of candidates, the best XAI approach for non-expert users. Our preliminary results suggest that LLM evaluation aligns with user surveys.
- Abstract(参考訳): スマート環境における邪魔にならないセンサによる日々の行動認識は、様々な医療応用を可能にする。
被験者が自宅でどのように活動し、時間とともに変化していくかを監視することで、認知の低下などの健康上の問題の早期症状が明らかになる可能性がある。
この分野のほとんどのアプローチはディープラーニングモデルを使用し、センサーデータをアクティビティにマッピングするブラックボックスと見なされることが多い。
しかし、臨床医のような専門家でないユーザは、これらのモデルのアウトプットを信頼し理解する必要がある。
このように、人間の活動認識のためのeXplainable AI(XAI)メソッドが登場し、これらのモデルから直感的な自然言語の説明を提供するようになった。
異なるXAI手法は、異なる説明を生み出し、それらの効果は、通常、コストと公平性の点でしばしば困難であるユーザ調査によって評価される。
本稿では,Large Language Models (LLMs) を用いた自動評価手法を提案する。
予備的な結果は,LCMの評価がユーザ調査と一致していることを示唆している。
関連論文リスト
- Unsupervised Model Diagnosis [49.36194740479798]
本稿では,ユーザガイドを使わずに,意味論的対実的説明を生成するために,Unsupervised Model Diagnosis (UMO)を提案する。
提案手法は意味論における変化を特定し可視化し,その変化を広範囲なテキストソースの属性と照合する。
論文 参考訳(メタデータ) (2024-10-08T17:59:03Z) - Modeling User Preferences via Brain-Computer Interfacing [54.3727087164445]
我々はBrain-Computer Interface技術を用いてユーザの好みを推測し、その注意力は視覚的コンテンツと感情的体験との関連性に相関する。
我々はこれらを,情報検索,生成モデルのパーソナライズされたステアリング,感情経験のクラウドソーシング人口推定など,関連するアプリケーションにリンクする。
論文 参考訳(メタデータ) (2024-05-15T20:41:46Z) - I-CEE: Tailoring Explanations of Image Classification Models to User
Expertise [13.293968260458962]
I-CEEは,ユーザエキスパートに適した画像分類記述を提供するフレームワークである。
I-CEEは、ユーザの専門知識に依存するサンプルイメージのインフォメーション性をモデル化し、異なるユーザに対して異なるサンプルを生成する。
シミュレーションされたユーザによる実験は、I-CEEがモデルの判断を正確に予測する能力を改善することを示している。
論文 参考訳(メタデータ) (2023-12-19T12:26:57Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Explainable Depression Symptom Detection in Social Media [2.677715367737641]
本稿では, トランスフォーマーアーキテクチャを用いて, ユーザの文章中の抑うつ症状マーカーの出現を検知し, 説明する。
我々の自然言語による説明により、臨床医はバリデーションされた症状に基づいてモデルの判断を解釈できる。
論文 参考訳(メタデータ) (2023-10-20T17:05:27Z) - Unleashing Mask: Explore the Intrinsic Out-of-Distribution Detection
Capability [70.72426887518517]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイする際に、セキュアAIの必須の側面である。
本稿では,IDデータを用いた学習モデルのOOD識別能力を復元する新しい手法であるUnleashing Maskを提案する。
本手法では, マスクを用いて記憶した非定型サンプルを抽出し, モデルを微調整するか, 導入したマスクでプルーする。
論文 参考訳(メタデータ) (2023-06-06T14:23:34Z) - ASPEST: Bridging the Gap Between Active Learning and Selective
Prediction [56.001808843574395]
選択予測は、不確実な場合の予測を棄却する信頼性のあるモデルを学ぶことを目的としている。
アクティブラーニングは、最も有意義な例を問うことで、ラベリングの全体、すなわち人間の依存度を下げることを目的としている。
本研究では,移動対象領域からより情報のあるサンプルを検索することを目的とした,新たな学習パラダイムである能動的選択予測を導入する。
論文 参考訳(メタデータ) (2023-04-07T23:51:07Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z) - Human Activity Recognition models using Limited Consumer Device Sensors
and Machine Learning [0.0]
ヒトの活動認識は、日常生活や医療環境における応用の増加とともに人気が高まっている。
本稿では,スマートフォンやスマートウォッチのセンサデータを用いた訓練に限定した各種モデルの発見について述べる。
結果は、スマートフォンとスマートウォッチのみから収集された限られたセンサーデータと、従来の機械学習の概念とアルゴリズムとを厳格に併用したモデルの可能性を示している。
論文 参考訳(メタデータ) (2022-01-21T06:54:05Z) - Explainable Activity Recognition for Smart Home Systems [9.909901668370589]
我々は、説明可能な活動認識フレームワークを開発するために、説明可能な人工知能(XAI)技術からの洞察に基づいて構築する。
以上の結果から,XAI アプローチ SHAP は 92% の成功率を持つことが明らかとなった。
サンプルシナリオの83%では、ユーザは単純なアクティビティラベルよりも自然言語の説明を好む。
論文 参考訳(メタデータ) (2021-05-20T14:35:51Z) - A Comparative Approach to Explainable Artificial Intelligence Methods in
Application to High-Dimensional Electronic Health Records: Examining the
Usability of XAI [0.0]
XAIは、コミュニケーション手段によって人間に達成される信頼の実証的要因を生み出すことを目的としている。
機械を信頼して人間の生き方に向くというイデオロギーは倫理的な混乱を引き起こします。
XAIメソッドは、ローカルレベルとグローバルレベルの両方で出力される特定のモデルに対する機能貢献を視覚化します。
論文 参考訳(メタデータ) (2021-03-08T18:15:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。