論文の概要: Leveraging Large Language Models for Explainable Activity Recognition in Smart Homes: A Critical Evaluation
- arxiv url: http://arxiv.org/abs/2503.16622v1
- Date: Thu, 20 Mar 2025 18:23:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-24 14:57:24.573817
- Title: Leveraging Large Language Models for Explainable Activity Recognition in Smart Homes: A Critical Evaluation
- Title(参考訳): スマートホームにおける説明可能な活動認識のための大規模言語モデルの活用 : 批判的評価
- Authors: Michele Fiori, Gabriele Civitarese, Priyankar Choudhary, Claudio Bettini,
- Abstract要約: XAIは、スマートホームにおけるセンサによる日常生活活動(ADL)認識に適用されている。
本稿では,XAIとLarge Language Models(LLM)を組み合わせたセンサを用いたADL認識の可能性について検討する。
- 参考スコア(独自算出の注目度): 0.29998889086656577
- License:
- Abstract: Explainable Artificial Intelligence (XAI) aims to uncover the inner reasoning of machine learning models. In IoT systems, XAI improves the transparency of models processing sensor data from multiple heterogeneous devices, ensuring end-users understand and trust their outputs. Among the many applications, XAI has also been applied to sensor-based Activities of Daily Living (ADLs) recognition in smart homes. Existing approaches highlight which sensor events are most important for each predicted activity, using simple rules to convert these events into natural language explanations for non-expert users. However, these methods produce rigid explanations lacking natural language flexibility and are not scalable. With the recent rise of Large Language Models (LLMs), it is worth exploring whether they can enhance explanation generation, considering their proven knowledge of human activities. This paper investigates potential approaches to combine XAI and LLMs for sensor-based ADL recognition. We evaluate if LLMs can be used: a) as explainable zero-shot ADL recognition models, avoiding costly labeled data collection, and b) to automate the generation of explanations for existing data-driven XAI approaches when training data is available and the goal is higher recognition rates. Our critical evaluation provides insights into the benefits and challenges of using LLMs for explainable ADL recognition.
- Abstract(参考訳): 説明可能な人工知能(XAI)は、機械学習モデルの内部推論を明らかにすることを目的としている。
IoTシステムでは、XAIは、複数の異種デバイスからセンサーデータを処理するモデルの透明性を改善し、エンドユーザがアウトプットを理解し、信頼することを保証する。
多くの応用の中で、XAIはスマートホームにおけるセンサによる日常生活活動(ADL)認識にも応用されている。
既存のアプローチでは、予測されたアクティビティ毎にどのセンサイベントが最も重要かを強調し、これらのイベントを専門家でないユーザのための自然言語説明に変換するための単純なルールを使用している。
しかし、これらの手法は、自然言語の柔軟性に欠ける厳密な説明を生み出し、拡張性がない。
近年のLarge Language Models (LLMs) の台頭に伴い、人間の活動に関する実証された知識を考慮し、説明生成を強化することができるかどうかを探求する価値がある。
本稿では,センサを用いたADL認識におけるXAIとLLMの組み合わせの可能性について検討する。
LLMが使えるかどうかを評価します。
a) 説明可能なゼロショットADL認識モデルとして、コストのかかるラベル付きデータ収集を回避し、
b) 既存のデータ駆動型XAIアプローチについて、トレーニングデータが利用可能で、高い認識率を目標とする説明を自動生成する。
我々の批判的評価は、説明可能なADL認識にLLMを使うことの利点と課題に関する洞察を提供する。
関連論文リスト
- A Soft Sensor Method with Uncertainty-Awareness and Self-Explanation Based on Large Language Models Enhanced by Domain Knowledge Retrieval [17.605817344542345]
Few-shot Uncertainty-aware and Self-Explaining Soft Sensor (LLM-FUESS) というフレームワークを提案する。
LLM-FUESSには、ゼロショット補助可変セレクタ(LLM-ZAVS)と不確実性認識Few-shot Soft Sensor(LLM-UFSS)が含まれている。
提案手法は,最先端の予測性能,強靭性,柔軟性を実現し,従来の手法のトレーニング不安定性を効果的に軽減する。
論文 参考訳(メタデータ) (2025-01-06T11:43:29Z) - AD-LLM: Benchmarking Large Language Models for Anomaly Detection [50.57641458208208]
本稿では,大規模な言語モデルが異常検出にどのように役立つかを評価する最初のベンチマークであるAD-LLMを紹介する。
我々は、ゼロショット検出、LLMの事前訓練された知識を用いて、タスク固有のトレーニングなしでADを実行すること、データ拡張、ADモデルを改善するために合成データとカテゴリ記述を生成すること、LLMを使用して教師なしADモデルを提案するモデル選択の3つの主要なタスクについて検討する。
論文 参考訳(メタデータ) (2024-12-15T10:22:14Z) - Learn while Unlearn: An Iterative Unlearning Framework for Generative Language Models [52.03511469562013]
3つのコアコンポーネントで構成されるICU(Iterative Contrastive Unlearning)フレームワークを紹介する。
知識未学習誘導モジュールは、未学習の損失を使用して、特定の知識を除去するためにターゲットとする。
Contrastive Learning Enhancementモジュールは、純粋な未学習の目標に対してモデルの表現力を保持する。
イテレーティブ・アンラーニング・リファインメントモジュールは、進行中の評価と更新を通じて、アンラーニングプロセスを動的に調整する。
論文 参考訳(メタデータ) (2024-07-25T07:09:35Z) - Using Large Language Models to Compare Explainable Models for Smart Home Human Activity Recognition [0.3277163122167433]
本稿では,Large Language Models (LLMs) を用いた自動評価手法を提案する。
予備的な結果は,LCMの評価がユーザ調査と一致していることを示唆している。
論文 参考訳(メタデータ) (2024-07-24T12:15:07Z) - LLMs for XAI: Future Directions for Explaining Explanations [50.87311607612179]
既存のXAIアルゴリズムを用いて計算した説明の精細化に着目する。
最初の実験とユーザスタディは、LLMがXAIの解釈可能性とユーザビリティを高めるための有望な方法を提供することを示唆している。
論文 参考訳(メタデータ) (2024-05-09T19:17:47Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Usable XAI: 10 Strategies Towards Exploiting Explainability in the LLM Era [77.174117675196]
XAIはLarge Language Models (LLM)に拡張されている
本稿では,XAIがLLMやAIシステムにどのようなメリットをもたらすかを分析する。
10の戦略を導入し、それぞれに重要なテクニックを導入し、関連する課題について議論します。
論文 参考訳(メタデータ) (2024-03-13T20:25:27Z) - Going Beyond XAI: A Systematic Survey for Explanation-Guided Learning [8.835733039270364]
説明可能な人工知能(XAI)の技術は大きな注目を集めており、機械学習(ML)エンジニアがAIモデルを理解するのに大いに役立っている。
本稿は、説明指導学習(EGL)分野のタイムリーで広範な文献概要を提供する。
EGLは、モデル説明に正規化、監督、介入を追加することで、DNNの推論プロセスを制御するテクニックのドメインである。
論文 参考訳(メタデータ) (2022-12-07T20:59:59Z) - Robotic Skill Acquisition via Instruction Augmentation with
Vision-Language Models [70.82705830137708]
言語条件制御のためのデータ駆動型インストラクション拡張(DIAL)について紹介する。
我々は,CLIPのセマンティック理解を利用したセミ言語ラベルを用いて,未知の実演データの大規模なデータセットに知識を伝達する。
DIALは、模倣学習ポリシーによって、新しい能力を獲得し、元のデータセットにない60の新しい命令を一般化することができる。
論文 参考訳(メタデータ) (2022-11-21T18:56:00Z) - Explainable Activity Recognition for Smart Home Systems [9.909901668370589]
我々は、説明可能な活動認識フレームワークを開発するために、説明可能な人工知能(XAI)技術からの洞察に基づいて構築する。
以上の結果から,XAI アプローチ SHAP は 92% の成功率を持つことが明らかとなった。
サンプルシナリオの83%では、ユーザは単純なアクティビティラベルよりも自然言語の説明を好む。
論文 参考訳(メタデータ) (2021-05-20T14:35:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。