論文の概要: SmartEx: A Framework for Generating User-Centric Explanations in Smart
Environments
- arxiv url: http://arxiv.org/abs/2402.13024v1
- Date: Tue, 20 Feb 2024 14:07:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 15:09:23.604558
- Title: SmartEx: A Framework for Generating User-Centric Explanations in Smart
Environments
- Title(参考訳): SmartEx: スマート環境におけるユーザ中心の説明を生成するフレームワーク
- Authors: Mersedeh Sadeghi, Lars Herbold, Max Unterbusch, Andreas Vogelsang
- Abstract要約: 本稿では,ユーザ中心の説明をスマート環境に組み込むアプローチを提案する。
私たちの仕事は、スマートな環境でコンテキスト認識と詳細な説明を生成するための、最初の技術的ソリューションです。
- 参考スコア(独自算出の注目度): 2.2217676348694213
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainability is crucial for complex systems like pervasive smart
environments, as they collect and analyze data from various sensors, follow
multiple rules, and control different devices resulting in behavior that is not
trivial and, thus, should be explained to the users. The current approaches,
however, offer flat, static, and algorithm-focused explanations. User-centric
explanations, on the other hand, consider the recipient and context, providing
personalized and context-aware explanations. To address this gap, we propose an
approach to incorporate user-centric explanations into smart environments. We
introduce a conceptual model and a reference architecture for characterizing
and generating such explanations. Our work is the first technical solution for
generating context-aware and granular explanations in smart environments. Our
architecture implementation demonstrates the feasibility of our approach
through various scenarios.
- Abstract(参考訳): さまざまなセンサからデータを収集、分析し、複数のルールに従って、さまざまなデバイスを制御し、簡単ではない振る舞いをもたらすため、ユーザに対して説明すべきである。
しかし、現在のアプローチはフラットで静的、アルゴリズムにフォーカスした説明を提供する。
一方、ユーザ中心の説明は受け手とコンテキストを考慮し、パーソナライズされたコンテキスト対応の説明を提供する。
このギャップに対処するために,ユーザ中心の説明をスマート環境に組み込むアプローチを提案する。
このような説明を特徴付けるための概念モデルと参照アーキテクチャを導入する。
私たちの仕事は、スマートな環境でコンテキスト認識と粒度の細かい説明を生成する最初の技術的ソリューションです。
アーキテクチャの実装は、様々なシナリオを通してアプローチの実現可能性を示します。
関連論文リスト
- SOK-Bench: A Situated Video Reasoning Benchmark with Aligned Open-World Knowledge [60.76719375410635]
44Kの質問と10Kの状況からなる新しいベンチマーク(SOK-Bench)を提案する。
推論プロセスは、位置する知識と問題解決のための一般的な知識を理解し、適用するために必要である。
質問応答ペアと推論プロセスを生成し,最後に品質保証に関する手作業によるレビューを行った。
論文 参考訳(メタデータ) (2024-05-15T21:55:31Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Helpful, Misleading or Confusing: How Humans Perceive Fundamental
Building Blocks of Artificial Intelligence Explanations [11.667611038005552]
我々は、洗練された予測アルゴリズムから一歩引いて、単純な意思決定モデルの説明可能性について検討する。
我々は、人々がそれぞれの表現の理解性をどう感じているかを評価することを目的とする。
これにより、さまざまな利害関係者が、より精巧な人工知能の説明が構築される基本的な概念の無知性を判断することができる。
論文 参考訳(メタデータ) (2023-03-02T03:15:35Z) - Explainable Data-Driven Optimization: From Context to Decision and Back
Again [76.84947521482631]
データ駆動最適化では、コンテキスト情報と機械学習アルゴリズムを使用して、不確実なパラメータによる決定問題の解決策を見つける。
本稿では,データ駆動型問題に対する解法を説明するために,対実的説明手法を提案する。
在庫管理やルーティングといった運用管理における重要な問題を説明することで,我々のアプローチを実証する。
論文 参考訳(メタデータ) (2023-01-24T15:25:16Z) - What and How of Machine Learning Transparency: Building Bespoke
Explainability Tools with Interoperable Algorithmic Components [77.87794937143511]
本稿では,データ駆動予測モデルを説明するためのハンズオントレーニング教材について紹介する。
これらのリソースは、解釈可能な表現合成、データサンプリング、説明生成の3つのコアビルディングブロックをカバーする。
論文 参考訳(メタデータ) (2022-09-08T13:33:25Z) - Explanation as a process: user-centric construction of multi-level and
multi-modal explanations [0.34410212782758043]
本稿では,マルチレベルとマルチモーダルな説明を組み合わせたプロセスベースアプローチを提案する。
私たちは、解釈可能な機械学習アプローチであるインダクティブロジックプログラミングを使用して、理解可能なモデルを学びます。
論文 参考訳(メタデータ) (2021-10-07T19:26:21Z) - Explanation Ontology in Action: A Clinical Use-Case [3.1783442097247345]
システム設計者が説明オントロジーを利用するためのステップバイステップのガイダンスを提供する。
本稿では,このガイダンスを臨床現場で活用した詳細な例を示す。
論文 参考訳(メタデータ) (2020-10-04T03:52:39Z) - Explanations of Black-Box Model Predictions by Contextual Importance and
Utility [1.7188280334580195]
本稿では,初級者だけでなく専門家が容易に理解できる説明を抽出するために,文脈重要度(CI)と文脈実用性(CU)の概念を提案する。
本手法は,モデルを解釈可能なモデルに変換することなく予測結果を説明する。
カーセレクションの例とアイリスの花分類における説明の有用性を,完全な(つまり,個人の予測の原因)と対照的な説明を提示することによって示す。
論文 参考訳(メタデータ) (2020-05-30T06:49:50Z) - Directions for Explainable Knowledge-Enabled Systems [3.7250420821969827]
我々は、人工知能と密接に関連する分野における説明文献の調査を活用して、一連の説明型を生成する。
それぞれの型を定義し、このスタイルの説明の必要性を動機付けるサンプル質問を提供します。
この一連の説明型は、将来のシステム設計者が要求の生成と優先順位付けに役立ちます。
論文 参考訳(メタデータ) (2020-03-17T04:34:29Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。