論文の概要: From Facts to Foils: Designing and Evaluating Counterfactual Explanations for Smart Environments
- arxiv url: http://arxiv.org/abs/2510.03078v1
- Date: Fri, 03 Oct 2025 15:06:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 16:35:52.441144
- Title: From Facts to Foils: Designing and Evaluating Counterfactual Explanations for Smart Environments
- Title(参考訳): ファクトからフォイルへ:スマート環境における対実的説明の設計と評価
- Authors: Anna Trapp, Mersedeh Sadeghi, Andreas Vogelsang,
- Abstract要約: 本稿では,ルールベースのスマート環境に適した対実的説明の最初の形式化と実装について述べる。
本研究は,従来の因果的説明に対して発生した反事実を評価するためのユーザスタディである。
- 参考スコア(独自算出の注目度): 1.2900933310976797
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainability is increasingly seen as an essential feature of rule-based smart environments. While counterfactual explanations, which describe what could have been done differently to achieve a desired outcome, are a powerful tool in eXplainable AI (XAI), no established methods exist for generating them in these rule-based domains. In this paper, we present the first formalization and implementation of counterfactual explanations tailored to this domain. It is implemented as a plugin that extends an existing explanation engine for smart environments. We conducted a user study (N=17) to evaluate our generated counterfactuals against traditional causal explanations. The results show that user preference is highly contextual: causal explanations are favored for their linguistic simplicity and in time-pressured situations, while counterfactuals are preferred for their actionable content, particularly when a user wants to resolve a problem. Our work contributes a practical framework for a new type of explanation in smart environments and provides empirical evidence to guide the choice of when each explanation type is most effective.
- Abstract(参考訳): 説明可能性(Explainability)は、ルールベースのスマート環境の重要な機能として、ますます注目されている。
eXplainable AI(XAI)の強力なツールである反ファクト的説明は、望ましい結果を達成するために何がされたかを記述するが、これらのルールベースのドメインでそれを生成するための確立された方法はない。
本稿では,本ドメインに適合した対実的説明の最初の形式化と実装について述べる。
スマート環境のための既存の説明エンジンを拡張するプラグインとして実装されている。
従来の因果的説明に対抗して生成した反事実を評価するために,ユーザスタディ (N=17) を行った。
因果的説明は言語的単純さや時間的プレッシャーのある状況に好まれるが、反事実は行動可能なコンテンツ、特にユーザが問題を解決したい場合に好まれる。
我々の研究は、スマート環境における新しいタイプの説明のための実践的な枠組みに寄与し、各説明タイプが最も効果的である場合の選択をガイドするための実証的な証拠を提供する。
関連論文リスト
- SmartEx: A Framework for Generating User-Centric Explanations in Smart
Environments [2.2217676348694213]
本稿では,ユーザ中心の説明をスマート環境に組み込むアプローチを提案する。
私たちの仕事は、スマートな環境でコンテキスト認識と詳細な説明を生成するための、最初の技術的ソリューションです。
論文 参考訳(メタデータ) (2024-02-20T14:07:18Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - Features of Explainability: How users understand counterfactual and
causal explanations for categorical and continuous features in XAI [10.151828072611428]
対物的説明は、AI決定の解釈可能性、レコメンデーション、バイアスに対処するためにますます使われています。
本研究では,ユーザ予測の客観的精度に対する反事実的・因果的説明の効果を検証した。
また, 利用者は, カテゴリー的特徴を参照する説明を, 連続的特徴を参照する説明よりも容易に理解できることがわかった。
論文 参考訳(メタデータ) (2022-04-21T15:01:09Z) - From Philosophy to Interfaces: an Explanatory Method and a Tool Inspired
by Achinstein's Theory of Explanation [3.04585143845864]
人工知能(AI)における新しい説明法を提案する。
我々は、AIアルゴリズムのパイプラインに基づいた対話型説明を生成するための新しいアプローチを示す。
我々はIBMによるよく知られたXAIによる信用承認システムで仮説を検証した。
論文 参考訳(メタデータ) (2021-09-09T11:10:03Z) - Prompting Contrastive Explanations for Commonsense Reasoning Tasks [74.7346558082693]
大規模事前学習言語モデル(PLM)は、常識推論タスクにおいて、ほぼ人間に近い性能を達成することができる。
人間の解釈可能な証拠を生成するために、同じモデルを使う方法を示す。
論文 参考訳(メタデータ) (2021-06-12T17:06:13Z) - Human Evaluation of Spoken vs. Visual Explanations for Open-Domain QA [22.76153284711981]
本研究は,ODQAシステムの回答をいつ受理するか,拒否するかをユーザが正確に判断するのに役立つかを検討する。
その結果,得られたエビデンスパスから得られた説明は,モダリティ間で強いベースライン(校正信頼度)を上回る可能性が示唆された。
我々は,現在の説明に共通する障害事例を示し,説明のエンドツーエンド評価を強調し,デプロイと異なるプロキシモダリティで評価することを警告する。
論文 参考訳(メタデータ) (2020-12-30T08:19:02Z) - Towards Interpretable Natural Language Understanding with Explanations
as Latent Variables [146.83882632854485]
そこで本研究では,人間に注釈付き説明文の小さなセットだけを必要とする自然言語理解の枠組みを構築した。
我々のフレームワークは、ニューラルネットワークの基本的な推論過程をモデル化する潜在変数として、自然言語の説明を扱う。
論文 参考訳(メタデータ) (2020-10-24T02:05:56Z) - Explanations of Black-Box Model Predictions by Contextual Importance and
Utility [1.7188280334580195]
本稿では,初級者だけでなく専門家が容易に理解できる説明を抽出するために,文脈重要度(CI)と文脈実用性(CU)の概念を提案する。
本手法は,モデルを解釈可能なモデルに変換することなく予測結果を説明する。
カーセレクションの例とアイリスの花分類における説明の有用性を,完全な(つまり,個人の予測の原因)と対照的な説明を提示することによって示す。
論文 参考訳(メタデータ) (2020-05-30T06:49:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。