論文の概要: Beyond Technocratic XAI: The Who, What & How in Explanation Design
- arxiv url: http://arxiv.org/abs/2508.09231v1
- Date: Tue, 12 Aug 2025 08:17:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 20:42:00.641282
- Title: Beyond Technocratic XAI: The Who, What & How in Explanation Design
- Title(参考訳): 技術的XAIを超えて - 説明設計の誰、何、どのようにして
- Authors: Ruchira Dhar, Stephanie Brandl, Ninell Oldenburg, Anders Søgaard,
- Abstract要約: 実際には、意味のある説明を生成することはコンテキスト依存のタスクである。
本論文は, 設計過程の定式化について述べる。
XAIにおける説明設計のための三部構成のフレームワークを提案する。
- 参考スコア(独自算出の注目度): 35.987280553106565
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The field of Explainable AI (XAI) offers a wide range of techniques for making complex models interpretable. Yet, in practice, generating meaningful explanations is a context-dependent task that requires intentional design choices to ensure accessibility and transparency. This paper reframes explanation as a situated design process -- an approach particularly relevant for practitioners involved in building and deploying explainable systems. Drawing on prior research and principles from design thinking, we propose a three-part framework for explanation design in XAI: asking Who needs the explanation, What they need explained, and How that explanation should be delivered. We also emphasize the need for ethical considerations, including risks of epistemic inequality, reinforcing social inequities, and obscuring accountability and governance. By treating explanation as a sociotechnical design process, this framework encourages a context-aware approach to XAI that supports effective communication and the development of ethically responsible explanations.
- Abstract(参考訳): 説明可能なAI(XAI)の分野は、複雑なモデルを解釈可能なものにするための幅広い技術を提供している。
しかし、実際には、意味のある説明を生成することは、アクセシビリティと透明性を確保するために意図的な設計選択を必要とするコンテキスト依存のタスクです。
本稿は,説明可能なシステムの構築とデプロイに関わる実践者にとって,特に関係のあるアプローチである位置設計プロセスとして,説明を再設定する。
設計思考の先行研究と原則に基づいて、XAIで設計を説明するための3つのフレームワークを提案します。
また、疫学的不平等のリスク、社会的不平等の強化、説明責任やガバナンスの隠蔽など、倫理的配慮の必要性も強調する。
この枠組みは、説明を社会技術設計プロセスとして扱うことにより、効果的なコミュニケーションと倫理的に責任のある説明の開発を支援する、XAIに対する文脈認識アプローチを奨励する。
関連論文リスト
- Rhetorical XAI: Explaining AI's Benefits as well as its Use via Rhetorical Design [3.386401892906348]
本稿では,レトリックデザインを記述可能な人工知能(XAI)システムに組み込むことによる潜在的なメリットについて考察する。
Rhetoric Designは、AIシステムとユーザ間の説明のコミュニケーション的役割を分析するための有用なフレームワークを提供する。
論文 参考訳(メタデータ) (2025-05-14T23:57:17Z) - KERAIA: An Adaptive and Explainable Framework for Dynamic Knowledge Representation and Reasoning [46.85451489222176]
KERAIAはシンボリックナレッジエンジニアリングのための新しいフレームワークとソフトウェアプラットフォームである。
動的で複雑でコンテキストに敏感な環境で知識を表現、推論、実行するという永続的な課題に対処する。
論文 参考訳(メタデータ) (2025-05-07T10:56:05Z) - The explanation dialogues: an expert focus study to understand requirements towards explanations within the GDPR [47.06917254695738]
我々は、XAIに対する法的専門家や実践者の期待、推論、理解を明らかにするための専門的な研究である説明対話(Explaination Dialogues)を提示する。
調査はオンラインアンケートとフォローアップインタビューで構成されており、クレジットドメインのユースケースを中心に行われている。
提示された説明は、情報を理解して欠くことは困難であり、データコントローラと主題の異なる関心事から生じる問題について議論する。
論文 参考訳(メタデータ) (2025-01-09T15:50:02Z) - Integrating Evidence into the Design of XAI and AI-based Decision Support Systems: A Means-End Framework for End-users in Construction [0.1999925939110439]
本稿では,XAI対応DSSを設計するための理論的,エビデンスに基づくエンドフレームワークを提案する。
それはAIが生成した説明をサポートするさまざまな種類の証拠の強さ、関連性、有用性を評価することに焦点を当てている。
論文 参考訳(メタデータ) (2024-12-17T13:02:05Z) - A Context-Sensitive Approach to XAI in Music Performance [0.0]
音楽演奏におけるXAIのための説明的プラグマティズム(EP)フレームワークを提案する。
EPは、幅広い芸術的応用におけるAIシステムの透明性と解釈可能性を高めるための有望な方向を提供する。
論文 参考訳(メタデータ) (2023-09-05T17:43:48Z) - Charting the Sociotechnical Gap in Explainable AI: A Framework to
Address the Gap in XAI [29.33534897830558]
このギャップをグラフ化することで問題理解が向上し、説明可能性を改善するための実用的な洞察を反射的に提供できる、と我々は主張する。
我々は、社会技術的ギャップの体系的なチャート作成を容易にする枠組みを経験的に導き出した。
XAIの社会技術的ギャップを理解するための概念的かつ実践的な貢献により、このフレームワークはXAIデザイン空間を拡張している。
論文 参考訳(メタデータ) (2023-02-01T23:21:45Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - A Methodology and Software Architecture to Support
Explainability-by-Design [0.0]
本稿では,意思決定システムの設計における説明能力を含む積極的尺度を特徴とする説明可能性設計手法について述べる。
方法論は, (A)説明要求分析, (B)説明技術設計, (C)説明検証の3段階からなる。
提案手法は,1文あたり2時間程度の開発時間で抽出可能であることがわかった。
論文 参考訳(メタデータ) (2022-06-13T15:34:29Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。