論文の概要: Meaningful XAI Based on User-Centric Design Methodology
- arxiv url: http://arxiv.org/abs/2308.13228v1
- Date: Fri, 25 Aug 2023 08:00:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-28 14:54:23.135920
- Title: Meaningful XAI Based on User-Centric Design Methodology
- Title(参考訳): ユーザ中心設計手法に基づく意味のあるXAI
- Authors: Winston Maxwell (SES, IP Paris, I3 SES, NOS), Bruno Dumas
- Abstract要約: この報告書はまず、EUのさまざまな指令、規制、ガイドライン、CJEUの事例法に現れるXAI関連の要件の株式を取り上げます。
我々は、競争性、エンパワーメント/レポーティング情報非対称性、システムパフォーマンスの制御、アルゴリズム決定の評価、行政の透明性の5つのカテゴリに分けられる。
これらの意味のあるXAIソリューションを開発するために使われるプロセスは、第2部で検証されたユーザー中心の設計原則に基づいています。
- 参考スコア(独自算出の注目度): 1.8749305679160366
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This report first takes stock of XAI-related requirements appearing in
various EU directives, regulations, guidelines, and CJEU case law. This
analysis of existing requirements will permit us to have a clearer vision of
the purposes, the ``why'', of XAI, which we separate into five categories:
contestability, empowerment/redressing information asymmetries, control over
system performance, evaluation of algorithmic decisions, and public
administration transparency. The analysis of legal requirements also permits us
to create four categories of recipients for explainability: data science teams;
human operators of the system; persons affected by algorithmic decisions, and
regulators/judges/auditors. Lastly, we identify four main operational contexts
for explainability: XAI for the upstream design and testing phase; XAI for
human-on-the-loop control; XAI for human-in-the-loop control; and XAI for
ex-post challenges and investigations.Second, we will present user-centered
design methodology, which takes the purposes, the recipients and the
operational context into account in order to develop optimal XAI
solutions.Third, we will suggest a methodology to permit suppliers and users of
high-risk AI applications to propose local XAI solutions that are effective in
the sense of being ``meaningful'', for example, useful in light of the
operational, safety and fundamental rights contexts. The process used to
develop these ``meaningful'' XAI solutions will be based on user-centric design
principles examined in the second part.Fourth, we will suggest that the
European Commission issue guidelines to provide a harmonised approach to
defining ``meaningful'' explanations based on the purposes, audiences and
operational contexts of AI systems. These guidelines would apply to the AI Act,
but also to the other EU texts requiring explanations for algorithmic systems
and results.
- Abstract(参考訳): この報告書はまず、EUのさまざまな指令、規制、ガイドライン、CJEUの事例法に現れるXAI関連の要件の株式を取り上げます。
この既存の要件の分析により、XAIの目的である『why』の明確なビジョンが得られ、競争性、エンパワーメント/レポーティング情報非対称性、システムパフォーマンスの制御、アルゴリズム決定の評価、行政の透明性の5つのカテゴリに分けられます。
法的要件の分析によって、データサイエンスチーム、システムの人間オペレータ、アルゴリズム的決定の影響を受ける人、規制当局/司法/監査人という4つのカテゴリの受取人を作成できるようになりました。
Lastly, we identify four main operational contexts for explainability: XAI for the upstream design and testing phase; XAI for human-on-the-loop control; XAI for human-in-the-loop control; and XAI for ex-post challenges and investigations.Second, we will present user-centered design methodology, which takes the purposes, the recipients and the operational context into account in order to develop optimal XAI solutions.Third, we will suggest a methodology to permit suppliers and users of high-risk AI applications to propose local XAI solutions that are effective in the sense of being ``meaningful'', for example, useful in light of the operational, safety and fundamental rights contexts.
これらの「有意な」XAIソリューションの開発に使用されるプロセスは、第2部で検討されたユーザ中心の設計原則に基づいており、第4部では、AIシステムの目的、オーディエンス、運用状況に基づいて「有意な」説明を定義するための調和したアプローチを欧州委員会が提案する。
これらのガイドラインは、AI法だけでなく、アルゴリズムシステムと結果の説明を必要とする他のEUのテキストにも適用される。
関連論文リスト
- How Human-Centered Explainable AI Interface Are Designed and Evaluated: A Systematic Survey [48.97104365617498]
Em Explainable Interfaces (EIs) の登場する領域は,XAI のユーザインターフェースとユーザエクスペリエンス設計に重点を置いている。
本稿では,人間とXAIの相互作用の現在の動向と,EI設計・開発に向けた将来的な方向性を明らかにするために,53の出版物を体系的に調査する。
論文 参考訳(メタデータ) (2024-03-21T15:44:56Z) - How much informative is your XAI? A decision-making assessment task to
objectively measure the goodness of explanations [53.01494092422942]
XAIに対する個人化アプローチとユーザ中心アプローチの数は、近年急速に増加している。
ユーザ中心のXAIアプローチがユーザとシステム間のインタラクションに肯定的な影響を与えることが明らかとなった。
我々は,XAIシステムの良否を客観的かつ定量的に評価するための評価課題を提案する。
論文 参考訳(メタデータ) (2023-12-07T15:49:39Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Invisible Users: Uncovering End-Users' Requirements for Explainable AI
via Explanation Forms and Goals [19.268536451101912]
非技術者のエンドユーザは、最先端の説明可能な人工知能(XAI)技術のサイレントで目に見えないユーザです。
それらのAI説明可能性に対する要求と要求は、XAI技術の設計と評価には組み込まれていない。
これにより、XAI技術は、医療、刑事司法、金融、自動運転システムといった、高額な応用において非効率または有害である。
論文 参考訳(メタデータ) (2023-02-10T19:35:57Z) - Transcending XAI Algorithm Boundaries through End-User-Inspired Design [27.864338632191608]
エンドユーザに対する説明責任重視の機能サポートの欠如は、高度なドメインにおけるAIの安全で責任ある使用を妨げる可能性がある。
我々の研究は、エンドユーザーがXAIを使用する際の技術的な問題を根底から解決することで、新たな研究課題がもたらされることを示している。
このようなエンドユーザにインスパイアされた研究質問は、AIを民主化し、クリティカルドメインにおけるAIの責任ある使用を保証することによって、社会的善を促進できる可能性がある。
論文 参考訳(メタデータ) (2022-08-18T09:44:51Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - The Conflict Between Explainable and Accountable Decision-Making
Algorithms [10.64167691614925]
意思決定アルゴリズムは、誰が医療プログラムに登録され、雇用されるべきかといった重要な決定に使われています。
XAIイニシアチブは、法的要件に準拠し、信頼を促進し、説明責任を維持するために、アルゴリズムを説明可能にすることを目的としている。
本稿では,自律型AIシステムによって引き起こされる責任問題の解決に,説明可能性がどの程度役立つのかを問う。
論文 参考訳(メタデータ) (2022-05-11T07:19:28Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Explaining Black-Box Algorithms Using Probabilistic Contrastive
Counterfactuals [7.727206277914709]
ブラックボックス決定システムを説明するための因果性に基づく原則的アプローチを提案する。
本稿では,変数の直接的および間接的影響が,アルゴリズムによる決定に与える影響を定量的に示す。
このような反事実は,アルゴリズムの決定に負の影響を受ける個人に対して,どのように行動可能なリコースを提供できるかを示す。
論文 参考訳(メタデータ) (2021-03-22T16:20:21Z) - Decision Rule Elicitation for Domain Adaptation [93.02675868486932]
ヒトインザループ機械学習は、専門家からラベルを引き出すために人工知能(AI)で広く使用されています。
この作業では、専門家が意思決定を説明する決定ルールを作成できるようにします。
決定規則の適用はアルゴリズムのドメイン適応を改善し、専門家の知識をAIモデルに広めるのに役立つことを示す。
論文 参考訳(メタデータ) (2021-02-23T08:07:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。