論文の概要: Meaningful XAI Based on User-Centric Design Methodology
- arxiv url: http://arxiv.org/abs/2308.13228v1
- Date: Fri, 25 Aug 2023 08:00:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-28 14:54:23.135920
- Title: Meaningful XAI Based on User-Centric Design Methodology
- Title(参考訳): ユーザ中心設計手法に基づく意味のあるXAI
- Authors: Winston Maxwell (SES, IP Paris, I3 SES, NOS), Bruno Dumas
- Abstract要約: この報告書はまず、EUのさまざまな指令、規制、ガイドライン、CJEUの事例法に現れるXAI関連の要件の株式を取り上げます。
我々は、競争性、エンパワーメント/レポーティング情報非対称性、システムパフォーマンスの制御、アルゴリズム決定の評価、行政の透明性の5つのカテゴリに分けられる。
これらの意味のあるXAIソリューションを開発するために使われるプロセスは、第2部で検証されたユーザー中心の設計原則に基づいています。
- 参考スコア(独自算出の注目度): 1.8749305679160366
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This report first takes stock of XAI-related requirements appearing in
various EU directives, regulations, guidelines, and CJEU case law. This
analysis of existing requirements will permit us to have a clearer vision of
the purposes, the ``why'', of XAI, which we separate into five categories:
contestability, empowerment/redressing information asymmetries, control over
system performance, evaluation of algorithmic decisions, and public
administration transparency. The analysis of legal requirements also permits us
to create four categories of recipients for explainability: data science teams;
human operators of the system; persons affected by algorithmic decisions, and
regulators/judges/auditors. Lastly, we identify four main operational contexts
for explainability: XAI for the upstream design and testing phase; XAI for
human-on-the-loop control; XAI for human-in-the-loop control; and XAI for
ex-post challenges and investigations.Second, we will present user-centered
design methodology, which takes the purposes, the recipients and the
operational context into account in order to develop optimal XAI
solutions.Third, we will suggest a methodology to permit suppliers and users of
high-risk AI applications to propose local XAI solutions that are effective in
the sense of being ``meaningful'', for example, useful in light of the
operational, safety and fundamental rights contexts. The process used to
develop these ``meaningful'' XAI solutions will be based on user-centric design
principles examined in the second part.Fourth, we will suggest that the
European Commission issue guidelines to provide a harmonised approach to
defining ``meaningful'' explanations based on the purposes, audiences and
operational contexts of AI systems. These guidelines would apply to the AI Act,
but also to the other EU texts requiring explanations for algorithmic systems
and results.
- Abstract(参考訳): この報告書はまず、EUのさまざまな指令、規制、ガイドライン、CJEUの事例法に現れるXAI関連の要件の株式を取り上げます。
この既存の要件の分析により、XAIの目的である『why』の明確なビジョンが得られ、競争性、エンパワーメント/レポーティング情報非対称性、システムパフォーマンスの制御、アルゴリズム決定の評価、行政の透明性の5つのカテゴリに分けられます。
法的要件の分析によって、データサイエンスチーム、システムの人間オペレータ、アルゴリズム的決定の影響を受ける人、規制当局/司法/監査人という4つのカテゴリの受取人を作成できるようになりました。
Lastly, we identify four main operational contexts for explainability: XAI for the upstream design and testing phase; XAI for human-on-the-loop control; XAI for human-in-the-loop control; and XAI for ex-post challenges and investigations.Second, we will present user-centered design methodology, which takes the purposes, the recipients and the operational context into account in order to develop optimal XAI solutions.Third, we will suggest a methodology to permit suppliers and users of high-risk AI applications to propose local XAI solutions that are effective in the sense of being ``meaningful'', for example, useful in light of the operational, safety and fundamental rights contexts.
これらの「有意な」XAIソリューションの開発に使用されるプロセスは、第2部で検討されたユーザ中心の設計原則に基づいており、第4部では、AIシステムの目的、オーディエンス、運用状況に基づいて「有意な」説明を定義するための調和したアプローチを欧州委員会が提案する。
これらのガイドラインは、AI法だけでなく、アルゴリズムシステムと結果の説明を必要とする他のEUのテキストにも適用される。
関連論文リスト
- An evidence-based methodology for human rights impact assessment (HRIA) in the development of AI data-intensive systems [49.1574468325115]
我々は、すでに人権がデータ利用の分野で決定を下していることを示している。
本研究は人権影響評価(HRIA)の方法論とモデルである。
提案手法は,具体的ケーススタディで検証し,その有効性と有効性を示す。
論文 参考訳(メタデータ) (2024-07-30T16:27:52Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Evolutionary Computation and Explainable AI: A Roadmap to Understandable Intelligent Systems [37.02462866600066]
進化的計算(EC)は、説明可能なAI(XAI)に寄与する大きな可能性を提供する
本稿では、XAIの紹介を行い、機械学習モデルを説明するための現在の技術についてレビューする。
次に、ECがXAIでどのように活用できるかを検討し、ECテクニックを取り入れた既存のXAIアプローチを調べます。
論文 参考訳(メタデータ) (2024-06-12T02:06:24Z) - How Human-Centered Explainable AI Interface Are Designed and Evaluated: A Systematic Survey [48.97104365617498]
Em Explainable Interfaces (EIs) の登場する領域は,XAI のユーザインターフェースとユーザエクスペリエンス設計に重点を置いている。
本稿では,人間とXAIの相互作用の現在の動向と,EI設計・開発に向けた将来的な方向性を明らかにするために,53の出版物を体系的に調査する。
論文 参考訳(メタデータ) (2024-03-21T15:44:56Z) - How much informative is your XAI? A decision-making assessment task to
objectively measure the goodness of explanations [53.01494092422942]
XAIに対する個人化アプローチとユーザ中心アプローチの数は、近年急速に増加している。
ユーザ中心のXAIアプローチがユーザとシステム間のインタラクションに肯定的な影響を与えることが明らかとなった。
我々は,XAIシステムの良否を客観的かつ定量的に評価するための評価課題を提案する。
論文 参考訳(メタデータ) (2023-12-07T15:49:39Z) - Invisible Users: Uncovering End-Users' Requirements for Explainable AI
via Explanation Forms and Goals [19.268536451101912]
非技術者のエンドユーザは、最先端の説明可能な人工知能(XAI)技術のサイレントで目に見えないユーザです。
それらのAI説明可能性に対する要求と要求は、XAI技術の設計と評価には組み込まれていない。
これにより、XAI技術は、医療、刑事司法、金融、自動運転システムといった、高額な応用において非効率または有害である。
論文 参考訳(メタデータ) (2023-02-10T19:35:57Z) - Transcending XAI Algorithm Boundaries through End-User-Inspired Design [27.864338632191608]
エンドユーザに対する説明責任重視の機能サポートの欠如は、高度なドメインにおけるAIの安全で責任ある使用を妨げる可能性がある。
我々の研究は、エンドユーザーがXAIを使用する際の技術的な問題を根底から解決することで、新たな研究課題がもたらされることを示している。
このようなエンドユーザにインスパイアされた研究質問は、AIを民主化し、クリティカルドメインにおけるAIの責任ある使用を保証することによって、社会的善を促進できる可能性がある。
論文 参考訳(メタデータ) (2022-08-18T09:44:51Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - Explaining Black-Box Algorithms Using Probabilistic Contrastive
Counterfactuals [7.727206277914709]
ブラックボックス決定システムを説明するための因果性に基づく原則的アプローチを提案する。
本稿では,変数の直接的および間接的影響が,アルゴリズムによる決定に与える影響を定量的に示す。
このような反事実は,アルゴリズムの決定に負の影響を受ける個人に対して,どのように行動可能なリコースを提供できるかを示す。
論文 参考訳(メタデータ) (2021-03-22T16:20:21Z) - Decision Rule Elicitation for Domain Adaptation [93.02675868486932]
ヒトインザループ機械学習は、専門家からラベルを引き出すために人工知能(AI)で広く使用されています。
この作業では、専門家が意思決定を説明する決定ルールを作成できるようにします。
決定規則の適用はアルゴリズムのドメイン適応を改善し、専門家の知識をAIモデルに広めるのに役立つことを示す。
論文 参考訳(メタデータ) (2021-02-23T08:07:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。