論文の概要: A taxonomy of explanations to support Explainability-by-Design
- arxiv url: http://arxiv.org/abs/2206.04438v2
- Date: Thu, 14 Nov 2024 09:37:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-15 15:23:07.427538
- Title: A taxonomy of explanations to support Explainability-by-Design
- Title(参考訳): 説明可能性を支援するための説明の分類
- Authors: Niko Tsakalakis, Sophie Stalla-Bourdillon, Trung Dong Huynh, Luc Moreau,
- Abstract要約: 本稿では、全体論的な「説明可能性・デザイン」アプローチの一部として開発された説明の分類について述べる。
分類学は、様々な規制の枠組みや政策から生じる幅広い要件を説明するために作られた。
自動コンプライアンス戦略を支援するために、探偵コントロールとして考案された説明のスタンドアロン分類器として使用される。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: As automated decision-making solutions are increasingly applied to all aspects of everyday life, capabilities to generate meaningful explanations for a variety of stakeholders (i.e., decision-makers, recipients of decisions, auditors, regulators...) become crucial. In this paper, we present a taxonomy of explanations that was developed as part of a holistic 'Explainability-by-Design' approach for the purposes of the project PLEAD. The taxonomy was built with a view to produce explanations for a wide range of requirements stemming from a variety of regulatory frameworks or policies set at the organizational level either to translate high-level compliance requirements or to meet business needs. The taxonomy comprises nine dimensions. It is used as a stand-alone classifier of explanations conceived as detective controls, in order to aid supportive automated compliance strategies. A machinereadable format of the taxonomy is provided in the form of a light ontology and the benefits of starting the Explainability-by-Design journey with such a taxonomy are demonstrated through a series of examples.
- Abstract(参考訳): 自動意思決定ソリューションが日常生活のあらゆる側面に適用されるようになるにつれて、様々な利害関係者(意思決定者、意思決定の受取人、監査人、規制官など)に意味のある説明をもたらす能力が重要になる。
本稿では,プロジェクト PLEAD のために総合的な "説明可能性・デザイン" アプローチの一部として開発された説明の分類について述べる。
分類学は、ハイレベルなコンプライアンス要件の翻訳やビジネスニーズを満たすために組織レベルで設定されたさまざまな規制フレームワークやポリシーから生じる幅広い要件の説明を作成するために構築された。
分類は9つの次元からなる。
自動コンプライアンス戦略を支援するために、探偵コントロールとして考案された説明のスタンドアロン分類器として使用される。
分類学の機械可読形式は、光オントロジーの形で提供され、このような分類学による説明可能性・設計の旅を始める利点は、一連の例を通して示される。
関連論文リスト
- An Adaptive Framework for Generating Systematic Explanatory Answer in Online Q&A Platforms [62.878616839799776]
質問応答(QA)性能を向上させるために設計された,革新的なフレームワークであるSynthRAGを提案する。
SynthRAGは動的コンテンツの構造化に適応的なアウトラインを用いることで従来のモデルを改善する。
Zhihuプラットフォーム上のオンラインデプロイメントでは、SynthRAGの回答が注目すべきユーザエンゲージメントを実現していることが明らかになった。
論文 参考訳(メタデータ) (2024-10-23T09:14:57Z) - Explaining Non-monotonic Normative Reasoning using Argumentation Theory with Deontic Logic [7.162465547358201]
本稿では, 法的に関係のある設計決定に対して, 設計者に効果的な説明を与える方法について検討する。
我々は、規範と規範的文脈における行動の正当化のための重要な法的・倫理的原則を規定することによって、説明を提供するための以前のシステムを拡張した。
一階述語論理が強い表現力を持つことを考慮し、本論文ではデオン演算子と選好を持つ一階述語論理系を採用する。
論文 参考訳(メタデータ) (2024-09-18T08:03:29Z) - Diffexplainer: Towards Cross-modal Global Explanations with Diffusion Models [51.21351775178525]
DiffExplainerは、言語ビジョンモデルを活用することで、マルチモーダルなグローバルな説明可能性を実現する新しいフレームワークである。
最適化されたテキストプロンプトに条件付けされた拡散モデルを使用し、クラス出力を最大化する画像を合成する。
生成した視覚的記述の分析により、バイアスと突発的特徴の自動識別が可能になる。
論文 参考訳(メタデータ) (2024-04-03T10:11:22Z) - Towards a Framework for Evaluating Explanations in Automated Fact Verification [12.904145308839997]
NLPの深いニューラルモデルがより複雑になるにつれて、それらを解釈する必要性はさらに高くなる。
急激な関心は、予測の簡潔で一貫性のある正当化を提供するための合理的な説明に現れている。
我々は,それらの評価を体系的に支援するための説明の合理化について,重要な概念と特性に関する公式な枠組みを提唱する。
論文 参考訳(メタデータ) (2024-03-29T17:50:28Z) - An Encoding of Abstract Dialectical Frameworks into Higher-Order Logic [57.24311218570012]
このアプローチは抽象弁証法フレームワークのコンピュータ支援分析を可能にする。
応用例としては、メタ理論的性質の形式的解析と検証がある。
論文 参考訳(メタデータ) (2023-12-08T09:32:26Z) - A Taxonomy of Decentralized Identifier Methods for Practitioners [50.76687001060655]
SSI(Self-Sovereign Identity)の新たなアイデンティティ管理パラダイムの中核となるのは、W3C Decentralized Identifiers(DID)標準である。
本稿では, DID手法を選択する際に, 実践者が情報的意思決定を行えるようにするためのDID手法の分類法を提案する。
論文 参考訳(メタデータ) (2023-10-18T13:01:40Z) - Interpretability is not Explainability: New Quantitative XAI Approach
with a focus on Recommender Systems in Education [0.0]
我々は,XAIにおける重要な概念と関係の明確かつ曖昧な理解を提供する新しい分類法を提案する。
私たちのアプローチは、既存の定義やフレームワークの体系的な分析に根ざしています。
この包括的分類学は、将来の研究のための共通語彙を確立することを目的としている。
論文 参考訳(メタデータ) (2023-09-18T11:59:02Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Flexible categorization for auditing using formal concept analysis and
Dempster-Shafer theory [55.878249096379804]
我々は、異なる金融口座に対する異なる利息の程度に応じて分類する様々な方法を研究する。
本稿で開発したフレームワークは,説明可能な分類の獲得と研究のための公式な基盤を提供する。
論文 参考訳(メタデータ) (2022-10-31T13:49:16Z) - A Methodology and Software Architecture to Support
Explainability-by-Design [0.0]
本稿では,意思決定システムの設計における説明能力を含む積極的尺度を特徴とする説明可能性設計手法について述べる。
方法論は, (A)説明要求分析, (B)説明技術設計, (C)説明検証の3段階からなる。
提案手法は,1文あたり2時間程度の開発時間で抽出可能であることがわかった。
論文 参考訳(メタデータ) (2022-06-13T15:34:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。