論文の概要: Seven challenges for harmonizing explainability requirements
- arxiv url: http://arxiv.org/abs/2108.05390v1
- Date: Wed, 11 Aug 2021 18:10:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-13 14:42:04.208860
- Title: Seven challenges for harmonizing explainability requirements
- Title(参考訳): 説明可能性要件の調和のための7つの課題
- Authors: Jiahao Chen and Victor Storchan
- Abstract要約: モデルガバナンス、運用サービス、コンプライアンスに対するさまざまなニーズを処理するために、レギュレータは説明可能なAI(XAI)技術を採用することに関心を示している。
我々は、特定のビジネスアプリケーションに対する利害関係者のニーズを考慮して、実際にXAI技術を使用するには、高度にコンテキスト化されたアプローチが必要であると論じる。
- 参考スコア(独自算出の注目度): 2.538209532048867
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Regulators have signalled an interest in adopting explainable AI(XAI)
techniques to handle the diverse needs for model governance, operational
servicing, and compliance in the financial services industry. In this short
overview, we review the recent technical literature in XAI and argue that based
on our current understanding of the field, the use of XAI techniques in
practice necessitate a highly contextualized approach considering the specific
needs of stakeholders for particular business applications.
- Abstract(参考訳): 規制当局は、モデルガバナンス、運用サービス、金融サービス業界におけるコンプライアンスに対するさまざまなニーズに対応するために、説明可能なAI(XAI)技術を採用することに関心を示している。
本稿では、XAIにおける最近の技術文献を概観し、この分野の現在の理解に基づいて、特定のビジネスアプリケーションに対する利害関係者の特定のニーズを考慮して、実際にXAI技術を使うことが高度に文脈化されたアプローチを必要とすることを論じる。
関連論文リスト
- A Critical Survey on Fairness Benefits of XAI [10.049226270783562]
我々は,XAIの公正性に関する175の論文から,7つの古文書を同定した。
主張は曖昧で単純であり、規範的根拠が欠如している。
我々は、XAIを倫理的パナセアではなく、アルゴリズム的公正性の多次元的社会技術的課題にアプローチするための多くのツールの1つと考えることを奨励する。
論文 参考訳(メタデータ) (2023-10-15T08:17:45Z) - Charting the Sociotechnical Gap in Explainable AI: A Framework to
Address the Gap in XAI [29.33534897830558]
このギャップをグラフ化することで問題理解が向上し、説明可能性を改善するための実用的な洞察を反射的に提供できる、と我々は主張する。
我々は、社会技術的ギャップの体系的なチャート作成を容易にする枠組みを経験的に導き出した。
XAIの社会技術的ギャップを理解するための概念的かつ実践的な貢献により、このフレームワークはXAIデザイン空間を拡張している。
論文 参考訳(メタデータ) (2023-02-01T23:21:45Z) - Intelligent Traffic Monitoring with Hybrid AI [78.65479854534858]
マルチモーダルコンテキスト理解のためのニューロシンボリックアーキテクチャであるHANSを紹介する。
HANSが交通監視に関わる課題にどのように対処するかを示すとともに,幅広い推論手法と統合可能であることを示す。
論文 参考訳(メタデータ) (2022-08-31T17:47:22Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - Harnessing value from data science in business: ensuring explainability
and fairness of solutions [0.0]
本稿では、人工知能における公正性と説明可能性(XAI)の概念を紹介し、洗練されたビジネス問題を解決することを目的としている。
公平性に関して、著者らはバイアスを誘発する特異点と関連する緩和方法について議論し、データ駆動型組織に公正性を導入するための一連のレシピを結論付けている。
論文 参考訳(メタデータ) (2021-08-10T11:59:38Z) - AI Techniques for Software Requirements Prioritization [91.3755431537592]
本稿では,要求優先プロセスの全体的な品質向上に役立つ人工知能(AI)技術に基づく優先順位付け手法を提案する。
論文 参考訳(メタデータ) (2021-08-02T12:43:00Z) - How to choose an Explainability Method? Towards a Methodical
Implementation of XAI in Practice [3.974102831754831]
我々は,利害関係者のニーズと説明方法のギャップを埋めるための方法論の必要性を論じる。
我々は、ステークホルダーに説明責任を提供するプロセスにおいて、データサイエンティストを支援するために、この方法論を作成するための継続的な作業を示す。
論文 参考訳(メタデータ) (2021-07-09T13:22:58Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - What Do We Want From Explainable Artificial Intelligence (XAI)? -- A
Stakeholder Perspective on XAI and a Conceptual Model Guiding
Interdisciplinary XAI Research [0.8707090176854576]
説明可能性アプローチの主な目的は、人工システムに関する特定の関心、目標、期待、ニーズ、および要求を満たすことです。
ステークホルダーのデシデラタを満たすという目標を達成するための説明可能性アプローチがどうあるべきかは、しばしば不明である。
論文 参考訳(メタデータ) (2021-02-15T19:54:33Z) - Impact of Legal Requirements on Explainability in Machine Learning [63.24965775030674]
本研究では,私的および公的な意思決定に課される説明義務と,機械学習技術による実施方法について分析する。
特に、欧州の法律が課す説明可能性の要件と機械学習(ML)モデルへの影響について分析した。
論文 参考訳(メタデータ) (2020-07-10T16:57:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。