論文の概要: Seven challenges for harmonizing explainability requirements
- arxiv url: http://arxiv.org/abs/2108.05390v1
- Date: Wed, 11 Aug 2021 18:10:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-13 14:42:04.208860
- Title: Seven challenges for harmonizing explainability requirements
- Title(参考訳): 説明可能性要件の調和のための7つの課題
- Authors: Jiahao Chen and Victor Storchan
- Abstract要約: モデルガバナンス、運用サービス、コンプライアンスに対するさまざまなニーズを処理するために、レギュレータは説明可能なAI(XAI)技術を採用することに関心を示している。
我々は、特定のビジネスアプリケーションに対する利害関係者のニーズを考慮して、実際にXAI技術を使用するには、高度にコンテキスト化されたアプローチが必要であると論じる。
- 参考スコア(独自算出の注目度): 2.538209532048867
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Regulators have signalled an interest in adopting explainable AI(XAI)
techniques to handle the diverse needs for model governance, operational
servicing, and compliance in the financial services industry. In this short
overview, we review the recent technical literature in XAI and argue that based
on our current understanding of the field, the use of XAI techniques in
practice necessitate a highly contextualized approach considering the specific
needs of stakeholders for particular business applications.
- Abstract(参考訳): 規制当局は、モデルガバナンス、運用サービス、金融サービス業界におけるコンプライアンスに対するさまざまなニーズに対応するために、説明可能なAI(XAI)技術を採用することに関心を示している。
本稿では、XAIにおける最近の技術文献を概観し、この分野の現在の理解に基づいて、特定のビジネスアプリケーションに対する利害関係者の特定のニーズを考慮して、実際にXAI技術を使うことが高度に文脈化されたアプローチを必要とすることを論じる。
関連論文リスト
- Open Problems in Mechanistic Interpretability [61.44773053835185]
機械的解釈可能性(Mechanistic Interpretability)は、ニューラルネットワークの能力の根底にある計算メカニズムを理解することを目的としている。
これらの目標に向けての最近の進歩にもかかわらず、解を必要とする分野には多くの未解決問題が存在する。
論文 参考訳(メタデータ) (2025-01-27T20:57:18Z) - The explanation dialogues: an expert focus study to understand requirements towards explanations within the GDPR [47.06917254695738]
我々は、XAIに対する法的専門家や実践者の期待、推論、理解を明らかにするための専門的な研究である説明対話(Explaination Dialogues)を提示する。
調査はオンラインアンケートとフォローアップインタビューで構成されており、クレジットドメインのユースケースを中心に行われている。
提示された説明は、情報を理解して欠くことは困難であり、データコントローラと主題の異なる関心事から生じる問題について議論する。
論文 参考訳(メタデータ) (2025-01-09T15:50:02Z) - Opportunities and Challenges of Generative-AI in Finance [0.09895793818721334]
本稿では,金融分野におけるGen-AI技術の応用について概観する。
本稿では,Gen-AI技術の育成に使用可能な各種手法と,金融エコシステムにおけるGen-AI技術の応用分野について述べる。
論文 参考訳(メタデータ) (2024-10-21T05:30:39Z) - Open Problems in Technical AI Governance [93.89102632003996]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - Practices, Challenges, and Opportunities When Inferring Requirements From Regulations in the FinTech Sector - An Industrial Study [1.0936851319953484]
規制規範を理解して解釈し、それらからソフトウェア要件を推測することは、規制コンプライアンスへの重要なステップである。
本研究では,規制文脈における要求工学の複雑さを考察し,諸問題を指摘し,詳細に議論する。
ソフトウェア開発における規制要件を管理するための重要なプラクティスを特定し、いくつかの課題を特定しました。
論文 参考訳(メタデータ) (2024-05-05T09:39:08Z) - Normative Requirements Operationalization with Large Language Models [3.456725053685842]
規範的な非機能要件は、社会的、法的、倫理的、共感的、文化的規範の違反を避けるために、システムが観察しなければならない制約を規定する。
近年の研究では、規範的要件を特定するためにドメイン固有言語を使用してこの問題に対処している。
本稿では,システム機能の抽象表現間の意味的関係を抽出するために,大規模言語モデルを用いた補完的アプローチを提案する。
論文 参考訳(メタデータ) (2024-04-18T17:01:34Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Impact of Legal Requirements on Explainability in Machine Learning [63.24965775030674]
本研究では,私的および公的な意思決定に課される説明義務と,機械学習技術による実施方法について分析する。
特に、欧州の法律が課す説明可能性の要件と機械学習(ML)モデルへの影響について分析した。
論文 参考訳(メタデータ) (2020-07-10T16:57:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。