論文の概要: Exploring Explainable AI in the Financial Sector: Perspectives of Banks
and Supervisory Authorities
- arxiv url: http://arxiv.org/abs/2111.02244v1
- Date: Wed, 3 Nov 2021 14:11:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2021-11-04 16:32:07.340863
- Title: Exploring Explainable AI in the Financial Sector: Perspectives of Banks
and Supervisory Authorities
- Title(参考訳): 金融セクターにおける説明可能なAIの探求:銀行と監督当局の視点
- Authors: Ouren Kuiper, Martin van den Berg, Joost van den Burgt, Stefan Leijnen
- Abstract要約: 本研究の目的は、金融セクターにおけるxAIの適用に関する監督当局及び規制機関の視点を検討することである。
調査を行った場合,AIシステムの説明可能性の望ましい範囲について,監督当局と銀行との間に格差があることが判明した。
金融セクターは、適用可能な法律や規制に関連して、技術的AI(モデル)の非説明可能性要件とより広範なAIシステムの説明可能性要件との明確な区別の恩恵を受けることができる、と我々は主張する。
- 参考スコア(独自算出の注目度): 0.3670422696827526
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable artificial intelligence (xAI) is seen as a solution to making AI
systems less of a black box. It is essential to ensure transparency, fairness,
and accountability, which are especially paramount in the financial sector. The
aim of this study was a preliminary investigation of the perspectives of
supervisory authorities and regulated entities regarding the application of xAI
in the fi-nancial sector. Three use cases (consumer credit, credit risk, and
anti-money laundering) were examined using semi-structured interviews at three
banks and two supervisory authorities in the Netherlands. We found that for the
investigated use cases a disparity exists between supervisory authorities and
banks regarding the desired scope of explainability of AI systems. We argue
that the financial sector could benefit from clear differentiation between
technical AI (model) ex-plainability requirements and explainability
requirements of the broader AI system in relation to applicable laws and
regulations.
- Abstract(参考訳): 説明可能な人工知能(xAI)は、AIシステムをブラックボックスより少なくするためのソリューションと見なされている。
透明性、公正性、説明責任を確保することが不可欠であり、特に金融セクターにおいて重要となる。
本研究の目的は、金融セクターにおけるxAIの適用に関する監督当局及び規制機関の視点を予備調査することであった。
オランダの3つの銀行と2つの監督当局で半構造化インタビューを行い、3つのユースケース(消費者信用、信用リスク、反マネーロンダリング)を調査した。
調査を行った場合,AIシステムの説明可能性の望ましい範囲について,監督当局と銀行の間で格差が存在することがわかった。
金融セクターは、適用可能な法律や規制に関連して、技術的AI(モデル)の非説明可能性要件とより広範なAIシステムの説明可能性要件との明確な区別の恩恵を受けることができる、と我々は主張する。
関連論文リスト
- In-House Evaluation Is Not Enough: Towards Robust Third-Party Flaw Disclosure for General-Purpose AI [93.33036653316591]
我々はシステムの安全性を高めるために3つの介入を要求します。
まず、標準化されたAI欠陥レポートと研究者へのエンゲージメントのルールを用いることを提案する。
第2に,GPAIシステムプロバイダが広視野欠陥開示プログラムを採用することを提案する。
第3に,欠陥報告の分布を調整するための改良されたインフラの開発を提唱する。
論文 参考訳(メタデータ) (2025-03-21T05:09:46Z) - Regulating Ai In Financial Services: Legal Frameworks And Compliance Challenges [0.0]
金融サービスにおける人工知能(AI)規制の進展状況について考察する。
不正検出からアルゴリズム取引まで、AI駆動のプロセスがいかに効率性を高め、重大なリスクをもたらすかを強調している。
この研究は、欧州連合、米国、英国などの主要な司法管轄区域における規制のアプローチを比較している。
論文 参考訳(メタデータ) (2025-03-17T14:29:09Z) - Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - Unlocking the Black Box: Analysing the EU Artificial Intelligence Act's Framework for Explainability in AI [0.0]
eXplainable AI(XAI)の必要性は、医療、信用スコアリング、警察、刑事司法制度などの分野において明らかである。
EUレベルでは、説明可能性の概念は、AI法を支える基本的な原則の1つである。
本稿では,AIガバナンスと政策における説明可能性の原則を実装する上での課題とともに,XAIの推進を約束する様々なアプローチとテクニックについて考察する。
論文 参考訳(メタデータ) (2025-01-24T16:30:19Z) - Public vs Private Bodies: Who Should Run Advanced AI Evaluations and Audits? A Three-Step Logic Based on Case Studies of High-Risk Industries [0.5573180584719433]
本稿では,先進的なAIのどの部分を監査すべきかを,9つの制度から明らかにする。
公的・私的な監査人間の効果的な責任配分は、特定の産業や監査条件に大きく依存する。
公共団体の能力は、産業のリスクレベル、規模、市場集中度とともに拡大すべきである。
論文 参考訳(メタデータ) (2024-07-30T14:25:08Z) - Open Problems in Technical AI Governance [93.89102632003996]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - Auditing of AI: Legal, Ethical and Technical Approaches [0.0]
AI監査は、研究と実践の急速に成長している分野である。
AI監査に対する異なるアプローチには、さまざまな余裕と制約がある。
AIガバナンスメカニズムとしての監査の進化における次のステップは、これらの利用可能なアプローチのインターリンクであるべきです。
論文 参考訳(メタデータ) (2024-07-07T12:49:58Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - The AI Revolution: Opportunities and Challenges for the Finance Sector [12.486180180030964]
金融セクターにおけるAIの応用は、業界を変えつつある。
しかしながら、これらのメリットに加えて、AIはいくつかの課題も提示する。
これには透明性、解釈可能性、公正性、説明責任、信頼性に関する問題が含まれる。
金融セクターにおけるAIの使用は、データプライバシとセキュリティに関する重要な疑問をさらに引き起こす。
このニーズをグローバルに認識しているにもかかわらず、金融におけるAIの使用に関する明確なガイドラインや法律はいまだに存在しない。
論文 参考訳(メタデータ) (2023-08-31T08:30:09Z) - Explainability in AI Policies: A Critical Review of Communications,
Reports, Regulations, and Standards in the EU, US, and UK [1.5039745292757671]
我々は、EU、米国、英国における説明可能性に関する政策と標準に関する最初のテーマとギャップの分析を行う。
政策は、しばしば説明のための粗い概念と要求によって知らされる。
本稿では,AIシステムの規則における説明可能性への対処法を提案する。
論文 参考訳(メタデータ) (2023-04-20T07:53:07Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Accountability in AI: From Principles to Industry-specific Accreditation [4.033641609534416]
最近のAI関連のスキャンダルは、AIのアカウンタビリティに注目を向けている。
本稿では2つの貢献をするために公共政策とガバナンスから文献を引用する。
論文 参考訳(メタデータ) (2021-10-08T16:37:11Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z) - Learning from Learning Machines: Optimisation, Rules, and Social Norms [91.3755431537592]
経済的な実体の行動に最も類似したAIの領域は道徳的に良い意思決定の領域であるようだ。
近年のAIにおけるディープラーニングの成功は、そのような問題を解決するための明示的な仕様よりも暗黙的な仕様の方が優れていることを示唆している。
論文 参考訳(メタデータ) (2019-12-29T17:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。