論文の概要: Towards Responsible AI for Financial Transactions
- arxiv url: http://arxiv.org/abs/2206.02419v1
- Date: Mon, 6 Jun 2022 08:29:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-08 03:27:29.977771
- Title: Towards Responsible AI for Financial Transactions
- Title(参考訳): 金融取引の責任あるaiに向けて
- Authors: Charl Maree and Jan Erik Modal and Christian W. Omlin
- Abstract要約: 本稿では、金融取引分類のための数値、分類、テキスト入力の混合に基づいて訓練されたディープニューラルネットワークについて説明する。
次に、ターゲットの回避攻撃に曝露することで、モデルの堅牢性をテストする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The application of AI in finance is increasingly dependent on the principles
of responsible AI. These principles - explainability, fairness, privacy,
accountability, transparency and soundness form the basis for trust in future
AI systems. In this study, we address the first principle by providing an
explanation for a deep neural network that is trained on a mixture of
numerical, categorical and textual inputs for financial transaction
classification. The explanation is achieved through (1) a feature importance
analysis using Shapley additive explanations (SHAP) and (2) a hybrid approach
of text clustering and decision tree classifiers. We then test the robustness
of the model by exposing it to a targeted evasion attack, leveraging the
knowledge we gained about the model through the extracted explanation.
- Abstract(参考訳): 金融におけるAIの適用は、責任あるAIの原則にますます依存している。
これらの原則 - 説明可能性、公平性、プライバシー、説明責任、透明性、健全性は、将来のaiシステムにおける信頼の基礎を形成する。
本研究では,金融取引分類のための数値的,カテゴリ的,テキスト的入力を混合して学習する深層ニューラルネットワークについて,その説明を提供することで,第1原理を解決した。
この説明は(1)Shapley additive explanations(SHAP)を用いた特徴重要度分析と(2)テキストクラスタリングと決定木分類のハイブリッドアプローチにより達成される。
次に、対象の回避攻撃に晒すことでモデルの堅牢性を検証し、抽出された説明を通して得られたモデルに関する知識を活用する。
関連論文リスト
- Explainable AI for Safe and Trustworthy Autonomous Driving: A Systematic Review [12.38351931894004]
本稿では,安全かつ信頼性の高い自動運転のための説明可能な手法に関する,最初の体系的な文献レビューを紹介する。
我々は、ADにおける安全で信頼性の高いAIに対するXAIの5つの重要な貢献を特定し、それらは解釈可能な設計、解釈可能な代理モデル、解釈可能なモニタリング、補助的な説明、解釈可能な検証である。
我々は、これらのコントリビューションを統合するためにSafeXと呼ばれるモジュラーフレームワークを提案し、同時にAIモデルの安全性を確保しながら、ユーザへの説明提供を可能にした。
論文 参考訳(メタデータ) (2024-02-08T09:08:44Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Neural Causal Models for Counterfactual Identification and Estimation [62.30444687707919]
本稿では,ニューラルモデルによる反事実文の評価について検討する。
まず、神経因果モデル(NCM)が十分に表現可能であることを示す。
第2に,反事実分布の同時同定と推定を行うアルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-09-30T18:29:09Z) - Accountability in AI: From Principles to Industry-specific Accreditation [4.033641609534416]
最近のAI関連のスキャンダルは、AIのアカウンタビリティに注目を向けている。
本稿では2つの貢献をするために公共政策とガバナンスから文献を引用する。
論文 参考訳(メタデータ) (2021-10-08T16:37:11Z) - Collective eXplainable AI: Explaining Cooperative Strategies and Agent
Contribution in Multiagent Reinforcement Learning with Shapley Values [68.8204255655161]
本研究は,シェープリー値を用いたマルチエージェントRLにおける協調戦略を説明するための新しい手法を提案する。
結果は、差別的でない意思決定、倫理的かつ責任あるAI由来の意思決定、公正な制約の下での政策決定に影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2021-10-04T10:28:57Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Explaining Black-Box Algorithms Using Probabilistic Contrastive
Counterfactuals [7.727206277914709]
ブラックボックス決定システムを説明するための因果性に基づく原則的アプローチを提案する。
本稿では,変数の直接的および間接的影響が,アルゴリズムによる決定に与える影響を定量的に示す。
このような反事実は,アルゴリズムの決定に負の影響を受ける個人に対して,どのように行動可能なリコースを提供できるかを示す。
論文 参考訳(メタデータ) (2021-03-22T16:20:21Z) - Generating Plausible Counterfactual Explanations for Deep Transformers
in Financial Text Classification [33.026285180536036]
本稿では,実証可能な対実的説明を創出するための新しい手法を提案する。
また、FinTechのドメインにおける言語モデルに対する敵対的トレーニングの正規化の利点についても検討している。
論文 参考訳(メタデータ) (2020-10-23T16:29:26Z) - Neuro-symbolic Architectures for Context Understanding [59.899606495602406]
本稿では,データ駆動型アプローチと知識駆動型アプローチの強みを組み合わせたフレームワークとして,ハイブリッドAI手法を提案する。
具体的には、知識ベースを用いて深層ニューラルネットワークの学習過程を導く方法として、ニューロシンボリズムの概念を継承する。
論文 参考訳(メタデータ) (2020-03-09T15:04:07Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。