論文の概要: Towards Self-Regulating AI: Challenges and Opportunities of AI Model
Governance in Financial Services
- arxiv url: http://arxiv.org/abs/2010.04827v1
- Date: Fri, 9 Oct 2020 22:12:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 05:06:34.639263
- Title: Towards Self-Regulating AI: Challenges and Opportunities of AI Model
Governance in Financial Services
- Title(参考訳): 自己統制型AIを目指して : 金融サービスにおけるAIモデルガバナンスの課題と機会
- Authors: Eren Kurshan and Hongda Shen and Jiahao Chen
- Abstract要約: 本稿では,金融サービス産業におけるAIモデルガバナンスの課題に焦点を当てる。
本稿では、ロバスト性とコンプライアンスのための自己規制を強化するためのシステムレベルフレームワークを提案する。
- 参考スコア(独自算出の注目度): 11.333522345613819
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: AI systems have found a wide range of application areas in financial
services. Their involvement in broader and increasingly critical decisions has
escalated the need for compliance and effective model governance. Current
governance practices have evolved from more traditional financial applications
and modeling frameworks. They often struggle with the fundamental differences
in AI characteristics such as uncertainty in the assumptions, and the lack of
explicit programming. AI model governance frequently involves complex review
flows and relies heavily on manual steps. As a result, it faces serious
challenges in effectiveness, cost, complexity, and speed. Furthermore, the
unprecedented rate of growth in the AI model complexity raises questions on the
sustainability of the current practices. This paper focuses on the challenges
of AI model governance in the financial services industry. As a part of the
outlook, we present a system-level framework towards increased self-regulation
for robustness and compliance. This approach aims to enable potential solution
opportunities through increased automation and the integration of monitoring,
management, and mitigation capabilities. The proposed framework also provides
model governance and risk management improved capabilities to manage model risk
during deployment.
- Abstract(参考訳): aiシステムは金融サービスで幅広い応用分野を見つけてきた。
より広く、ますます重要な決定への関与は、コンプライアンスと効果的なモデルガバナンスの必要性を増大させてきました。
現在のガバナンスプラクティスは、従来の金融アプリケーションやモデリングフレームワークから進化しています。
彼らはしばしば、仮定の不確実性や明示的なプログラミングの欠如など、AI特性の根本的な違いに悩まされる。
AIモデルガバナンスは、しばしば複雑なレビューフローを伴い、手動のステップに大きく依存する。
その結果、有効性、コスト、複雑さ、スピードにおいて深刻な課題に直面します。
さらに、AIモデルの複雑さが前例のないペースで増加すると、現在のプラクティスの持続可能性に関する疑問が持ち上がる。
本稿では,金融サービス産業におけるAIモデルガバナンスの課題に焦点を当てる。
今後の展望として、ロバスト性とコンプライアンスの自己規制強化に向けたシステムレベルフレームワークを提案する。
このアプローチは、自動化と監視、管理、緩和機能の統合による潜在的なソリューションの機会の実現を目的としています。
提案されたフレームワークは、デプロイ中のモデルリスクを管理するためのモデルガバナンスとリスク管理の改善も提供する。
関連論文リスト
- Open Problems in Technical AI Governance [93.89102632003996]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - Agent-Driven Automatic Software Improvement [55.2480439325792]
本提案は,Large Language Models (LLMs) を利用したエージェントの展開に着目して,革新的なソリューションの探求を目的とする。
継続的学習と適応を可能にするエージェントの反復的性質は、コード生成における一般的な課題を克服するのに役立ちます。
我々は,これらのシステムにおける反復的なフィードバックを用いて,エージェントの基盤となるLLMをさらに微調整し,自動化されたソフトウェア改善のタスクに整合性を持たせることを目指している。
論文 参考訳(メタデータ) (2024-06-24T15:45:22Z) - Generative AI Needs Adaptive Governance [0.0]
ジェネレーティブAIは、ガバナンス、信頼、ヒューマンエージェンシーの概念に挑戦する。
本稿では,ジェネレーティブAIが適応的ガバナンスを求めていることを論じる。
我々は、アクター、ロール、および共有およびアクター固有のポリシー活動の概要を概説する。
論文 参考訳(メタデータ) (2024-06-06T23:47:14Z) - On the Challenges and Opportunities in Generative AI [135.2754367149689]
現在の大規模生成AIモデルは、ドメイン間で広く採用されるのを妨げるいくつかの基本的な問題に十分対応していない、と我々は主張する。
本研究は、現代の生成型AIパラダイムにおける重要な未解決課題を特定し、その能力、汎用性、信頼性をさらに向上するために取り組まなければならない。
論文 参考訳(メタデータ) (2024-02-28T15:19:33Z) - AI in ESG for Financial Institutions: An Industrial Survey [4.893954917947095]
本稿では,ESGフレームワークの活性化におけるAIの必要性と影響を明らかにするために,産業環境を調査した。
調査では、分析能力、リスク評価、顧客エンゲージメント、報告精度など、ESGの主要な3つの柱にまたがるAIアプリケーションを分類した。
この論文は、ESG関連の銀行プロセスにおけるAI展開の倫理的側面を強調し、責任と持続可能なAIの衝動についても論じている。
論文 参考訳(メタデータ) (2024-02-03T02:14:47Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - A Hypothesis on Good Practices for AI-based Systems for Financial Time
Series Forecasting: Towards Domain-Driven XAI Methods [0.0]
機械学習とディープラーニングは、財務予測や予測タスクでますます普及している。
これらのモデルは透明性と解釈可能性に欠けることが多く、金融のような繊細なドメインでの使用を困難にしている。
本稿では、金融のためのAIベースのシステムに説明可能性を展開するための優れた実践について考察する。
論文 参考訳(メタデータ) (2023-11-13T17:56:45Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - The AI Revolution: Opportunities and Challenges for the Finance Sector [12.486180180030964]
金融セクターにおけるAIの応用は、業界を変えつつある。
しかしながら、これらのメリットに加えて、AIはいくつかの課題も提示する。
これには透明性、解釈可能性、公正性、説明責任、信頼性に関する問題が含まれる。
金融セクターにおけるAIの使用は、データプライバシとセキュリティに関する重要な疑問をさらに引き起こす。
このニーズをグローバルに認識しているにもかかわらず、金融におけるAIの使用に関する明確なガイドラインや法律はいまだに存在しない。
論文 参考訳(メタデータ) (2023-08-31T08:30:09Z) - On Realization of Intelligent Decision-Making in the Real World: A
Foundation Decision Model Perspective [54.38373782121503]
FDM(Foundation Decision Model)は、様々な意思決定タスクをシーケンスデコーディングタスクとして定式化することで開発することができる。
本稿では、FDMの実装であるDigitalBrain(DB1)を13億のパラメータで実証し、870のタスクで人間レベルのパフォーマンスを達成するケーススタディを提案する。
論文 参考訳(メタデータ) (2022-12-24T06:16:45Z) - On the Current and Emerging Challenges of Developing Fair and Ethical AI
Solutions in Financial Services [1.911678487931003]
我々は、高レベルの原則と具体的なデプロイされたAIアプリケーションとのギャップについて、実践的な考察をいかに示すかを示す。
我々は、高レベルの原則と具体的なデプロイされたAIアプリケーションとのギャップについて、実践的な考察をいかに示すかを示す。
論文 参考訳(メタデータ) (2021-11-02T00:15:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。