論文の概要: Model Risk Management for Generative AI In Financial Institutions
- arxiv url: http://arxiv.org/abs/2503.15668v1
- Date: Wed, 19 Mar 2025 19:52:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-21 22:27:04.978643
- Title: Model Risk Management for Generative AI In Financial Institutions
- Title(参考訳): 金融機関におけるジェネレーティブAIのモデルリスク管理
- Authors: Anwesha Bhattacharyya, Ye Yu, Hanyu Yang, Rahul Singh, Tarun Joshi, Jie Chen, Kiran Yalavarthy,
- Abstract要約: 2023年のOpenAIのChatGPTの成功により、金融企業はジェネレーティブAIアプリケーションを探求するようになった。
本稿では,生成型AIモデルのモデルリスク管理における重要な側面について概説する。
- 参考スコア(独自算出の注目度): 6.995717424201032
- License:
- Abstract: The success of OpenAI's ChatGPT in 2023 has spurred financial enterprises into exploring Generative AI applications to reduce costs or drive revenue within different lines of businesses in the Financial Industry. While these applications offer strong potential for efficiencies, they introduce new model risks, primarily hallucinations and toxicity. As highly regulated entities, financial enterprises (primarily large US banks) are obligated to enhance their model risk framework with additional testing and controls to ensure safe deployment of such applications. This paper outlines the key aspects for model risk management of generative AI model with a special emphasis on additional practices required in model validation.
- Abstract(参考訳): 2023年のOpenAIのChatGPTの成功により、金融機関は、コスト削減や金融業界のさまざまなビジネスラインでの収益向上のために、ジェネレーティブAIアプリケーションを探求するようになった。
これらの応用は効率性に強い可能性をもたらすが、主に幻覚や毒性といった新しいモデルリスクを導入する。
高度に規制された機関として、金融機関(主に米国大手銀行)は、そのようなアプリケーションの安全な配置を確保するために、追加のテストとコントロールによるモデルリスクの枠組みを強化する義務がある。
本稿では,生成型AIモデルのモデルリスク管理における重要な側面について概説する。
関連論文リスト
- Predicting Liquidity Coverage Ratio with Gated Recurrent Units: A Deep Learning Model for Risk Management [5.864973298916232]
本稿では、金融機関が流動性リスクをより効果的に管理できるように、ゲートリカレントユニット(GRU)ネットワークに基づく流動性カバレッジ比(LCR)予測モデルを提案する。
ディープラーニング技術におけるGRUネットワークを利用することで、モデルは過去のデータから複雑なパターンを自動的に学習し、将来しばらくの間LCRを正確に予測することができる。
論文 参考訳(メタデータ) (2024-10-24T23:43:50Z) - A Formal Framework for Assessing and Mitigating Emergent Security Risks in Generative AI Models: Bridging Theory and Dynamic Risk Mitigation [0.3413711585591077]
大規模言語モデル(LLM)や拡散モデルを含む生成AIシステムが急速に進歩するにつれ、その採用が増加し、新たな複雑なセキュリティリスクがもたらされた。
本稿では,これらの突発的なセキュリティリスクを分類・緩和するための新しい形式的枠組みを提案する。
我々は、潜時空間利用、マルチモーダル・クロスアタック・ベクター、フィードバックループによるモデル劣化など、未探索のリスクを特定した。
論文 参考訳(メタデータ) (2024-10-15T02:51:32Z) - Model Developmental Safety: A Retention-Centric Method and Applications in Vision-Language Models [75.8161094916476]
本稿では,事前学習された視覚言語モデル,特にCLIPモデルの開発手法について検討する。
自律走行とシーン認識データセットにおける視覚知覚能力の向上に関する実験は,提案手法の有効性を実証するものである。
論文 参考訳(メタデータ) (2024-10-04T22:34:58Z) - EARBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [53.717918131568936]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
本研究では,EAIシナリオにおける身体的リスクの自動評価のための新しいフレームワークEARBenchを紹介する。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z) - Enhancing the Efficiency and Accuracy of Underlying Asset Reviews in Structured Finance: The Application of Multi-agent Framework [3.022596401099308]
AIは、ローンアプリケーションと銀行のステートメント間の情報の検証を効果的に自動化できることを示します。
この研究は、手動エラーを最小限に抑え、デューディリジェンスを合理化するAIの可能性を強調し、財務文書分析とリスク管理におけるAIの幅広い応用を示唆している。
論文 参考訳(メタデータ) (2024-05-07T13:09:49Z) - On the Societal Impact of Open Foundation Models [93.67389739906561]
ここでは、広く利用可能なモデルウェイトを持つものとして定義されている、オープンファンデーションモデルに重点を置いています。
オープンファンデーションモデルの5つの特徴を識別し,その利点とリスクを両立させる。
論文 参考訳(メタデータ) (2024-02-27T16:49:53Z) - C-RAG: Certified Generation Risks for Retrieval-Augmented Language Models [57.10361282229501]
RAGモデルの生成リスクを認証する最初のフレームワークであるC-RAGを提案する。
具体的には、RAGモデルに対して共形リスク分析を行い、生成リスクの上限以上の信頼度を認定する。
検索モデルと変圧器の品質が非自明な場合, RAG は単一の LLM よりも低い共形生成リスクを達成できることを示す。
論文 参考訳(メタデータ) (2024-02-05T16:46:16Z) - Self-Destructing Models: Increasing the Costs of Harmful Dual Uses of
Foundation Models [103.71308117592963]
本稿ではメタラーニングと逆学習の技法を活用した自己破壊モデルの学習アルゴリズムを提案する。
小規模な実験では、MLACは、BERTスタイルのモデルが性別識別を行うために再目的化されることをほとんど防ぐことができることを示す。
論文 参考訳(メタデータ) (2022-11-27T21:43:45Z) - Scenario generation for market risk models using generative neural
networks [0.0]
本稿では,GAN(Generative Adversarial Network)を内部市場リスクモデルに拡張する方法について述べる。
GANをベースとした内部モデルの結果が,欧州の規制当局が承認した内部モデルと類似していることが実証された。
論文 参考訳(メタデータ) (2021-09-21T10:22:29Z) - Explanations of Machine Learning predictions: a mandatory step for its
application to Operational Processes [61.20223338508952]
信用リスクモデリングは重要な役割を果たす。
近年,機械学習や深層学習の手法が採用されている。
この分野における説明可能性問題に LIME 手法を適用することを提案する。
論文 参考訳(メタデータ) (2020-12-30T10:27:59Z) - Towards Self-Regulating AI: Challenges and Opportunities of AI Model
Governance in Financial Services [11.333522345613819]
本稿では,金融サービス産業におけるAIモデルガバナンスの課題に焦点を当てる。
本稿では、ロバスト性とコンプライアンスのための自己規制を強化するためのシステムレベルフレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-09T22:12:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。