論文の概要: Towards Explainable and Reliable AI in Finance
- arxiv url: http://arxiv.org/abs/2510.26353v1
- Date: Thu, 30 Oct 2025 11:05:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.771127
- Title: Towards Explainable and Reliable AI in Finance
- Title(参考訳): 財務における説明可能で信頼性の高いAIを目指して
- Authors: Albi Isufaj, Pablo Mollá, Helmut Prendinger,
- Abstract要約: ファイナンスにおける説明可能で信頼性の高いAIへのいくつかのアプローチを提案する。
予測性能と信頼性推定とルールベースの推論を統合することで、我々のフレームワークは透明で監査可能な金融AIシステムを発展させる。
- 参考スコア(独自算出の注目度): 2.666791490663749
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Financial forecasting increasingly uses large neural network models, but their opacity raises challenges for trust and regulatory compliance. We present several approaches to explainable and reliable AI in finance. \emph{First}, we describe how Time-LLM, a time series foundation model, uses a prompt to avoid a wrong directional forecast. \emph{Second}, we show that combining foundation models for time series forecasting with a reliability estimator can filter our unreliable predictions. \emph{Third}, we argue for symbolic reasoning encoding domain rules for transparent justification. These approaches shift emphasize executing only forecasts that are both reliable and explainable. Experiments on equity and cryptocurrency data show that the architecture reduces false positives and supports selective execution. By integrating predictive performance with reliability estimation and rule-based reasoning, our framework advances transparent and auditable financial AI systems.
- Abstract(参考訳): 金融予測では、大規模なニューラルネットワークモデルの利用が増えているが、その不透明さは、信頼と規制遵守の課題を提起する。
ファイナンスにおける説明可能で信頼性の高いAIへのいくつかのアプローチを提案する。
時系列基礎モデルであるTime-LLMは,誤った方向予測を避けるためにプロンプトを使用する。
時系列予測のための基礎モデルと信頼性推定器を組み合わせることで、信頼できない予測をフィルタリングできることが示される。
ここでは、透過的な正当化のためにドメインルールを符号化するシンボリック推論について論じる。
これらのアプローチは、信頼性と説明可能な予測のみを実行することを強調する。
エクイティデータと暗号通貨データの実験は、アーキテクチャが偽陽性を減らし、選択的実行をサポートすることを示している。
予測性能と信頼性推定とルールベースの推論を統合することで、我々のフレームワークは透明で監査可能な金融AIシステムを発展させる。
関連論文リスト
- Faithful and Interpretable Explanations for Complex Ensemble Time Series Forecasts using Surrogate Models and Forecastability Analysis [1.5751034894694789]
本稿では,精度と解釈可能性のギャップを埋めるサロゲートに基づく説明手法を開発する。
スペクトル予測可能性分析を統合し,各系列固有の予測可能性の定量化を行う。
結果として得られるフレームワークは、最先端のアンサンブル予測に対する解釈可能なインスタンスレベルの説明を提供する。
論文 参考訳(メタデータ) (2025-10-09T18:49:45Z) - FinZero: Launching Multi-modal Financial Time Series Forecast with Large Reasoning Model [27.20045729222667]
FinZeroは、FVLDBファイナンシャル時系列の推論、予測、分析的理解を行うために、UARPOによって微調整されたマルチモーダル事前訓練モデルである。
UARPOで微調整した後、FinZeroは高信頼グループのGPT-4oよりも予測精度が約13.48%向上した。
論文 参考訳(メタデータ) (2025-09-10T16:32:41Z) - FinChain: A Symbolic Benchmark for Verifiable Chain-of-Thought Financial Reasoning [82.7292329605713]
FinChainは、ファイナンスにおける検証可能なChain-of-Thought評価のために特別に設計された最初のベンチマークである。
12の金融ドメインに58のトピックがあり、それぞれがパラメータ化されたシンボリックテンプレートと実行可能なPythonトレースで表現されている。
FinChainは、多段階の財務推論における永続的な弱点を明らかにし、信頼できる、解釈可能な、検証可能な金融AIを開発するための基盤を提供する。
論文 参考訳(メタデータ) (2025-06-03T06:44:42Z) - Consistency Checks for Language Model Forecasters [54.62507816753479]
予測器の性能を,論理的に異なる質問に対する予測の整合性の観点から測定する。
我々は,一連の基本質問を生成し,これらの質問から整合性チェックをインスタンス化し,予測者の予測を導き,予測の整合性を測定する自動評価システムを構築した。
論文 参考訳(メタデータ) (2024-12-24T16:51:35Z) - Exchangeable Sequence Models Quantify Uncertainty Over Latent Concepts [6.256239986541708]
事前学習されたシーケンスモデルは、交換可能なデータポイントよりも確率論的推論が可能であることを示す。
シーケンスモデルは、典型的なベイズモデルとは異なる観測間の関係を学習する。
シーケンス予測損失が不確実性定量化の品質を制御することを示す。
論文 参考訳(メタデータ) (2024-08-06T17:16:10Z) - Measuring Consistency in Text-based Financial Forecasting Models [10.339586273664725]
FinTrustは財務文書の論理的一貫性を評価する評価ツールである。
金融予測のための最先端NLPモデルの整合性は乏しいことを示す。
意味保存による性能劣化の分析は,現在のテキストベースの手法が市場情報の堅牢な予測に適していないことを示唆している。
論文 参考訳(メタデータ) (2023-05-15T10:32:26Z) - Interpretable Self-Aware Neural Networks for Robust Trajectory
Prediction [50.79827516897913]
本稿では,意味概念間で不確実性を分散する軌道予測のための解釈可能なパラダイムを提案する。
実世界の自動運転データに対する我々のアプローチを検証し、最先端のベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-16T06:28:20Z) - Learning to Predict Trustworthiness with Steep Slope Loss [69.40817968905495]
本研究では,現実の大規模データセットにおける信頼性の予測問題について検討する。
我々は、先行技術損失関数で訓練された信頼性予測器が、正しい予測と誤った予測の両方を信頼に値するものとみなす傾向があることを観察する。
そこで我々は,2つのスライド状の曲線による不正確な予測から,特徴w.r.t.正しい予測を分離する,新たな急勾配損失を提案する。
論文 参考訳(メタデータ) (2021-09-30T19:19:09Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。