論文の概要: Explainable Artificial Intelligence for Economic Time Series: A Comprehensive Review and a Systematic Taxonomy of Methods and Concepts
- arxiv url: http://arxiv.org/abs/2512.12506v1
- Date: Sun, 14 Dec 2025 00:45:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.288983
- Title: Explainable Artificial Intelligence for Economic Time Series: A Comprehensive Review and a Systematic Taxonomy of Methods and Concepts
- Title(参考訳): 経済時系列のための説明可能な人工知能 : 包括的レビューと方法と概念の体系的分類
- Authors: Agustín García-García, Pablo Hidalgo, Julio E. Sandubete,
- Abstract要約: 本調査は、経済時系列のXAIに関する文献をレビューし、整理するものである。
そこで本研究では, (i) 説明機構によってメソッドを分類する分類法を提案する。
我々は、ラグの断片化と計算コストを削減する時系列固有の適応を合成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainable Artificial Intelligence (XAI) is increasingly required in computational economics, where machine-learning forecasters can outperform classical econometric models but remain difficult to audit and use for policy. This survey reviews and organizes the growing literature on XAI for economic time series, where autocorrelation, non-stationarity, seasonality, mixed frequencies, and regime shifts can make standard explanation techniques unreliable or economically implausible. We propose a taxonomy that classifies methods by (i) explanation mechanism: propagation-based approaches (e.g., Integrated Gradients, Layer-wise Relevance Propagation), perturbation and game-theoretic attribution (e.g., permutation importance, LIME, SHAP), and function-based global tools (e.g., Accumulated Local Effects); (ii) time-series compatibility, including preservation of temporal dependence, stability over time, and respect for data-generating constraints. We synthesize time-series-specific adaptations such as vector- and window-based formulations (e.g., Vector SHAP, WindowSHAP) that reduce lag fragmentation and computational cost while improving interpretability. We also connect explainability to causal inference and policy analysis through interventional attributions (Causal Shapley values) and constrained counterfactual reasoning. Finally, we discuss intrinsically interpretable architectures (notably attention-based transformers) and provide guidance for decision-grade applications such as nowcasting, stress testing, and regime monitoring, emphasizing attribution uncertainty and explanation dynamics as indicators of structural change.
- Abstract(参考訳): XAI(Explainable Artificial Intelligence)は、機械学習の予測者が古典的な計量モデルより優れているが、監査やポリシーの使用が困難である計算経済学においてますます求められている。
本調査では, 自己相関, 非定常性, 季節性, 混合周波数, 政権交代など, 経済時系列のXAIに関する文献をレビュー, 整理することにより, 標準的な説明手法を信頼できない, あるいは経済的に理解できないものにすることができる。
メソッドを分類する分類法を提案する。
(i)説明メカニズム:伝搬に基づくアプローチ(例えば、統合的グラディエント、レイヤーワイド関連伝播)、摂動とゲーム理論の属性(例えば、置換の重要性、LIME、SHAP)、関数ベースのグローバルツール(例えば、累積局所効果)
(II)時間的依存の保存、時間的安定性、データ生成制約の尊重を含む時系列互換性。
ベクトルおよびウィンドウベースの定式化(例えば、ベクトルSHAP、ウィンドウSHAP)のような時系列固有の適応を合成し、ラグの断片化と計算コストを低減し、解釈性を向上させる。
また、介入帰属(因果Shapley値)と制約された反実的推論を通じて因果推論と政策分析に説明責任を結合する。
最後に、本研究は、本質的に解釈可能なアーキテクチャ(特にアテンションベースのトランスフォーマー)について論じ、ガムキャスティング、ストレステスト、レギュラーモニタリングといった意思決定レベルのアプリケーションに対するガイダンスを提供し、構造変化の指標として属性の不確実性や説明力学を強調する。
関連論文リスト
- A Survey of Reasoning and Agentic Systems in Time Series with Large Language Models [22.683448537572897]
時系列推論は時間を第一級軸として扱い、中間証拠を直接答えに組み込む。
本調査では,一段階における直接推論,明示的な中間体による線形連鎖推論,分岐構造推論という3つのファミリーによるトポロジの推論によって,問題を定義し,文献を整理する。
論文 参考訳(メタデータ) (2025-09-15T04:39:50Z) - Topology-Aware Conformal Prediction for Stream Networks [68.02503121089633]
本研究では,ネットワークトポロジと時間的ダイナミクスを共形予測フレームワークに統合した新しいフレームワークであるspatio-Temporal Adaptive Conformal Inference (textttCISTA)を提案する。
この結果から,TextttCISTAは予測効率とカバレッジのバランスを効果的に保ち,既存のストリームネットワークの共形予測手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2025-03-06T21:21:15Z) - Coarse Set Theory for AI Ethics and Decision-Making: A Mathematical Framework for Granular Evaluations [0.0]
粗い倫理 (CE) は、文字のグレードや警告ラベルなどの粗い評価を、認知的および文脈的制約の下で倫理的に適切であるものとして正当化する理論的な枠組みである。
本稿では、完全順序構造と粗い分割を用いた粗粒度決定をモデル化する新しい数学的枠組みである粗粒度集合論(CST)を紹介する。
CSTは集合間の階層的関係を定義し、Kulback-Leibler Divergenceのような情報理論ツールを使用して、単純化と情報損失の間のトレードオフを定量化する。
論文 参考訳(メタデータ) (2025-02-11T08:18:37Z) - Generic Temporal Reasoning with Differential Analysis and Explanation [61.96034987217583]
時間差分解析でギャップを埋めるTODAYという新しいタスクを導入する。
TODAYは、システムがインクリメンタルな変化の効果を正しく理解できるかどうかを評価する。
共同学習においてTODAYの指導スタイルと説明アノテーションが有効であることを示す。
論文 参考訳(メタデータ) (2022-12-20T17:40:03Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。