論文の概要: A Time Series Approach to Explainability for Neural Nets with
Applications to Risk-Management and Fraud Detection
- arxiv url: http://arxiv.org/abs/2212.02906v1
- Date: Tue, 6 Dec 2022 12:04:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 18:12:22.398360
- Title: A Time Series Approach to Explainability for Neural Nets with
Applications to Risk-Management and Fraud Detection
- Title(参考訳): ニューラルネットワークの説明可能性に関する時系列的アプローチとリスク管理とフラッド検出への応用
- Authors: Marc Wildi and Branka Hadji Misheva
- Abstract要約: 技術に対する信頼は、予測の背後にある根拠を理解することによって実現される。
横断的なデータの場合、古典的なXAIアプローチはモデルの内部動作に関する貴重な洞察をもたらす可能性がある。
本稿では、データの自然時間順序を保存・活用する深層学習のための新しいXAI手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Artificial intelligence is creating one of the biggest revolution across
technology driven application fields. For the finance sector, it offers many
opportunities for significant market innovation and yet broad adoption of AI
systems heavily relies on our trust in their outputs. Trust in technology is
enabled by understanding the rationale behind the predictions made. To this
end, the concept of eXplainable AI emerged introducing a suite of techniques
attempting to explain to users how complex models arrived at a certain
decision. For cross-sectional data classical XAI approaches can lead to
valuable insights about the models' inner workings, but these techniques
generally cannot cope well with longitudinal data (time series) in the presence
of dependence structure and non-stationarity. We here propose a novel XAI
technique for deep learning methods which preserves and exploits the natural
time ordering of the data.
- Abstract(参考訳): 人工知能は、テクノロジー駆動のアプリケーション分野における最大の革命の1つになっている。
金融分野では、大きな市場革新の機会がたくさんあるが、aiシステムの広範な採用は、私たちのアウトプットに対する信頼に大きく依存している。
技術に対する信頼は、予測の背後にある根拠を理解することによって実現される。
この目的のために、eXplainable AIの概念が登場し、ある決定に複雑なモデルがどのように到達したかをユーザに説明しようとする一連のテクニックが導入された。
断面データの場合、古典的なXAIアプローチはモデルの内部動作に関する貴重な洞察をもたらすが、これらの手法は概して依存構造や非定常性の存在下での長手データ(時系列)にうまく対応できない。
本稿では,データの自然時間順序を保存・活用する深層学習手法のための新しいxai手法を提案する。
関連論文リスト
- XEdgeAI: A Human-centered Industrial Inspection Framework with Data-centric Explainable Edge AI Approach [2.0209172586699173]
本稿では,新しいXAI統合視覚品質検査フレームワークを提案する。
我々のフレームワークはXAIとLarge Vision Language Modelを組み込んで人間中心の解釈可能性を提供する。
このアプローチは、重要な産業アプリケーションに信頼性と解釈可能なAIツールを広く採用する道を開くものだ。
論文 参考訳(メタデータ) (2024-07-16T14:30:24Z) - Explainable Artificial Intelligence Techniques for Accurate Fault Detection and Diagnosis: A Review [0.0]
この文脈でeXplainable AI(XAI)ツールとテクニックをレビューする。
私たちは、AI決定を透明にする彼らの役割、特に人間が関与する重要なシナリオに重点を置いています。
モデル性能と説明可能性のバランスをとることを目的とした,現在の限界と今後の研究について論じる。
論文 参考訳(メタデータ) (2024-04-17T17:49:38Z) - A Hypothesis on Good Practices for AI-based Systems for Financial Time
Series Forecasting: Towards Domain-Driven XAI Methods [0.0]
機械学習とディープラーニングは、財務予測や予測タスクでますます普及している。
これらのモデルは透明性と解釈可能性に欠けることが多く、金融のような繊細なドメインでの使用を困難にしている。
本稿では、金融のためのAIベースのシステムに説明可能性を展開するための優れた実践について考察する。
論文 参考訳(メタデータ) (2023-11-13T17:56:45Z) - Brain-Inspired Computational Intelligence via Predictive Coding [89.6335791546526]
予測符号化(PC)は、マシンインテリジェンスタスクにおいて有望なパフォーマンスを示している。
PCは様々な脳領域で情報処理をモデル化することができ、認知制御やロボティクスで使用することができる。
論文 参考訳(メタデータ) (2023-08-15T16:37:16Z) - When not to use machine learning: a perspective on potential and
limitations [0.0]
データ駆動モデリングの指針原則と、これらの原則が、ほぼ魔法のような予測力を持つモデルをどのように組み合わせているかを強調します。
フォローすべき議論は、研究者にそのテクニックが適切かどうかをよりよく理解してもらうことを願っている。
論文 参考訳(メタデータ) (2022-10-06T04:00:00Z) - Principled Knowledge Extrapolation with GANs [92.62635018136476]
我々は,知識外挿の新たな視点から,対実合成を研究する。
本稿では, 知識外挿問題に対処するために, クローズド形式判別器を用いた対角ゲームが利用可能であることを示す。
提案手法は,多くのシナリオにおいて,エレガントな理論的保証と優れた性能の両方を享受する。
論文 参考訳(メタデータ) (2022-05-21T08:39:42Z) - INTERN: A New Learning Paradigm Towards General Vision [117.3343347061931]
我々はInterNという新しい学習パラダイムを開発した。
複数の段階の複数のソースからの監視信号を用いて学習することにより、トレーニング対象のモデルは強力な一般化性を生み出す。
ほとんどの場合、ターゲットドメインのトレーニングデータの10%しか適応していないモデルが、完全なデータセットでトレーニングされたトレーニングデータよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T18:42:50Z) - Edge-Cloud Polarization and Collaboration: A Comprehensive Survey [61.05059817550049]
クラウドとエッジ両方のAIの体系的なレビューを行います。
私たちはクラウドとエッジモデリングの協調学習メカニズムを最初にセットアップしました。
我々は現在進行中の最先端AIトピックの可能性と実践経験について議論する。
論文 参考訳(メタデータ) (2021-11-11T05:58:23Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Model-Based Deep Learning [155.063817656602]
信号処理、通信、制御は伝統的に古典的な統計モデリング技術に依存している。
ディープニューラルネットワーク(DNN)は、データから操作を学ぶ汎用アーキテクチャを使用し、優れたパフォーマンスを示す。
私たちは、原理数学モデルとデータ駆動システムを組み合わせて両方のアプローチの利点を享受するハイブリッド技術に興味があります。
論文 参考訳(メタデータ) (2020-12-15T16:29:49Z) - Opportunities and Challenges in Explainable Artificial Intelligence
(XAI): A Survey [2.7086321720578623]
深層ニューラルネットワークのブラックボックスの性質は、ミッションクリティカルなアプリケーションでの利用に挑戦する。
XAIは、AI決定に関する高品質な解釈可能、直感的、人間に理解可能な説明を生成するためのツール、テクニック、アルゴリズムのセットを推進している。
論文 参考訳(メタデータ) (2020-06-16T02:58:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。