論文の概要: Balancing Explainability-Accuracy of Complex Models
- arxiv url: http://arxiv.org/abs/2305.14098v1
- Date: Tue, 23 May 2023 14:20:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 15:42:05.912375
- Title: Balancing Explainability-Accuracy of Complex Models
- Title(参考訳): 説明可能性のバランスをとる-複雑モデルの精度
- Authors: Poushali Sengupta, Yan Zhang, Sabita Maharjan, Frank Eliassen
- Abstract要約: 我々は,コリレーションの影響に基づき,複雑なモデルに対する新しいアプローチを提案する。
独立機能と依存機能の両方のシナリオに対するアプローチを提案する。
従属特徴に対する提案手法の複雑さの上限を提供する。
- 参考スコア(独自算出の注目度): 8.402048778245165
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainability of AI models is an important topic that can have a significant
impact in all domains and applications from autonomous driving to healthcare.
The existing approaches to explainable AI (XAI) are mainly limited to simple
machine learning algorithms, and the research regarding the
explainability-accuracy tradeoff is still in its infancy especially when we are
concerned about complex machine learning techniques like neural networks and
deep learning (DL). In this work, we introduce a new approach for complex
models based on the co-relation impact which enhances the explainability
considerably while also ensuring the accuracy at a high level. We propose
approaches for both scenarios of independent features and dependent features.
In addition, we study the uncertainty associated with features and output.
Furthermore, we provide an upper bound of the computation complexity of our
proposed approach for the dependent features. The complexity bound depends on
the order of logarithmic of the number of observations which provides a
reliable result considering the higher dimension of dependent feature space
with a smaller number of observations.
- Abstract(参考訳): AIモデルの説明可能性は、自律運転からヘルスケアまで、すべてのドメインやアプリケーションに大きな影響を与える重要なトピックである。
説明可能なAI(XAI)のアプローチは主に単純な機械学習アルゴリズムに限られており、ニューラルネットワークやディープラーニング(DL)といった複雑な機械学習技術に関心がある場合、説明可能性と精度のトレードオフに関する研究はまだ初期段階にある。
本研究では,コリレーション効果に基づく複雑なモデルに対する新しいアプローチを導入し,高いレベルでの精度を確保しつつ,説明可能性を大幅に向上させる。
独立機能と依存機能の両方のシナリオに対するアプローチを提案する。
また,特徴や出力に関する不確実性についても検討した。
さらに,提案手法の計算複雑性の上限を,従属的な特徴に対して与える。
複雑性境界は観測数の対数順に依存するため、より少ない観測数で従属的特徴空間の高次元を考慮した信頼性の高い結果が得られる。
関連論文リスト
- Identifiable Causal Representation Learning: Unsupervised, Multi-View, and Multi-Environment [10.814585613336778]
因果表現学習は、機械学習のコアとなる強みと因果性を組み合わせることを目的としている。
この論文は、CRLが直接の監督なしに何が可能であるかを調査し、理論的基礎に寄与する。
論文 参考訳(メタデータ) (2024-06-19T09:14:40Z) - Unified Explanations in Machine Learning Models: A Perturbation Approach [0.0]
XAIとモデリング技術の不整合は、これらの説明可能性アプローチの有効性に疑念を投げかけるという望ましくない効果をもたらす可能性がある。
我々はXAI, SHapley Additive exPlanations (Shap) において, 一般的なモデルに依存しない手法に対する系統的摂動解析を提案する。
我々は、一般的な機械学習とディープラーニングの手法のスイートと、静的ケースホールドで生成された説明の正確さを定量化するためのメトリクスの中で、動的推論の設定において、相対的な特徴重要度を生成するアルゴリズムを考案した。
論文 参考訳(メタデータ) (2024-05-30T16:04:35Z) - On the Benefits of Leveraging Structural Information in Planning Over
the Learned Model [3.3512508970931236]
本稿では, サンプルの複雑さを低減させる手法として, システム構造情報を活用する利点について検討する。
分析の結果,モデルの構造的情報を活用することで,サンプルの複雑さを大幅に削減できることが示唆された。
論文 参考訳(メタデータ) (2023-03-15T18:18:01Z) - On Robust Numerical Solver for ODE via Self-Attention Mechanism [82.95493796476767]
我々は,内在性雑音障害を緩和し,AIによって強化された数値解法を,データサイズを小さくする訓練について検討する。
まず,教師付き学習における雑音を制御するための自己認識機構の能力を解析し,さらに微分方程式の数値解に付加的な自己認識機構を導入し,簡便かつ有効な数値解法であるAttrを提案する。
論文 参考訳(メタデータ) (2023-02-05T01:39:21Z) - Interpretability with full complexity by constraining feature
information [1.52292571922932]
解釈可能性(Interpretability)は、機械学習の課題だ。
我々は、新しい角度から解釈可能性にアプローチする:モデルの複雑さを制限することなく、特徴に関する情報を制約する。
近似モデルのスペクトルから洞察を抽出する枠組みを開発する。
論文 参考訳(メタデータ) (2022-11-30T18:59:01Z) - Sample-Efficient Reinforcement Learning in the Presence of Exogenous
Information [77.19830787312743]
実世界の強化学習アプリケーションでは、学習者の観察空間は、その課題に関する関連情報と無関係情報の両方でユビキタスに高次元である。
本稿では,強化学習のための新しい問題設定法であるExogenous Decision Process (ExoMDP)を導入する。
内因性成分の大きさのサンプル複雑度で準最適ポリシーを学習するアルゴリズムであるExoRLを提案する。
論文 参考訳(メタデータ) (2022-06-09T05:19:32Z) - Stabilizing Q-learning with Linear Architectures for Provably Efficient
Learning [53.17258888552998]
本研究では,線形関数近似を用いた基本的な$Q$-learningプロトコルの探索変種を提案する。
このアルゴリズムの性能は,新しい近似誤差というより寛容な概念の下で,非常に優雅に低下することを示す。
論文 参考訳(メタデータ) (2022-06-01T23:26:51Z) - Amortized Inference for Causal Structure Learning [72.84105256353801]
因果構造を学習することは、通常、スコアまたは独立テストを使用して構造を評価することを伴う探索問題を引き起こす。
本研究では,観測・干渉データから因果構造を予測するため,変分推論モデルを訓練する。
我々のモデルは、実質的な分布シフトの下で頑健な一般化能力を示す。
論文 参考訳(メタデータ) (2022-05-25T17:37:08Z) - Generalization of Neural Combinatorial Solvers Through the Lens of
Adversarial Robustness [68.97830259849086]
ほとんどのデータセットは単純なサブプロブレムのみをキャプチャし、おそらくは突発的な特徴に悩まされる。
本研究では, 局所的な一般化特性である対向ロバスト性について検討し, 厳密でモデル固有な例と突発的な特徴を明らかにする。
他のアプリケーションとは異なり、摂動モデルは知覚できないという主観的な概念に基づいて設計されているため、摂動モデルは効率的かつ健全である。
驚くべきことに、そのような摂動によって、十分に表現力のあるニューラルソルバは、教師あり学習で共通する正確さと悪質さのトレードオフの限界に悩まされない。
論文 参考訳(メタデータ) (2021-10-21T07:28:11Z) - Relational Neural Markov Random Fields [29.43155380361715]
複雑なハイブリッドドメインの処理が可能な Markov Random Fields (RN-MRFs) を導入する。
本稿では,潜在的なパラメータを学習する上で重要となる擬似的推定に基づく学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-10-18T22:52:54Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。