論文の概要: Metric Tools for Sensitivity Analysis with Applications to Neural
Networks
- arxiv url: http://arxiv.org/abs/2305.02368v1
- Date: Wed, 3 May 2023 18:10:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-05 18:14:35.158489
- Title: Metric Tools for Sensitivity Analysis with Applications to Neural
Networks
- Title(参考訳): ニューラルネットワークを用いた感度解析のためのメトリクスツール
- Authors: Jaime Pizarroso and David Alfaya and Jos\'e Portela and Antonio
Mu\~noz
- Abstract要約: 説明可能な人工知能(XAI)は、機械学習モデルによる予測の解釈を提供することを目的としている。
本稿では,計量手法を用いてMLモデルの感性を研究するための理論的枠組みを提案する。
$alpha$-curvesと呼ばれる新しいメトリクスの完全なファミリーが抽出される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As Machine Learning models are considered for autonomous decisions with
significant social impact, the need for understanding how these models work
rises rapidly. Explainable Artificial Intelligence (XAI) aims to provide
interpretations for predictions made by Machine Learning models, in order to
make the model trustworthy and more transparent for the user. For example,
selecting relevant input variables for the problem directly impacts the model's
ability to learn and make accurate predictions, so obtaining information about
input importance play a crucial role when training the model. One of the main
XAI techniques to obtain input variable importance is the sensitivity analysis
based on partial derivatives. However, existing literature of this method
provide no justification of the aggregation metrics used to retrieved
information from the partial derivatives.
In this paper, a theoretical framework is proposed to study sensitivities of
ML models using metric techniques. From this metric interpretation, a complete
family of new quantitative metrics called $\alpha$-curves is extracted. These
$\alpha$-curves provide information with greater depth on the importance of the
input variables for a machine learning model than existing XAI methods in the
literature. We demonstrate the effectiveness of the $\alpha$-curves using
synthetic and real datasets, comparing the results against other XAI methods
for variable importance and validating the analysis results with the ground
truth or literature information.
- Abstract(参考訳): 重要な社会的影響を持つ自律的意思決定のために機械学習モデルが検討されるにつれて、これらのモデルがどのように機能するかを理解する必要性が急速に高まる。
説明可能な人工知能(XAI)は、マシンラーニングモデルによる予測の解釈を提供することを目標とし、モデルがユーザにとって信頼性が高く、より透過的なものになる。
例えば、問題に対する関連する入力変数の選択は、モデルが学習し正確な予測を行う能力に直接影響するため、モデルのトレーニングにおいて、入力の重要性に関する情報を得ることが重要な役割を果たす。
入力変数の重要度を求める主要なXAI手法の1つは、偏微分に基づく感度解析である。
しかし、本手法の既存の文献は、部分微分から情報を取得するために用いられる集計指標を正当化するものではない。
本稿では,計量手法を用いてMLモデルの感性を研究するための理論的枠組みを提案する。
この計量解釈から、$\alpha$-curvesと呼ばれる新しい計量の完全な族が抽出される。
これらの$\alpha$-curvesは、文献における既存のXAIメソッドよりも、機械学習モデルにおける入力変数の重要性の詳細な情報を提供する。
本研究では,合成データと実データを用いた$\alpha$-curvesの有効性を実証し,他のxai法と比較し,基礎的真理や文献情報を用いて分析結果を検証する。
関連論文リスト
- Causal Inference Tools for a Better Evaluation of Machine Learning [0.0]
本稿では、通常最小方形回帰(OLS)、可変解析(ANOVA)、ロジスティック回帰(ロジスティック回帰)などの重要な統計手法を紹介する。
この文書は研究者や実践者のガイドとして機能し、これらのテクニックがモデル行動、パフォーマンス、公平性に対する深い洞察を提供する方法について詳述している。
論文 参考訳(メタデータ) (2024-10-02T10:03:29Z) - Explainability of Machine Learning Models under Missing Data [2.880748930766428]
データ不足は、モデルの性能と解釈可能性を著しく損なうおそれのある問題である。
本稿では, 欠落データ分野の展開を要約し, 種々の計算法がシェープリー値の計算に与える影響について考察する。
論文 参考訳(メタデータ) (2024-06-29T11:31:09Z) - Unified Explanations in Machine Learning Models: A Perturbation Approach [0.0]
XAIとモデリング技術の不整合は、これらの説明可能性アプローチの有効性に疑念を投げかけるという望ましくない効果をもたらす可能性がある。
我々はXAI, SHapley Additive exPlanations (Shap) において, 一般的なモデルに依存しない手法に対する系統的摂動解析を提案する。
我々は、一般的な機械学習とディープラーニングの手法のスイートと、静的ケースホールドで生成された説明の正確さを定量化するためのメトリクスの中で、動的推論の設定において、相対的な特徴重要度を生成するアルゴリズムを考案した。
論文 参考訳(メタデータ) (2024-05-30T16:04:35Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - Seeking Neural Nuggets: Knowledge Transfer in Large Language Models from a Parametric Perspective [106.92016199403042]
パラメトリック・パースペクティブを用いて,大規模モデルから小規模モデルへの知識伝達を実証的に検討する。
感性に基づく手法を用いて、異なる大言語モデル間で知識固有のパラメータを抽出・調整する。
本研究は,パラメトリックな知識伝達の過程に寄与する重要な要因を明らかにする。
論文 参考訳(メタデータ) (2023-10-17T17:58:34Z) - Characterizing the contribution of dependent features in XAI methods [6.990173577370281]
本稿では,XAI特徴量ランキング法の結果を,予測者間の依存性を考慮に入れたプロキシを提案する。
提案手法はモデルに依存しないという利点があり、コリニアリティが存在する場合のモデルにおける各予測器の影響を計算するのが簡単である。
論文 参考訳(メタデータ) (2023-04-04T11:25:57Z) - Evaluating Explainability in Machine Learning Predictions through Explainer-Agnostic Metrics [0.0]
我々は,モデル予測が説明できる範囲を定量化するために,6つの異なるモデルに依存しないメトリクスを開発した。
これらのメトリクスは、局所的な重要性、グローバルな重要性、代理予測など、モデル説明可能性のさまざまな側面を測定する。
分類と回帰タスクにおけるこれらのメトリクスの実用性を実証し、これらのメトリクスを公開のために既存のPythonパッケージに統合する。
論文 参考訳(メタデータ) (2023-02-23T15:28:36Z) - Hessian-based toolbox for reliable and interpretable machine learning in
physics [58.720142291102135]
本稿では,モデルアーキテクチャの解釈可能性と信頼性,外挿を行うためのツールボックスを提案する。
与えられたテストポイントでの予測に対する入力データの影響、モデル予測の不確実性の推定、およびモデル予測の不可知スコアを提供する。
我々の研究は、物理学やより一般的には科学に適用されたMLにおける解釈可能性と信頼性の方法の体系的利用への道を開く。
論文 参考訳(メタデータ) (2021-08-04T16:32:59Z) - ALT-MAS: A Data-Efficient Framework for Active Testing of Machine
Learning Algorithms [58.684954492439424]
少量のラベル付きテストデータのみを用いて機械学習モデルを効率的にテストする新しいフレームワークを提案する。
ベイズニューラルネットワーク(bnn)を用いたモデルアンダーテストの関心指標の推定が目的である。
論文 参考訳(メタデータ) (2021-04-11T12:14:04Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Interpretable Multi-dataset Evaluation for Named Entity Recognition [110.64368106131062]
本稿では,名前付きエンティティ認識(NER)タスクに対する一般的な評価手法を提案する。
提案手法は,モデルとデータセットの違いと,それらの間の相互作用を解釈することを可能にする。
分析ツールを利用可能にすることで、将来の研究者が同様の分析を実行し、この分野の進歩を促進することができる。
論文 参考訳(メタデータ) (2020-11-13T10:53:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。