論文の概要: Explaining Neural Network Predictions for Functional Data Using
Principal Component Analysis and Feature Importance
- arxiv url: http://arxiv.org/abs/2010.12063v1
- Date: Thu, 15 Oct 2020 22:33:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 05:39:40.352481
- Title: Explaining Neural Network Predictions for Functional Data Using
Principal Component Analysis and Feature Importance
- Title(参考訳): 主成分分析と特徴量を用いた関数データのニューラルネットワーク予測
- Authors: Katherine Goode, Daniel Ries, Joshua Zollweg
- Abstract要約: 本稿では,関数型データを用いた機械学習モデルの記述手法を提案する。
我々は、光スペクトル時間シグネチャを爆発させるのに適したニューラルネットワークを説明することによって、この手法を実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Optical spectral-temporal signatures extracted from videos of explosions
provide information for identifying characteristics of the corresponding
explosive devices. Currently, the identification is done using heuristic
algorithms and direct subject matter expert review. An improvement in
predictive performance may be obtained by using machine learning, but this
application lends itself to high consequence national security decisions, so it
is not only important to provide high accuracy but clear explanations for the
predictions to garner confidence in the model. While much work has been done to
develop explainability methods for machine learning models, not much of the
work focuses on situations with input variables of the form of functional data
such optical spectral-temporal signatures. We propose a procedure for
explaining machine learning models fit using functional data that accounts for
the functional nature the data. Our approach makes use of functional principal
component analysis (fPCA) and permutation feature importance (PFI). fPCA is
used to transform the functions to create uncorrelated functional principal
components (fPCs). The model is trained using the fPCs as inputs, and PFI is
applied to identify the fPCs important to the model for prediction.
Visualizations are used to interpret the variability explained by the fPCs that
are found to be important by PFI to determine the aspects of the functions that
are important for prediction. We demonstrate the technique by explaining neural
networks fit to explosion optical spectral-temporal signatures for predicting
characteristics of the explosive devices.
- Abstract(参考訳): 爆発のビデオから抽出された光学スペクトル時間信号は、対応する爆発装置の特性を特定するための情報を提供する。
現在、この同定はヒューリスティックアルゴリズムと直接主語エキスパートレビューを用いて行われている。
機械学習を用いて予測性能を向上させることができるが、このアプリケーションは国家の安全判断を高い結果に導くため、モデルに対する信頼性を高めるために、高い正確さと明確な説明を提供することが重要である。
機械学習モデルの説明可能性法を開発するために多くの研究が行われてきたが、光学スペクトル-時間的シグネチャのような関数型データの入力変数の状況に焦点を当てていない。
本稿では,データの性質を考慮に入れた関数型データを用いた機械学習モデルの説明手法を提案する。
提案手法は機能主成分分析(fPCA)と置換特徴重要度(PFI)を利用する。
fPCAは関数を変換して非相関な機能主成分(fPC)を生成する。
このモデルを入力としてfPCを用いて訓練し、予測のためにモデルにとって重要なfPCを特定するためにPFIを適用した。
可視化は、予測に重要な関数の側面を決定するために、PFIによって重要とされているfPCによって説明される変数を解釈するために用いられる。
本手法は,爆発装置の特性を予測するために,光スペクトル・時空間シグネチャに適合するニューラルネットワークを説明することで実証する。
関連論文リスト
- Localized Gaussians as Self-Attention Weights for Point Clouds Correspondence [92.07601770031236]
本稿では,エンコーダのみのトランスフォーマーアーキテクチャのアテンションヘッドにおける意味的意味パターンについて検討する。
注意重みの修正はトレーニングプロセスの促進だけでなく,最適化の安定性の向上にも寄与する。
論文 参考訳(メタデータ) (2024-09-20T07:41:47Z) - Demystifying Functional Random Forests: Novel Explainability Tools for Model Transparency in High-Dimensional Spaces [0.0]
本稿では,FRF(Functional Random Forests)の内部メカニズムを照らし出すための,新しい説明可能性ツールについて紹介する。
これらのツールは、個々のFPCがモデル予測にどのように貢献するかを詳細に分析することにより、FRFモデルの透明性を総合的に向上する。
論文 参考訳(メタデータ) (2024-08-22T10:52:32Z) - A Mechanistic Interpretation of Arithmetic Reasoning in Language Models
using Causal Mediation Analysis [128.0532113800092]
算数問題に対するトランスフォーマーに基づくLMの機械的解釈を提案する。
これにより、算術に関連する情報がLMによってどのように処理されるかについての洞察が得られる。
論文 参考訳(メタデータ) (2023-05-24T11:43:47Z) - How Spurious Features Are Memorized: Precise Analysis for Random and NTK Features [19.261178173399784]
学習課題とは無関係な突発的な特徴について考察する。
それらがどのように2つの異なる用語で記憶されるのかを正確に評価する。
一般化能力の増大に伴い,突発的特徴の記憶が弱まることを示す。
論文 参考訳(メタデータ) (2023-05-20T05:27:41Z) - A Functional Information Perspective on Model Interpretation [30.101107406343665]
この研究は、モデル解釈可能性の理論的な枠組みを示唆している。
機能的フィッシャー情報によって機能的エントロピーを束縛する対数ソボレフの不等式に依存している。
提案手法は,様々なデータ信号に対する既存の解釈可能性サンプリング手法を超越していることを示す。
論文 参考訳(メタデータ) (2022-06-12T09:24:45Z) - Information-Theoretic Odometry Learning [83.36195426897768]
生体計測推定を目的とした学習動機付け手法のための統合情報理論フレームワークを提案する。
提案フレームワークは情報理論言語の性能評価と理解のためのエレガントなツールを提供する。
論文 参考訳(メタデータ) (2022-03-11T02:37:35Z) - SparseBERT: Rethinking the Importance Analysis in Self-attention [107.68072039537311]
トランスフォーマーベースのモデルは、その強力な能力のために自然言語処理(NLP)タスクに人気がある。
事前学習モデルの注意マップの可視化は,自己着脱機構を理解するための直接的な方法の一つである。
本研究では,sparsebert設計の指導にも適用可能な微分可能アテンションマスク(dam)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-25T14:13:44Z) - Estimating Structural Target Functions using Machine Learning and
Influence Functions [103.47897241856603]
統計モデルから特定可能な関数として生じる対象関数の統計的機械学習のための新しい枠組みを提案する。
このフレームワークは問題とモデルに依存しないものであり、応用統計学における幅広い対象パラメータを推定するのに使用できる。
我々は、部分的に観測されていない情報を持つランダム/二重ロバストな問題において、いわゆる粗大化に特に焦点をあてた。
論文 参考訳(メタデータ) (2020-08-14T16:48:29Z) - Controlling for sparsity in sparse factor analysis models: adaptive
latent feature sharing for piecewise linear dimensionality reduction [2.896192909215469]
本稿では,現在潜伏している特徴分解技術の鍵となる限界に対処できる,シンプルでトラクタブルな特徴割り当てモデルを提案する。
適応型因子分析(aFA)と適応型確率的原理成分分析(aPPCA)を応用し,柔軟な構造発見と次元減少を実現する。
APPCAとaFAは、生のMNISTに適用した場合と、オートエンコーダの特徴を解釈する場合の両方において、高いレベルの特徴を推測できることを示す。
論文 参考訳(メタデータ) (2020-06-22T16:09:11Z) - Explaining Black Box Predictions and Unveiling Data Artifacts through
Influence Functions [55.660255727031725]
影響関数は、影響力のあるトレーニング例を特定することによって、モデルの判断を説明する。
本稿では,代表課題における影響関数と共通単語順応法の比較を行う。
我々は,学習データ中の成果物を明らかにすることができる影響関数に基づく新しい尺度を開発した。
論文 参考訳(メタデータ) (2020-05-14T00:45:23Z) - On the Estimation of Complex Circuits Functional Failure Rate by Machine
Learning Techniques [0.16311150636417257]
デレーティング(De-Rating)あるいは脆弱性要因(Vulnerability Factors)は、今日の機能的安全要件によって管理される障害分析の最大の特徴である。
機械学習を用いて個々のフリップフロップの関数的デレートを推定する新しい手法が提案されている。
論文 参考訳(メタデータ) (2020-02-18T15:18:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。