論文の概要: Causality-Based Feature Importance Quantifying Methods: PN-FI, PS-FI and
PNS-FI
- arxiv url: http://arxiv.org/abs/2308.14474v2
- Date: Mon, 18 Sep 2023 06:28:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 22:26:17.688887
- Title: Causality-Based Feature Importance Quantifying Methods: PN-FI, PS-FI and
PNS-FI
- Title(参考訳): 因果性に基づく特徴重要度定量法:PN-FI、PS-FI、PNS-FI
- Authors: Shuxian Du, Yaxiu Sun and Changyi Du
- Abstract要約: 本稿では, 因果関係のPN, PN, PN, PNSの計算を定量的に導入し, 特徴量の定量化を図る。
本論文の本体は,PS-FI, PN-FI, PNS-FIの3つの特徴, 犬の鼻, 犬の目, 犬の口の計算方法を示す3つのRCTである。
- 参考スコア(独自算出の注目度): 0.36832029288386137
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the current ML field models are getting larger and more complex, and data
used for model training are also getting larger in quantity and higher in
dimensions. Therefore, in order to train better models, and save training time
and computational resources, a good Feature Selection (FS) method in the
preprocessing stage is necessary. Feature importance (FI) is of great
importance since it is the basis of feature selection. Therefore, this paper
creatively introduces the calculation of PN (the probability of Necessity), PN
(the probability of Sufficiency), and PNS (the probability of Necessity and
Sufficiency) of Causality into quantifying feature importance and creates 3 new
FI measuring methods, PN-FI, which means how much importance a feature has in
image recognition tasks, PS-FI that means how much importance a feature has in
image generating tasks, and PNS-FI which measures both. The main body of this
paper is three RCTs, with whose results we show how PS-FI, PN-FI, and PNS-FI of
3 features, dog nose, dog eyes, and dog mouth are calculated. The experiments
show that firstly, FI values are intervals with tight upper and lower bounds.
Secondly, the feature dog eyes has the most importance while the other two have
almost the same. Thirdly, the bounds of PNS and PN are tighter than the bounds
of PS.
- Abstract(参考訳): 現在のMLフィールドモデルでは、より大きく複雑になり、モデルトレーニングに使用されるデータも量的に大きくなり、次元的にも高くなる。
したがって、より良いモデルを訓練し、トレーニング時間と計算資源を節約するためには、前処理段階における優れた特徴選択(FS)法が必要である。
特徴選択の基礎であるため、特徴重要度(FI)が非常に重要である。
そこで本稿では,機能の重要性を定量化するために,pn(必要可能性),pn(充足可能性),pns(必要可能性と充足可能性)の計算を創造的に導入し,画像認識タスクにおける特徴の重要性を示すpn-fi,画像生成タスクにおける特徴の重要度を示すps-fi,その両方を測定するpns-fiの3つの新しいfi計測手法を提案する。
本論文の本体は,PS-FI, PN-FI, PNS-FIの3つの特徴, 犬の鼻, 犬の目, 犬の口の計算方法を示す3つのRCTである。
実験の結果, FI値は上下境界が狭い間隔であることがわかった。
第二に、特徴犬の目が一番重要で、他の2つはほぼ同じです。
第3に、PNS と PN の境界は PS の境界よりも厳密である。
関連論文リスト
- Seeking the Sufficiency and Necessity Causal Features in Multimodal Representation Learning [21.309673318309294]
PNS(Necessary and Sufficient Causes)の確率が高い学習表現は、深層学習モデルの能力を高めることが示されている。
本稿では,モダリティ不変成分とモダリティ固有成分からなるマルチモーダル表現の概念化を提案する。
次に,各コンポーネントのPSS識別性を解析し,非自明なPSS推定を確実にする。
論文 参考訳(メタデータ) (2024-08-29T14:43:42Z) - On the Connection between Pre-training Data Diversity and Fine-tuning
Robustness [66.30369048726145]
下流の有効ロバスト性に影響を与える主な要因はデータ量である。
各種自然および合成データソースから抽出した事前学習分布について,本研究の成果を示す。
論文 参考訳(メタデータ) (2023-07-24T05:36:19Z) - Tuning Pre-trained Model via Moment Probing [62.445281364055795]
本稿では,LP の可能性を探るため,新しい Moment Probing (MP) 法を提案する。
MPは、最終特徴の平均に基づいて線形分類ヘッドを実行する。
当社のMPはLPを著しく上回り、トレーニングコストの低い相手と競争しています。
論文 参考訳(メタデータ) (2023-07-21T04:15:02Z) - Autoencoding Conditional Neural Processes for Representation Learning [31.63717849083666]
条件付きニューラルプロセス(CNP)は、データから学習するフレキシブルで効率的なモデルのファミリーである。
PPS-VAE(Partial Pixel Space Variational Autoencoder)は、CNPコンテキストをCNPと同時に学習する潜時変数としてキャストするアモータイズされた変分フレームワークである。
論文 参考訳(メタデータ) (2023-05-29T12:10:18Z) - Versatile Neural Processes for Learning Implicit Neural Representations [57.090658265140384]
本稿では,近似関数の能力を大幅に向上させるVersatile Neural Processs (VNP)を提案する。
具体的には、より少ない情報的コンテキストトークンを生成するボトルネックエンコーダを導入し、高い計算コストを軽減した。
提案したVNPが1D, 2D, 3D信号を含む様々なタスクに対して有効であることを示す。
論文 参考訳(メタデータ) (2023-01-21T04:08:46Z) - KTN: Knowledge Transfer Network for Learning Multi-person 2D-3D
Correspondences [77.56222946832237]
画像中の複数の人物の密着度を検出するための新しい枠組みを提案する。
提案手法は知識伝達ネットワーク(KTN)の2つの問題に対処する。
特徴解像度を同時に維持し、背景画素を抑圧し、この戦略は精度を大幅に向上させる。
論文 参考訳(メタデータ) (2022-06-21T03:11:37Z) - Transformers Can Do Bayesian Inference [56.99390658880008]
我々はPFN(Presideed Data Fitted Networks)を提案する。
PFNは、大規模機械学習技術におけるインコンテキスト学習を活用して、大規模な後部集合を近似する。
我々は、PFNがガウス過程をほぼ完璧に模倣し、難解問題に対する効率的なベイズ推定を可能にすることを示した。
論文 参考訳(メタデータ) (2021-12-20T13:07:39Z) - MHFC: Multi-Head Feature Collaboration for Few-Shot Learning [17.699793591135904]
少ないショットラーニングは、データスカース問題に対処することを目的としている。
本稿では,マルチヘッド特徴を統一空間に投影しようとするマルチヘッド特徴協調(MHFC)アルゴリズムを提案する。
提案手法を5つのベンチマークデータセットで評価し,最新技術と比較して2.1%-7.8%の大幅な改善を実現した。
論文 参考訳(メタデータ) (2021-09-16T08:09:35Z) - Feature Analysis for ML-based IIoT Intrusion Detection [0.0]
ネットワーク侵入検知システム(NIDS)の実装に強力な機械学習モデルが採用されている。
検出精度と計算効率を最大化するデータ特徴の適切なセットを選択することが重要である。
本稿では,ネットワーク攻撃の重要性と予測力の観点から,最適な特徴セットを広範囲に分析する。
論文 参考訳(メタデータ) (2021-08-29T02:19:37Z) - Probabilistic Graph Attention Network with Conditional Kernels for
Pixel-Wise Prediction [158.88345945211185]
本稿では,画素レベルの予測を基本的側面,すなわち,技術の現状を推し進める新たなアプローチを提案する。
構造化されたマルチスケール機能学習と融合。
本論文では,マルチスケール表現を原理的に学習・融合するための新しいアテンテンションゲート条件ランダムフィールド(AG-CRFs)モデルに基づく確率的グラフアテンションネットワーク構造を提案する。
論文 参考訳(メタデータ) (2021-01-08T04:14:29Z) - Bayesian Importance of Features (BIF) [11.312036995195594]
ディリクレ分布を用いて入力特徴の重要性を定義し、近似ベイズ推論により学習する。
学習された重要性は確率論的解釈を持ち、モデルの出力に対する各入力特徴の相対的な重要性を提供する。
本手法は, 各種合成および実データに対する有効性を示す。
論文 参考訳(メタデータ) (2020-10-26T19:55:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。