論文の概要: FIB: A Method for Evaluation of Feature Impact Balance in
Multi-Dimensional Data
- arxiv url: http://arxiv.org/abs/2207.04500v1
- Date: Sun, 10 Jul 2022 16:33:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-13 05:07:03.244347
- Title: FIB: A Method for Evaluation of Feature Impact Balance in
Multi-Dimensional Data
- Title(参考訳): FIB:多次元データにおける特徴衝突バランスの評価方法
- Authors: Xavier F. Cadet, Sara Ahmadi-Abhari, Hamed Haddadi
- Abstract要約: 本稿では,FIB(Feature Impact Balance)スコアを提案する。
2つのベクトル間の相違点に特徴のバランスの取れた影響があるかどうかを測定する。
トレーニング中に機能への影響バランスがどのように変化するかを示し、単一出力タスクとマルチアウトプットタスクのモデル選択をサポートするユーザビリティを示す。
- 参考スコア(独自算出の注目度): 4.490438237409075
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Errors might not have the same consequences depending on the task at hand.
Nevertheless, there is limited research investigating the impact of imbalance
in the contribution of different features in an error vector. Therefore, we
propose the Feature Impact Balance (FIB) score. It measures whether there is a
balanced impact of features in the discrepancies between two vectors. We
designed the FIB score to lie in [0, 1]. Scores close to 0 indicate that a
small number of features contribute to most of the error, and scores close to 1
indicate that most features contribute to the error equally. We experimentally
study the FIB on different datasets, using AutoEncoders and Variational
AutoEncoders. We show how the feature impact balance varies during training and
showcase its usability to support model selection for single output and
multi-output tasks.
- Abstract(参考訳): エラーは、手元にあるタスクによって同じ結果にならないかもしれません。
それにもかかわらず、エラーベクトルにおける異なる特徴の寄与における不均衡の影響についての研究は限られている。
そこで本稿では,FIB(Feature Impact Balance)スコアを提案する。
2つのベクトル間の相違点に特徴のバランスの取れた影響があるかどうかを測定する。
私たちは[0, 1]にあるfibスコアを設計しました。
0に近いスコアは、少数の機能がエラーの大部分に寄与し、1に近いスコアは、ほとんどの機能がエラーに等しく寄与していることを示している。
我々は、AutoEncoders と Variational AutoEncoders を用いて、異なるデータセット上で FIB を実験的に研究した。
トレーニング中に機能への影響バランスがどのように変化するかを示し、単一出力タスクとマルチアウトプットタスクのモデル選択をサポートするユーザビリティを示す。
関連論文リスト
- Disentangling Interactions and Dependencies in Feature Attribution [9.442326245744916]
機械学習において、グローバルな特徴重要度法は、対象変数の予測に個々の特徴がどの程度貢献するかを判断しようとする。
一般的に用いられる特徴重要度スコアでは、これらの協調効果は特徴の個々の貢献と混同される。
DIPは、3つの成分をアンタングルする個々の特徴重要度スコアを数学的に分解する。
論文 参考訳(メタデータ) (2024-10-31T09:41:10Z) - Mind the Graph When Balancing Data for Fairness or Robustness [73.03155969727038]
データバランシングのためのトレーニングディストリビューションの条件を定義し、公正またはロバストなモデルに導く。
その結果、多くの場合、バランスの取れた分布は、望ましくない依存関係を選択的に除去することには対応しないことがわかった。
その結果,データバランシングを行う前に因果グラフを考慮に入れることの重要性を強調した。
論文 参考訳(メタデータ) (2024-06-25T10:16:19Z) - CAFE: Conflict-Aware Feature-wise Explanations [12.428277452418621]
特徴属性法は、個々の入力特徴がモデル出力に与える影響を決定することによって、ニューラルモデルを説明するために広く用いられている。
本稿では,既存手法の3つの制約に対処する新しい特徴属性法であるCAFE(Conflict-Aware Feature-wise Explanations)を提案する。
論文 参考訳(メタデータ) (2023-10-31T11:14:26Z) - Stubborn Lexical Bias in Data and Models [50.79738900885665]
我々は、データに基づいてトレーニングされたモデルに、データのスプリアスパターンが現れるかどうかを調べるために、新しい統計手法を用いる。
トレーニングデータに*reweight*に最適化アプローチを適用し、数千のスプリアス相関を低減します。
驚くべきことに、この方法ではトレーニングデータの語彙バイアスを低減できますが、トレーニングされたモデルで対応するバイアスの強い証拠がまだ見つかっていません。
論文 参考訳(メタデータ) (2023-06-03T20:12:27Z) - On the Efficacy of Generalization Error Prediction Scoring Functions [33.24980750651318]
一般化誤差予測器(GEP)は,サンプルレベルのスコアからデータセットレベルの誤差推定を導出することにより,未知分布のモデル性能を予測することを目的としている。
機構選択に依存しない一般的なスコアリング関数(自信,局所多様体の滑らかさ,モデル適合性)の有効性を厳密に研究する。
論文 参考訳(メタデータ) (2023-03-23T18:08:44Z) - If Influence Functions are the Answer, Then What is the Question? [7.873458431535409]
影響関数は、モデルの学習パラメータに対する1つのトレーニングデータポイントの除去の効果を効率的に推定する。
影響推定は線形モデルの残余再トレーニングとよく一致しているが、最近の研究では、ニューラルネットワークではこのアライメントが不十分であることが示されている。
論文 参考訳(メタデータ) (2022-09-12T16:17:43Z) - Multi-Source Causal Inference Using Control Variates [81.57072928775509]
本稿では,複数のデータソースから因果効果を推定するアルゴリズムを提案する。
理論的には、これはATE推定値の分散を減少させる。
このフレームワークを結果選択バイアスの下で観測データからの推論に適用する。
論文 参考訳(メタデータ) (2021-03-30T21:20:51Z) - Enhanced Principal Component Analysis under A Collaborative-Robust
Framework [89.28334359066258]
重み学習とロバストな損失を非自明な方法で組み合わせる,一般的な協調ロバスト重み学習フレームワークを提案する。
提案されたフレームワークでは、トレーニング中の重要度を示す適切なサンプルの一部のみがアクティブになり、エラーが大きい他のサンプルは無視されません。
特に、不活性化試料の負の効果はロバスト損失関数によって軽減される。
論文 参考訳(メタデータ) (2021-03-22T15:17:37Z) - FastIF: Scalable Influence Functions for Efficient Model Interpretation
and Debugging [112.19994766375231]
影響関数は、テスト予測のためのトレーニングデータポイントの「影響」を近似する。
fastifは、実行時間を大幅に改善する関数に影響を与えるための、単純な修正セットです。
本実験はモデル解釈とモデル誤差の修正における影響関数の可能性を示す。
論文 参考訳(メタデータ) (2020-12-31T18:02:34Z) - Active Class Incremental Learning for Imbalanced Datasets [10.680349952226935]
インクリメンタルラーニング(IL)は、AIシステムがストリームデータに適応できるようにする。
既存のアルゴリズムの多くは、2つの強い仮説を立て、漸進的なシナリオの現実性を減らす。
不均衡に対処し、IL制約に適合するサンプル取得関数を導入する。
論文 参考訳(メタデータ) (2020-08-25T12:47:09Z) - A Critical View of the Structural Causal Model [89.43277111586258]
相互作用を全く考慮せずに原因と効果を識別できることが示される。
本稿では,因果モデルの絡み合った構造を模倣する新たな逆行訓練法を提案する。
我々の多次元手法は, 合成および実世界の両方のデータセットにおいて, 文献的手法よりも優れている。
論文 参考訳(メタデータ) (2020-02-23T22:52:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。