論文の概要: Unsupervised Features Ranking via Coalitional Game Theory for
Categorical Data
- arxiv url: http://arxiv.org/abs/2205.09060v1
- Date: Tue, 17 May 2022 14:17:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-19 14:03:41.340013
- Title: Unsupervised Features Ranking via Coalitional Game Theory for
Categorical Data
- Title(参考訳): カテゴリーデータに対する協調ゲーム理論による教師なし特徴ランク付け
- Authors: Chiara Balestra, Florian Huber, Andreas Mayr, Emmanuel M\"uller
- Abstract要約: 教師なしの機能選択は、機能の数を減らすことを目的としている。
導出特徴の選択は、冗長率を下げる競合する手法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 0.28675177318965034
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Not all real-world data are labeled, and when labels are not available, it is
often costly to obtain them. Moreover, as many algorithms suffer from the curse
of dimensionality, reducing the features in the data to a smaller set is often
of great utility. Unsupervised feature selection aims to reduce the number of
features, often using feature importance scores to quantify the relevancy of
single features to the task at hand. These scores can be based only on the
distribution of variables and the quantification of their interactions. The
previous literature, mainly investigating anomaly detection and clusters, fails
to address the redundancy-elimination issue. We propose an evaluation of
correlations among features to compute feature importance scores representing
the contribution of single features in explaining the dataset's structure.
Based on Coalitional Game Theory, our feature importance scores include a
notion of redundancy awareness making them a tool to achieve redundancy-free
feature selection. We show that the deriving features' selection outperforms
competing methods in lowering the redundancy rate while maximizing the
information contained in the data. We also introduce an approximated version of
the algorithm to reduce the complexity of Shapley values' computations.
- Abstract(参考訳): すべての実世界のデータがラベル付けされているわけではなく、ラベルが入手できない場合、その取得にはコストがかかることが多い。
さらに、多くのアルゴリズムが次元の呪いに悩まされているため、データの特徴を小さなセットに減らすことは、しばしば非常に便利である。
教師なしの機能選択は、しばしば特徴の重要度スコアを使用して、タスクに対する単一機能の関連性を定量化することを目的としている。
これらのスコアは変数の分布とそれらの相互作用の定量化のみに基づくことができる。
以前の文献は、主に異常検出とクラスタを調査していたが、冗長性除去の問題に対処できなかった。
本稿では,データセットの構造説明における単一特徴の寄与を表す特徴重要度を計算するために,特徴間の相関性を評価する。
連立ゲーム理論に基づき,冗長性意識の概念を取り入れ,冗長性のない特徴選択を実現するツールとした。
導出特徴の選択は、データに含まれる情報を最大化しながら冗長率を下げる競合手法よりも優れていることを示す。
また,shapley値の計算の複雑さを低減するため,近似バージョンのアルゴリズムを導入する。
関連論文リスト
- Cluster Metric Sensitivity to Irrelevant Features [0.0]
異なる種類の無関係変数が、異なる方法で$k$-meansからクラスタリングの結果にどのように影響するかを示す。
以上の結果から,シルエット係数とデイビー=ボルディンスコアは,無関係な付加機能に対して最も敏感であることが示唆された。
論文 参考訳(メタデータ) (2024-02-19T10:02:00Z) - PointJEM: Self-supervised Point Cloud Understanding for Reducing Feature
Redundancy via Joint Entropy Maximization [10.53900407467811]
本稿では,ポイントクラウド分野に適用した自己教師付き表現学習手法であるPointJEMを提案する。
特徴の余分な情報を減らすために、PointJEMは異なる部分間の関節のエントロピーを最大化する。
PointJEMは、分類やセグメンテーションといった下流タスクにおける競合的なパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-12-06T08:21:42Z) - Causal Feature Selection via Transfer Entropy [59.999594949050596]
因果発見は、観察データによる特徴間の因果関係を特定することを目的としている。
本稿では,前向きと後向きの機能選択に依存する新たな因果的特徴選択手法を提案する。
精度および有限サンプルの場合の回帰誤差と分類誤差について理論的に保証する。
論文 参考訳(メタデータ) (2023-10-17T08:04:45Z) - Learning Feature Matching via Matchable Keypoint-Assisted Graph Neural
Network [52.29330138835208]
画像のペア間の局所的な特徴の正確なマッチングは、コンピュータビジョンの課題である。
従来の研究では、注意に基づくグラフニューラルネットワーク(GNN)と、画像内のキーポイントに完全に接続されたグラフを使用するのが一般的だった。
本稿では,非繰り返しキーポイントをバイパスし,マッチング可能なキーポイントを利用してメッセージパッシングを誘導する,疎注意に基づくGNNアーキテクチャであるMaKeGNNを提案する。
論文 参考訳(メタデータ) (2023-07-04T02:50:44Z) - Nonlinear Feature Aggregation: Two Algorithms driven by Theory [45.3190496371625]
現実世界の機械学習アプリケーションは、膨大な機能によって特徴付けられ、計算やメモリの問題を引き起こす。
一般集約関数を用いて特徴量の非線形変換を集約する次元還元アルゴリズム(NonLinCFA)を提案する。
また、アルゴリズムを合成および実世界のデータセット上でテストし、回帰および分類タスクを実行し、競合性能を示す。
論文 参考訳(メタデータ) (2023-06-19T19:57:33Z) - Learning Debiased and Disentangled Representations for Semantic
Segmentation [52.35766945827972]
セマンティックセグメンテーションのためのモデルに依存しない訓練手法を提案する。
各トレーニングイテレーションで特定のクラス情報をランダムに除去することにより、クラス間の機能依存を効果的に削減する。
提案手法で訓練したモデルは,複数のセマンティックセグメンテーションベンチマークにおいて強い結果を示す。
論文 参考訳(メタデータ) (2021-10-31T16:15:09Z) - Deep Unsupervised Feature Selection by Discarding Nuisance and
Correlated Features [7.288137686773523]
現代のデータセットには、相関した特徴とニュアンスな特徴の大きなサブセットが含まれている。
多数のニュアンス特徴が存在する場合、ラプラシアンは選択された特徴の部分集合上で計算されなければならない。
相関する特徴に対処するためにオートエンコーダアーキテクチャを使用し、選択した特徴のサブセットからデータを再構成するように訓練した。
論文 参考訳(メタデータ) (2021-10-11T14:26:13Z) - Sparse PCA via $l_{2,p}$-Norm Regularization for Unsupervised Feature
Selection [138.97647716793333]
再構成誤差を$l_2,p$ノルム正規化と組み合わせることで,単純かつ効率的な特徴選択手法を提案する。
提案する非教師付きモデルを解くための効率的な最適化アルゴリズムを提案し,アルゴリズムの収束と計算の複雑さを理論的に解析する。
論文 参考訳(メタデータ) (2020-12-29T04:08:38Z) - Adaptive Graph-based Generalized Regression Model for Unsupervised
Feature Selection [11.214334712819396]
非相関的かつ識別的特徴の選択は、教師なしの機能選択の重要な問題である。
非相関制約と $ell_2,1$-norm 正規化によって課される新しい一般化回帰モデルを提案する。
それは同時に同じ近所に属するこれらのデータ ポイントの分散を減らすこと無相関および差別的な特徴を選ぶことができます。
論文 参考訳(メタデータ) (2020-12-27T09:07:26Z) - Self-training Avoids Using Spurious Features Under Domain Shift [54.794607791641745]
教師なし領域適応においては、条件付きエントロピー最小化と擬似ラベル処理は、既存の理論で解析されたものよりもドメインシフトがはるかに大きい場合であっても行われる。
ドメインシフトが大きくなる可能性のある特定の設定を特定・分析するが、特定のスパイラルな特徴はソースドメインのラベルと相関するが、ターゲットの独立なラベルである。
論文 参考訳(メタデータ) (2020-06-17T17:51:42Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。