論文の概要: Few-shot Learning for Unsupervised Feature Selection
- arxiv url: http://arxiv.org/abs/2107.00816v1
- Date: Fri, 2 Jul 2021 03:52:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-05 13:01:16.271880
- Title: Few-shot Learning for Unsupervised Feature Selection
- Title(参考訳): 教師なし特徴選択のための少数ショット学習
- Authors: Atsutoshi Kumagai and Tomoharu Iwata and Yasuhiro Fujiwara
- Abstract要約: 教師なし特徴選択のための数ショット学習法を提案する。
提案手法では,未ラベルのターゲットインスタンスがいくつかある場合,対象タスクで関連する特徴のサブセットを選択することができる。
提案手法が既存の特徴選択法より優れていることを示す。
- 参考スコア(独自算出の注目度): 59.75321498170363
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a few-shot learning method for unsupervised feature selection,
which is a task to select a subset of relevant features in unlabeled data.
Existing methods usually require many instances for feature selection. However,
sufficient instances are often unavailable in practice. The proposed method can
select a subset of relevant features in a target task given a few unlabeled
target instances by training with unlabeled instances in multiple source tasks.
Our model consists of a feature selector and decoder. The feature selector
outputs a subset of relevant features taking a few unlabeled instances as input
such that the decoder can reconstruct the original features of unseen instances
from the selected ones. The feature selector uses the Concrete random variables
to select features via gradient descent. To encode task-specific properties
from a few unlabeled instances to the model, the Concrete random variables and
decoder are modeled using permutation-invariant neural networks that take a few
unlabeled instances as input. Our model is trained by minimizing the expected
test reconstruction error given a few unlabeled instances that is calculated
with datasets in source tasks. We experimentally demonstrate that the proposed
method outperforms existing feature selection methods.
- Abstract(参考訳): そこで本稿では,ラベル付きデータに含まれる特徴のサブセットを選択するタスクである,教師なし特徴選択のための数ショット学習手法を提案する。
既存のメソッドは通常、機能選択に多くのインスタンスを必要とする。
しかし、実際には十分なインスタンスは利用できないことが多い。
提案手法では,複数のソースタスクでラベルなしインスタンスをトレーニングすることにより,いくつかのラベルなしターゲットインスタンスが与えられた場合,対象タスクの関連機能のサブセットを選択できる。
我々のモデルは特徴セレクタとデコーダで構成される。
特徴セレクタは、いくつかの未ラベルのインスタンスを入力として取り込んだ関連する機能のサブセットを出力し、デコーダは選択したインスタンスから未表示のインスタンスのオリジナル機能を再構築することができる。
特徴セレクタは、具体的ランダム変数を使用して、勾配降下による特徴を選択する。
いくつかのラベルなしインスタンスからモデルにタスク固有の特性をエンコードするために、いくつかのラベルなしインスタンスを入力とする置換不変ニューラルネットワークを用いて具体的確率変数とデコーダをモデル化する。
私たちのモデルは、ソースタスクのデータセットで計算されたいくつかのラベルなしインスタンスに対して、期待されるテスト再構成エラーを最小化することでトレーニングされます。
提案手法が既存の特徴選択法より優れていることを示す。
関連論文リスト
- Multi-Label Adaptive Batch Selection by Highlighting Hard and Imbalanced Samples [9.360376286221943]
本稿では,多ラベル深層学習モデルに適した適応バッチ選択アルゴリズムを提案する。
提案手法は, ランダムなバッチ選択よりも高速に収束し, 性能が向上する。
論文 参考訳(メタデータ) (2024-03-27T02:00:18Z) - A Performance-Driven Benchmark for Feature Selection in Tabular Deep
Learning [131.2910403490434]
データサイエンティストは通常、データセットにできるだけ多くの機能を集め、既存の機能から新しい機能を設計する。
既存のタブ形式の特徴選択のためのベンチマークでは、古典的な下流モデル、おもちゃの合成データセット、あるいは下流のパフォーマンスに基づいて特徴セレクタを評価していない。
変換器を含む下流ニューラルネットワーク上で評価された課題のある特徴選択ベンチマークを構築した。
また,従来の特徴選択法よりも高い性能を有するニューラルネットワークのための,Lassoのインプット・グラディエント・ベース・アナログも提案する。
論文 参考訳(メタデータ) (2023-11-10T05:26:10Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - Learning to Imagine: Diversify Memory for Incremental Learning using
Unlabeled Data [69.30452751012568]
本研究では,多様な特徴を適応的に生成することで,経験を多様化する学習可能な特徴生成装置を開発する。
生成したサンプルを前例とセマンティックに整合させるために,意味的コントラスト学習を導入する。
提案手法は, 余分な推論コストを伴わず, 2つのベンチマークで最先端の手法より優れている。
論文 参考訳(メタデータ) (2022-04-19T15:15:18Z) - Dash: Semi-Supervised Learning with Dynamic Thresholding [72.74339790209531]
我々は、ラベルのない例を使ってモデルをトレーニングする半教師付き学習(SSL)アプローチを提案する。
提案手法であるDashは、ラベルなしデータ選択の観点から適応性を享受する。
論文 参考訳(メタデータ) (2021-09-01T23:52:29Z) - Dynamic Instance-Wise Classification in Correlated Feature Spaces [15.351282873821935]
典型的な機械学習環境では、すべてのテストインスタンスの予測は、モデルトレーニング中に発見された機能の共通サブセットに基づいている。
それぞれのテストインスタンスに対して個別に評価する最適な特徴を順次選択し、分類精度に関して更なる改善が得られないことを判断すると、選択プロセスが終了して予測を行う新しい手法を提案する。
提案手法の有効性, 一般化性, 拡張性について, 多様なアプリケーション領域の様々な実世界のデータセットで説明する。
論文 参考訳(メタデータ) (2021-06-08T20:20:36Z) - Feature Selection Using Reinforcement Learning [0.0]
特定の関心の予測因子を特徴付けるために使用できる変数や特徴の空間は指数関数的に増大し続けている。
モデルのバイアスを損なうことなく分散を最小化する最も特徴的な特徴を特定することは、マシンラーニングモデルのトレーニングを成功させる上で非常に重要です。
論文 参考訳(メタデータ) (2021-01-23T09:24:37Z) - Minimax Active Learning [61.729667575374606]
アクティブラーニングは、人間のアノテーションによってラベル付けされる最も代表的なサンプルをクエリすることによって、ラベル効率の高いアルゴリズムを開発することを目指している。
現在のアクティブラーニング技術は、最も不確実なサンプルを選択するためにモデルの不確実性に頼るか、クラスタリングを使うか、最も多様なラベルのないサンプルを選択するために再構築する。
我々は,不確実性と多様性を両立させる半教師付きミニマックスエントロピーに基づく能動学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-12-18T19:03:40Z) - Feature Selection from High-Dimensional Data with Very Low Sample Size:
A Cautionary Tale [1.491109220586182]
分類問題において、特徴選択の目的は、元の特徴集合の小さな部分集合を特定することである。
本研究は,このような事例における特徴選択がなぜ望ましくない結果をもたらすかを示す,注意深い物語である。
論文 参考訳(メタデータ) (2020-08-27T10:00:58Z) - Probabilistic Value Selection for Space Efficient Model [10.109875612945658]
情報理論の計量に基づく2つの確率的手法が提案されている: PVS と P + VS。
実験結果から,値選択は精度とモデルサイズ削減のバランスがとれることがわかった。
論文 参考訳(メタデータ) (2020-07-09T08:45:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。