論文の概要: Indirectly Parameterized Concrete Autoencoders
- arxiv url: http://arxiv.org/abs/2403.00563v1
- Date: Fri, 1 Mar 2024 14:41:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-05 17:04:23.212695
- Title: Indirectly Parameterized Concrete Autoencoders
- Title(参考訳): 間接パラメータ化コンクリートオートエンコーダ
- Authors: Alfred Nilsson, Klas Wijk, Sai bharath chandra Gutha, Erik Englesson,
Alexandra Hotti, Carlo Saccardi, Oskar Kviman, Jens Lagergren, Ricardo
Vinuesa, Hossein Azizpour
- Abstract要約: ニューラルネットワークベースの組み込み機能選択の最近の進歩は、幅広いアプリケーションで有望な結果を示している。
ニューラルネットワークベースの組み込み機能選択の最近の進歩は、幅広いアプリケーションで有望な結果を示している。
- 参考スコア(独自算出の注目度): 41.43525904474878
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Feature selection is a crucial task in settings where data is
high-dimensional or acquiring the full set of features is costly. Recent
developments in neural network-based embedded feature selection show promising
results across a wide range of applications. Concrete Autoencoders (CAEs),
considered state-of-the-art in embedded feature selection, may struggle to
achieve stable joint optimization, hurting their training time and
generalization. In this work, we identify that this instability is correlated
with the CAE learning duplicate selections. To remedy this, we propose a simple
and effective improvement: Indirectly Parameterized CAEs (IP-CAEs). IP-CAEs
learn an embedding and a mapping from it to the Gumbel-Softmax distributions'
parameters. Despite being simple to implement, IP-CAE exhibits significant and
consistent improvements over CAE in both generalization and training time
across several datasets for reconstruction and classification. Unlike CAE,
IP-CAE effectively leverages non-linear relationships and does not require
retraining the jointly optimized decoder. Furthermore, our approach is, in
principle, generalizable to Gumbel-Softmax distributions beyond feature
selection.
- Abstract(参考訳): データの高次元化や機能の完全な取得にコストがかかる設定において、機能選択は重要なタスクである。
ニューラルネットワークに基づく組み込み機能選択の最近の進歩は、幅広いアプリケーションで有望な結果を示している。
コンクリートオートエンコーダ(CAE)は組込み機能選択の最先端と見なされ、安定した関節最適化を達成するのに苦労し、訓練時間と一般化を損なう可能性がある。
本研究では,この不安定性がCAE学習重複選択と相関していることを明らかにする。
そこで我々は, 間接パラメータ化CAE (IP-CAEs) という, 単純かつ効果的な改良を提案する。
IP-CAEは埋め込みとそこからGumbel-Softmax分布のパラメータへのマッピングを学ぶ。
実装は簡単だが、IP-CAEは、再構築と分類のためのいくつかのデータセットにわたる一般化とトレーニング時間の両方において、CAEよりも大幅に、一貫した改善を示している。
CAEとは異なり、IP-CAEは非線形関係を効果的に利用し、共同最適化されたデコーダの再訓練を必要としない。
さらに,本手法は原則として,機能選択を超えたgumbel-softmax分布に一般化できる。
関連論文リスト
- Sparser is Faster and Less is More: Efficient Sparse Attention for Long-Range Transformers [58.5711048151424]
SPARSEK Attention(SPARSEK Attention)は、計算およびメモリ障害を克服するために設計された、新しいスパースアテンション機構である。
提案手法では,各クエリに対して一定数のKVペアを選択するために,スコアリングネットワークと差別化可能なトップkマスク演算子であるSPARSEKを統合する。
実験結果から,SPARSEK注意は従来のスパースアテンション法よりも優れていた。
論文 参考訳(メタデータ) (2024-06-24T15:55:59Z) - Adaptive Preference Scaling for Reinforcement Learning with Human Feedback [103.36048042664768]
人間からのフィードバックからの強化学習(RLHF)は、AIシステムと人間の価値を合わせるための一般的なアプローチである。
本稿では,分散ロバスト最適化(DRO)に基づく適応的優先損失を提案する。
提案手法は多用途であり,様々な選好最適化フレームワークに容易に適用可能である。
論文 参考訳(メタデータ) (2024-06-04T20:33:22Z) - Federated Learning for Sparse Principal Component Analysis [0.0]
フェデレートラーニング(Federated Learning)は、クライアント側でモデルトレーニングが行われ、データをローカライズしてプライバシを保存する、分散化されたアプローチである。
本稿では,このフレームワークをSPCA(Sparse principal Component Analysis)に適用する。
SPCAは、解釈可能性を改善するためにデータの分散を最大化しながら、スパースコンポーネントのロードを達成することを目的としている。
論文 参考訳(メタデータ) (2023-11-15T03:55:28Z) - Align With Purpose: Optimize Desired Properties in CTC Models with a
General Plug-and-Play Framework [8.228892600588765]
Connectionist Temporal Classification (CTC) はシークエンス・ツー・シークエンス(seq2seq)モデルをトレーニングするために広く使われている基準である。
CTC基準でトレーニングされたモデルにおいて、所望のプロパティを強化するために、$textbf General Plug-and-Playフレームワークである$textitAlign With Purposeを提案する。
我々は,ASR(Automatic Speech Recognition)の領域にフレームワークを適用し,その特性選択,アーキテクチャ選択,訓練データセットのスケールといった点において,その汎用性を示す。
論文 参考訳(メタデータ) (2023-07-04T13:34:47Z) - A Hybrid Framework for Sequential Data Prediction with End-to-End
Optimization [0.0]
オンライン環境での非線形予測について検討し,手作業による特徴や手作業によるモデル選択の問題を効果的に緩和するハイブリッドモデルを提案する。
逐次データからの適応的特徴抽出にはLSTM(Recurrent Neural Network)、効果的な教師付き回帰には勾配強化機構(soft GBDT)を用いる。
本稿では, 合成データに対するアルゴリズムの学習挙動と, 各種実生活データセットに対する従来の手法による性能改善について述べる。
論文 参考訳(メタデータ) (2022-03-25T17:13:08Z) - DANCE: DAta-Network Co-optimization for Efficient Segmentation Model
Training and Inference [85.02494022662505]
DANCEは、効率的なセグメンテーションモデルのトレーニングと推論のための自動データネットワーク協調最適化である。
入力イメージを適応的にダウンサンプル/ドロップする自動データスライミングを統合し、画像の空間的複雑さによって導かれるトレーニング損失に対するそれに対応するコントリビューションを制御する。
実験と非難研究により、DANCEは効率的なセグメンテーションに向けて「オールウィン」を達成できることを示した。
論文 参考訳(メタデータ) (2021-07-16T04:58:58Z) - Adversarial Feature Augmentation and Normalization for Visual
Recognition [109.6834687220478]
最近のコンピュータビジョンの進歩は、分類モデルの一般化能力を改善するために、逆データ拡張を利用する。
本稿では,中間的特徴埋め込みにおける敵対的拡張を提唱する効率的かつ効率的な代替手法を提案する。
代表的なバックボーンネットワークを用いて,多様な視覚認識タスクにまたがる提案手法を検証する。
論文 参考訳(メタデータ) (2021-03-22T20:36:34Z) - Direct Evolutionary Optimization of Variational Autoencoders With Binary
Latents [0.0]
サンプルベース近似や再パラメータ化を使わずに、個別の潜入子で変分オートエンコーダ(VAE)を訓練できることが示される。
大規模な教師付きネットワークとは対照的に、調査対象のVAEは、例えば、よりクリーンなデータや大規模な画像データセットのトレーニングを行うことなく、単一のイメージをノイズ化することができる。
論文 参考訳(メタデータ) (2020-11-27T12:42:12Z) - Self-Challenging Improves Cross-Domain Generalization [81.99554996975372]
畳み込みニューラルネットワーク(CNN)は、ラベルと相関する支配的特徴を活性化することにより、画像分類を行う。
ドメイン外データに対するCNNの一般化を著しく改善する簡単なトレーニングである自己整合表現(RSC)を導入する。
RSCはトレーニングデータ上で活性化される主要な機能に対して反復的に挑戦し、ラベルと相関する残りの機能を有効にするようネットワークに強制する。
論文 参考訳(メタデータ) (2020-07-05T21:42:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。