論文の概要: Adversarial Lagrangian Integrated Contrastive Embedding for Limited Size
Datasets
- arxiv url: http://arxiv.org/abs/2210.03261v1
- Date: Thu, 6 Oct 2022 23:59:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 13:59:47.527586
- Title: Adversarial Lagrangian Integrated Contrastive Embedding for Limited Size
Datasets
- Title(参考訳): 有限サイズデータセットに対する逆ラグランジアン統合コントラスト埋め込み
- Authors: Amin Jalali and Minho Lee
- Abstract要約: 本研究では,小さなデータセットに対する新しい逆ラグランジアン統合コントラスト埋め込み(ALICE)法を提案する。
提案手法の精度向上とトレーニング収束性を示す。
種々の拡張手法を用いた新しい対角統合コントラストモデルについて検討した。
- 参考スコア(独自算出の注目度): 8.926248371832852
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Certain datasets contain a limited number of samples with highly various
styles and complex structures. This study presents a novel adversarial
Lagrangian integrated contrastive embedding (ALICE) method for small-sized
datasets. First, the accuracy improvement and training convergence of the
proposed pre-trained adversarial transfer are shown on various subsets of
datasets with few samples. Second, a novel adversarial integrated contrastive
model using various augmentation techniques is investigated. The proposed
structure considers the input samples with different appearances and generates
a superior representation with adversarial transfer contrastive training.
Finally, multi-objective augmented Lagrangian multipliers encourage the
low-rank and sparsity of the presented adversarial contrastive embedding to
adaptively estimate the coefficients of the regularizers automatically to the
optimum weights. The sparsity constraint suppresses less representative
elements in the feature space. The low-rank constraint eliminates trivial and
redundant components and enables superior generalization. The performance of
the proposed model is verified by conducting ablation studies by using
benchmark datasets for scenarios with small data samples.
- Abstract(参考訳): あるデータセットには、非常に多様なスタイルと複雑な構造を持つ限られた数のサンプルが含まれている。
本研究では,小さなデータセットに対する新しい逆ラグランジアン統合コントラスト埋め込み(ALICE)法を提案する。
まず, サンプル数が少ないデータセットの様々なサブセットに, 事前学習した逆転の精度向上とトレーニング収束を示す。
次に, 種々の拡張手法を用いた新しい対角統合コントラストモデルについて検討した。
提案する構造は,異なる外観の入力サンプルを考察し,逆伝達コントラストトレーニングで優れた表現を生成する。
最後に、多目的拡張ラグランジアン乗算器は、提示された逆コントラスト埋め込みの低ランクおよびスパース性を奨励し、最適化器の係数を最適重み付けに適応的に推定する。
スパーシティ制約は、特徴空間におけるより少ない代表要素を抑制する。
低ランクの制約は自明で冗長なコンポーネントを排除し、優れた一般化を可能にする。
提案モデルの性能は,小さなデータサンプルを用いたシナリオのベンチマークデータセットを用いてアブレーション研究によって検証される。
関連論文リスト
- Downstream-Pretext Domain Knowledge Traceback for Active Learning [138.02530777915362]
本稿では、下流知識と事前学習指導のデータ相互作用をトレースするダウンストリーム・プレテキスト・ドメイン知識トレース(DOKT)手法を提案する。
DOKTは、トレースバックの多様性指標とドメインベースの不確実性推定器から構成される。
10のデータセットで行った実験は、我々のモデルが他の最先端の手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2024-07-20T01:34:13Z) - Distributional Reduction: Unifying Dimensionality Reduction and Clustering with Gromov-Wasserstein [56.62376364594194]
教師なし学習は、潜在的に大きな高次元データセットの基盤構造を捉えることを目的としている。
本研究では、最適輸送のレンズの下でこれらのアプローチを再検討し、Gromov-Wasserstein問題と関係を示す。
これにより、分散還元と呼ばれる新しい一般的なフレームワークが公開され、DRとクラスタリングを特別なケースとして回復し、単一の最適化問題内でそれらに共同で対処することができる。
論文 参考訳(メタデータ) (2024-02-03T19:00:19Z) - RGM: A Robust Generalizable Matching Model [49.60975442871967]
RGM(Robust Generalist Matching)と呼ばれる疎密マッチングのための深部モデルを提案する。
合成トレーニングサンプルと実世界のシナリオのギャップを狭めるために、我々は、疎対応基盤真理を持つ新しい大規模データセットを構築した。
さまざまな密集したスパースなデータセットを混ぜ合わせることができ、トレーニングの多様性を大幅に改善しています。
論文 参考訳(メタデータ) (2023-10-18T07:30:08Z) - Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - Enhancing Representation Learning on High-Dimensional, Small-Size
Tabular Data: A Divide and Conquer Method with Ensembled VAEs [7.923088041693465]
特徴空間の部分集合の後方部分集合を学習するための軽量なVAEのアンサンブルを, 新規な分割コンカレントアプローチで結合後部分集合に集約する。
このアプローチは推論時に部分的な機能に対して堅牢であることを示し、ほとんどの機能が欠落していても、パフォーマンスの劣化がほとんどないことを示します。
論文 参考訳(メタデータ) (2023-06-27T17:55:31Z) - Imbalanced Classification via a Tabular Translation GAN [4.864819846886142]
本稿では,多数のサンプルを対応する合成マイノリティ標本にマッピングするために,新たな正規化損失を用いたジェネレーティブ・アドバイサル・ネットワークに基づくモデルを提案する。
提案手法は, 再加重法やオーバーサンプリング法と比較して, 平均精度を向上することを示す。
論文 参考訳(メタデータ) (2022-04-19T06:02:53Z) - CAFE: Learning to Condense Dataset by Aligning Features [72.99394941348757]
本稿ではCAFE(Aligning features)によるCondenseデータセットの新しいスキームを提案する。
このアプローチの核心は、さまざまなスケールにわたる実データと合成データから機能を整合させる効果的な戦略です。
提案したCAFEを様々なデータセットで検証し,概ね最先端技術であることを示す。
論文 参考訳(メタデータ) (2022-03-03T05:58:49Z) - Heterogeneous Contrastive Learning [45.93509060683946]
重み付けされた教師なしのコントラスト損失と重み付けされた教師付きコントラスト損失を組み合わせた統一的異種学習フレームワークを提案する。
実世界のデータセットを用いた実験結果から,提案手法の有効性と有効性を示した。
論文 参考訳(メタデータ) (2021-05-19T21:01:41Z) - Unleashing the Power of Contrastive Self-Supervised Visual Models via
Contrast-Regularized Fine-Tuning [94.35586521144117]
コントラスト学習を微調整に適用することでさらにメリットが得られるか検討する。
本研究では,コントラスト正規化調律(core-tuning)を提案する。
論文 参考訳(メタデータ) (2021-02-12T16:31:24Z) - A Multi-criteria Approach for Fast and Outlier-aware Representative
Selection from Manifolds [1.5469452301122175]
MOSAICは、非線形構造を示す可能性のある高次元データから、新しい代表選択手法である。
提案手法は,サンプルサブセットのグローバル表現力を最大化する多基準選択手法を推し進める。
代表部分集合の望ましい特性を全て一度に達成するMOSAICの優位性を示す。
論文 参考訳(メタデータ) (2020-03-12T19:31:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。