論文の概要: DUEL: Adaptive Duplicate Elimination on Working Memory for
Self-Supervised Learning
- arxiv url: http://arxiv.org/abs/2210.17052v1
- Date: Mon, 31 Oct 2022 04:04:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 15:39:00.340474
- Title: DUEL: Adaptive Duplicate Elimination on Working Memory for
Self-Supervised Learning
- Title(参考訳): DUEL:自己指導型学習における作業記憶の適応的重複排除
- Authors: Won-Seok Choi, Dong-Sig Han, Hyundo Lee, Junseok Park and Byoung-Tak
Zhang
- Abstract要約: 本稿では,人間の作業メモリにインスパイアされた適応Duplicate Elimination(DUEL)を用いた新しいSSLフレームワークを提案する。
提案するフレームワークは,劇的なクラス間不均衡によるダウンストリームタスク性能の劣化を防止する。
- 参考スコア(独自算出の注目度): 22.869957431768597
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In Self-Supervised Learning (SSL), it is known that frequent occurrences of
the collision in which target data and its negative samples share the same
class can decrease performance. Especially in real-world data such as crawled
data or robot-gathered observations, collisions may occur more often due to the
duplicates in the data. To deal with this problem, we claim that sampling
negative samples from the adaptively debiased distribution in the memory makes
the model more stable than sampling from a biased dataset directly. In this
paper, we introduce a novel SSL framework with adaptive Duplicate Elimination
(DUEL) inspired by the human working memory. The proposed framework
successfully prevents the downstream task performance from degradation due to a
dramatic inter-class imbalance.
- Abstract(参考訳): 自己監視学習(SSL)では、ターゲットデータとその負のサンプルが同じクラスを共有する衝突の頻繁な発生が性能を低下させることが知られている。
特にクロールデータやロボット収集観測のような現実世界のデータでは、データの重複により衝突が頻繁に起こることがある。
この問題に対処するために,メモリ内の適応的偏り分布から負のサンプルをサンプリングすることで,偏りのあるデータセットから直接サンプリングするよりもモデルが安定すると主張している。
本稿では,人間の作業メモリにインスパイアされた適応Duplicate Elimination(DUEL)を用いた新しいSSLフレームワークを提案する。
提案するフレームワークは,劇的なクラス間不均衡によるダウンストリームタスク性能の劣化を防止する。
関連論文リスト
- DUEL: Duplicate Elimination on Active Memory for Self-Supervised
Class-Imbalanced Learning [19.717868805172323]
新たなフレームワークであるDuplicate Elimination(DUEL)の自己教師付き事前学習におけるアクティブなデータフィルタリングプロセスを提案する。
このフレームワークは、人間のワーキングメモリにインスパイアされたアクティブメモリを統合し、メモリ内のデータの多様性を測定する特異性情報を導入する。
最も重複したデータを新しいサンプルに置き換えるDUELポリシは、メモリ内の特異性情報を強化し、クラス不均衡を軽減することを目的としている。
論文 参考訳(メタデータ) (2024-02-14T06:09:36Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - Self-Supervised Dataset Distillation for Transfer Learning [77.4714995131992]
ラベルなしデータセットを、効率的な自己教師付き学習(SSL)のための小さな合成サンプル群に蒸留する新しい問題を提案する。
両レベル最適化におけるSSL目標に対する合成サンプルの勾配は、データ拡張やマスキングから生じるランダム性から、テキストバイアスを受けていることを最初に証明する。
転送学習を含む様々な応用における本手法の有効性を実証的に検証する。
論文 参考訳(メタデータ) (2023-10-10T10:48:52Z) - Boosting Differentiable Causal Discovery via Adaptive Sample Reweighting [62.23057729112182]
異なるスコアに基づく因果探索法は観測データから有向非巡回グラフを学習する。
本稿では,Reweighted Score関数ReScoreの適応重みを動的に学習することにより因果発見性能を向上させるためのモデルに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-06T14:49:59Z) - DiscrimLoss: A Universal Loss for Hard Samples and Incorrect Samples
Discrimination [28.599571524763785]
ラベルノイズ(すなわち不正なデータ)が与えられた場合、ディープニューラルネットワークはラベルノイズとモデル性能を徐々に記憶する。
この問題を解消するために,カリキュラム学習を提案し,学習サンプルを有意義な順序で順序付けすることで,モデル性能と一般化を向上させる。
論文 参考訳(メタデータ) (2022-08-21T13:38:55Z) - Pareto Optimization for Active Learning under Out-of-Distribution Data
Scenarios [79.02009938011447]
本研究では,未ラベルデータプールからバッチサイズを固定した未ラベルサンプルの最適なサブセットを選択するサンプリング手法を提案する。
実験の結果,従来の機械学習(ML)タスクとディープラーニング(DL)タスクの両方において,その効果が示された。
論文 参考訳(メタデータ) (2022-07-04T04:11:44Z) - One for More: Selecting Generalizable Samples for Generalizable ReID
Model [92.40951770273972]
本稿では,選択したサンプルを損失関数として一般化する1対3の学習目標を提案する。
提案した1対3のサンプルは,ReIDトレーニングフレームワークにシームレスに統合できる。
論文 参考訳(メタデータ) (2020-12-10T06:37:09Z) - Robust Finite Mixture Regression for Heterogeneous Targets [70.19798470463378]
本稿では,サンプルクラスタの探索と,複数の不完全な混合型ターゲットを同時にモデル化するFMRモデルを提案する。
我々は、高次元の学習フレームワークの下で、無症状のオラクルのパフォーマンス境界をモデルに提供します。
その結果,我々のモデルは最先端の性能を達成できることがわかった。
論文 参考訳(メタデータ) (2020-10-12T03:27:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。