論文の概要: Global Contrastive Batch Sampling via Optimization on Sample
Permutations
- arxiv url: http://arxiv.org/abs/2210.12874v4
- Date: Wed, 7 Jun 2023 04:38:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-08 20:03:05.767975
- Title: Global Contrastive Batch Sampling via Optimization on Sample
Permutations
- Title(参考訳): サンプル置換の最適化によるグローバルコントラストバッチサンプリング
- Authors: Vin Sachidananda, Ziyi Yang, Chenguang Zhu
- Abstract要約: Global Contrastive Batch Sampling (GCBS) はバッチ割り当て問題に対する効率的な近似である。
GCBSは、文の埋め込みやコード検索タスクにおける最先端のパフォーマンスを改善している。
- 参考スコア(独自算出の注目度): 28.72288652451881
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Contrastive Learning has recently achieved state-of-the-art performance in a
wide range of tasks. Many contrastive learning approaches use mined hard
negatives to make batches more informative during training but these approaches
are inefficient as they increase epoch length proportional to the number of
mined negatives and require frequent updates of nearest neighbor indices or
mining from recent batches. In this work, we provide an alternative to hard
negative mining, Global Contrastive Batch Sampling (GCBS), an efficient
approximation to the batch assignment problem that upper bounds the gap between
the global and training losses, $\mathcal{L}^{Global} - \mathcal{L}^{Train}$,
in contrastive learning settings. Through experimentation we find GCBS improves
state-of-the-art performance in sentence embedding and code-search tasks.
Additionally, GCBS is easy to implement as it requires only a few additional
lines of code, does not maintain external data structures such as nearest
neighbor indices, is more computationally efficient than the most minimal hard
negative mining approaches, and makes no changes to the model being trained.
- Abstract(参考訳): コントラスト学習は最近、幅広いタスクで最先端のパフォーマンスを達成している。
多くの対照的な学習アプローチは、訓練中にバッチをより有益にするためにマイニングハードネガティブスを使用するが、これらのアプローチは、マイニングされたネガティブ数に比例するエポック長を増加させ、近辺のインデックスや最近のバッチからのマイニングの頻繁な更新を必要とするため、非効率である。
本研究では,強負のマイニングの代替としてGCBS(Global Contrastive Batch Sampling)を提案する。これは,グローバルとトレーニングの損失のギャップを上限とするバッチ割当問題に対して,対照的な学習条件で,$\mathcal{L}^{Global} - \mathcal{L}^{Train}$という,効率的な近似手法である。
実験により, GCBSは文の埋め込みやコード検索作業における最先端のパフォーマンスを向上させる。
さらに、GCBSは、数行のコードしか必要とせず、近隣のインデックスのような外部データ構造を維持しておらず、最も最小限の負のマイニングアプローチよりも計算効率が良く、訓練中のモデルに変更を加えることはないため、実装が容易である。
関連論文リスト
- BatchGFN: Generative Flow Networks for Batch Active Learning [80.73649229919454]
BatchGFNは、生成フローネットワークを使用してバッチ報酬に比例したデータポイントのセットをサンプリングする、プールベースのアクティブラーニングのための新しいアプローチである。
提案手法は,おもちゃの回帰問題において,1点当たり1回の前方通過で推定時間に近距離最適効用バッチをサンプリングすることを可能にした。
論文 参考訳(メタデータ) (2023-06-26T20:41:36Z) - Neighborhood-based Hard Negative Mining for Sequential Recommendation [14.66576013324401]
ネガティブサンプリングは、シーケンシャルレコメンデーションモデルのトレーニングにおいて重要な役割を果たす。
本稿では, ユーザ行動に隠された構造情報を負のマイニングに活用するために, 近傍オーバーラップ(GNNO)に基づくグラフベースの負のサンプリング手法を提案する。
論文 参考訳(メタデータ) (2023-06-12T12:28:54Z) - Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning [99.14132861655223]
深層学習のためのクラス内適応拡張(IAA)フレームワークを提案する。
クラスごとのクラス内変動を合理的に推定し, 適応型合成試料を生成し, 硬質試料の採掘を支援する。
本手法は,検索性能の最先端手法を3%~6%向上させる。
論文 参考訳(メタデータ) (2022-11-29T14:52:38Z) - A Maximum Log-Likelihood Method for Imbalanced Few-Shot Learning Tasks [3.2895195535353308]
数ショットアーキテクチャのための新しい最大ログ類似度指標を提案する。
提案手法は,従来の類似度指標よりも優れた性能を実現することを示す。
また,提案アルゴリズムは,評価データが不均衡である場合に,最先端のトランスダクティブな数ショット性能を実現することを示す。
論文 参考訳(メタデータ) (2022-11-26T21:31:00Z) - LoOp: Looking for Optimal Hard Negative Embeddings for Deep Metric
Learning [17.571160136568455]
埋め込み空間における最適強陰性(LoOp)を求める新しい手法を提案する。
マイニング法とは違って, 最適硬質負を計算するために, 組込みの組込み間の空間全体を考慮した。
論文 参考訳(メタデータ) (2021-08-20T19:21:33Z) - Local policy search with Bayesian optimization [73.0364959221845]
強化学習は、環境との相互作用によって最適な政策を見つけることを目的としている。
局所探索のための政策勾配は、しばしばランダムな摂動から得られる。
目的関数の確率モデルとその勾配を用いたアルゴリズムを開発する。
論文 参考訳(メタデータ) (2021-06-22T16:07:02Z) - Graph Sampling Based Deep Metric Learning for Generalizable Person
Re-Identification [114.56752624945142]
我々は、最も一般的なランダムサンプリング手法である有名なpkサンプリングは、深層メトリック学習にとって有益で効率的ではないと主張する。
大規模計量学習のためのグラフサンプリング(GS)と呼ばれる効率的なミニバッチサンプリング手法を提案する。
論文 参考訳(メタデータ) (2021-04-04T06:44:15Z) - Communication-Efficient Sampling for Distributed Training of Graph
Convolutional Networks [3.075766050800645]
隣のノードからデータを集約する必要があるため、トレーニンググラフ畳み込みネットワーク(GCN)は高価です。
先行研究では,少数の隣人を対象に,収集結果を推定する様々な近傍サンプリング手法が提案されている。
本稿では, 局所サンプリング確率を判定し, スクイード隣りのサンプリングがトレーニングの収束度に大きく影響しないことを確かめるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-19T16:12:44Z) - Bandit Samplers for Training Graph Neural Networks [63.17765191700203]
グラフ畳み込みネットワーク(GCN)の訓練を高速化するために, ばらつきを低減したサンプリングアルゴリズムが提案されている。
これらのサンプリングアルゴリズムは、グラフ注意ネットワーク(GAT)のような固定重みよりも学習重量を含む、より一般的なグラフニューラルネットワーク(GNN)には適用できない。
論文 参考訳(メタデータ) (2020-06-10T12:48:37Z) - Top-k Training of GANs: Improving GAN Performance by Throwing Away Bad
Samples [67.11669996924671]
GAN(Generative Adversarial Network)トレーニングアルゴリズムに,簡単な修正(一行のコード)を導入する。
ジェネレータパラメータを更新するとき、批判者が最も現実的に評価するバッチの要素から勾配のコントリビューションをゼロにします。
このトップk更新の手順が一般的に適用可能な改善であることを示す。
論文 参考訳(メタデータ) (2020-02-14T19:27:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。