論文の概要: Simple and Effective Balance of Contrastive Losses
- arxiv url: http://arxiv.org/abs/2112.11743v1
- Date: Wed, 22 Dec 2021 09:23:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-23 15:13:11.419575
- Title: Simple and Effective Balance of Contrastive Losses
- Title(参考訳): 対照的損失の簡便かつ効果的なバランス
- Authors: Arnaud Sors and Rafael Sampaio de Rezende and Sarah Ibrahimi and
Jean-Marc Andreoli
- Abstract要約: 対照的な損失のバランスはしばしば実装の詳細の裏側に隠れており、実際にはほとんど無視され、準最適であることを示す。
評価性能を最適化するハイパーパラメータを効率的に探索する座標降下に基づく探索手法を提案する。
- 参考スコア(独自算出の注目度): 2.2410753966206527
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Contrastive losses have long been a key ingredient of deep metric learning
and are now becoming more popular due to the success of self-supervised
learning. Recent research has shown the benefit of decomposing such losses into
two sub-losses which act in a complementary way when learning the
representation network: a positive term and an entropy term. Although the
overall loss is thus defined as a combination of two terms, the balance of
these two terms is often hidden behind implementation details and is largely
ignored and sub-optimal in practice. In this work, we approach the balance of
contrastive losses as a hyper-parameter optimization problem, and propose a
coordinate descent-based search method that efficiently find the
hyper-parameters that optimize evaluation performance. In the process, we
extend existing balance analyses to the contrastive margin loss, include batch
size in the balance, and explain how to aggregate loss elements from the batch
to maintain near-optimal performance over a larger range of batch sizes.
Extensive experiments with benchmarks from deep metric learning and
self-supervised learning show that optimal hyper-parameters are found faster
with our method than with other common search methods.
- Abstract(参考訳): 対照的な損失は、長い間、ディープラーニングの重要な要素であり、自己教師付き学習の成功によって、現在より普及しています。
近年の研究では、これらの損失を表現ネットワークを学習する際に相補的に作用する2つの下位損失に分解する利点が示されている:ポジティブ項とエントロピー項。
したがって、全体的な損失は2つの項の組み合わせとして定義されるが、この2項のバランスはしばしば実装の詳細の裏側に隠れており、実際にはほとんど無視され、準最適である。
本研究では,ハイパーパラメータ最適化問題としてコントラスト損失のバランスにアプローチし,評価性能を最適化するハイパーパラメータを効率的に探索する座標降下に基づく探索法を提案する。
このプロセスでは、既存のバランス解析を対照的なマージン損失に拡張し、バランスにバッチサイズを含め、バッチから損失要素を集約して、より広いバッチサイズで最適に近いパフォーマンスを維持する方法を説明します。
ディープメトリック学習と自己教師付き学習によるベンチマークによる広範囲な実験により、我々の手法では、他の一般的な探索法よりも最適なハイパーパラメータがより早く見つけられることが示された。
関連論文リスト
- Effectively Leveraging Momentum Terms in Stochastic Line Search Frameworks for Fast Optimization of Finite-Sum Problems [0.5156484100374059]
過度にパラメータ化された状態における深度最適化のための最近の線探索手法と運動量方向との関係について検討する。
モーメントパラメータの定義にデータ持続性、共役型ルールの混合を利用するアルゴリズムを導入する。
結果のアルゴリズムは、他の一般的な手法よりも優れていることを実証的に示している。
論文 参考訳(メタデータ) (2024-11-11T16:26:33Z) - Gradient Descent Efficiency Index [0.0]
本研究では,各イテレーションの有効性を定量化するために,新しい効率指標Ekを導入する。
提案した測定基準は、誤差の相対的変化と繰り返し間の損失関数の安定性の両方を考慮に入れている。
Ekは、機械学習アプリケーションにおける最適化アルゴリズムの選択とチューニングにおいて、より詳細な決定を導く可能性がある。
論文 参考訳(メタデータ) (2024-10-25T10:22:22Z) - Gradient constrained sharpness-aware prompt learning for vision-language
models [99.74832984957025]
本稿では,視覚言語モデル(VLM)の一般化可能な即時学習における新たなトレードオフ問題を提案する。
最先端手法のロスランドスケープとSAMに基づくバニラシャープネス認識最小化法を解析することにより、トレードオフ性能は損失値と損失シャープネスの両方に相関していると結論付けた。
本稿では,GCSCoOp (Gradient Constrained Sharpness-Aware Context Optimization) と表記される,素早い学習のためのSAMベースの新しい手法を提案する。
論文 参考訳(メタデータ) (2023-09-14T17:13:54Z) - HyP$^2$ Loss: Beyond Hypersphere Metric Space for Multi-label Image
Retrieval [20.53316810731414]
ハイブリッドプロキシペアロス(HyP$2$ロス)を用いた新しいメトリクス学習フレームワークを提案する。
提案されたHyP$2$Losは、学習可能なプロキシによるハイパースフィア空間の最適化と、無関係なペアのデータ-データ相関の探索に焦点を当てている。
論文 参考訳(メタデータ) (2022-08-14T15:06:27Z) - Relational Surrogate Loss Learning [41.61184221367546]
本稿では、評価指標を近似するためにディープニューラルネットワークを用いる代理損失学習を再考する。
本稿では,サロゲート損失と測定値の関係を直接的に維持することを示す。
私たちの方法は最適化がずっと簡単で、大幅な効率と性能向上を享受しています。
論文 参考訳(メタデータ) (2022-02-26T17:32:57Z) - Provable Stochastic Optimization for Global Contrastive Learning: Small
Batch Does Not Harm Performance [53.49803579981569]
各正の対と全ての負の対をアンカーポイントで対比する、コントラスト学習のグローバルな目的を考える。
SimCLRのような既存のメソッドは、十分な結果を得るために大きなバッチサイズを必要とする。
本稿では,SogCLRという表現のグローバルコントラスト学習を解くためのメモリ効率の最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-02-24T22:16:53Z) - Mixing between the Cross Entropy and the Expectation Loss Terms [89.30385901335323]
クロスエントロピー損失は、トレーニング中にサンプルを分類するのが難しくなる傾向にある。
最適化目標に期待損失を加えることで,ネットワークの精度が向上することを示す。
実験により,新しいトレーニングプロトコルにより,多様な分類領域における性能が向上することが示された。
論文 参考訳(メタデータ) (2021-09-12T23:14:06Z) - LoOp: Looking for Optimal Hard Negative Embeddings for Deep Metric
Learning [17.571160136568455]
埋め込み空間における最適強陰性(LoOp)を求める新しい手法を提案する。
マイニング法とは違って, 最適硬質負を計算するために, 組込みの組込み間の空間全体を考慮した。
論文 参考訳(メタデータ) (2021-08-20T19:21:33Z) - Scalable Personalised Item Ranking through Parametric Density Estimation [53.44830012414444]
暗黙のフィードバックから学ぶことは、一流問題の難しい性質のために困難です。
ほとんどの従来の方法は、一級問題に対処するためにペアワイズランキングアプローチとネガティブサンプラーを使用します。
本論文では,ポイントワイズと同等の収束速度を実現する学習対ランクアプローチを提案する。
論文 参考訳(メタデータ) (2021-05-11T03:38:16Z) - Pairwise Supervised Hashing with Bernoulli Variational Auto-Encoder and
Self-Control Gradient Estimator [62.26981903551382]
バイナリ潜在変数を持つ変分自動エンコーダ(VAE)は、文書検索の精度の観点から最先端のパフォーマンスを提供する。
本稿では、クラス内類似度とクラス間類似度に報いるために、個別潜伏型VAEを用いたペアワイズ損失関数を提案する。
この新しいセマンティックハッシュフレームワークは、最先端技術よりも優れたパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-05-21T06:11:33Z) - Learning Adaptive Loss for Robust Learning with Noisy Labels [59.06189240645958]
ロバスト損失は、堅牢な学習問題を扱うための重要な戦略である。
本稿では,強靭なハイパーチューニングが可能なメタ学習手法を提案する。
4種類のSOTA損失関数は, 最小化, 一般利用, 有効性を示す。
論文 参考訳(メタデータ) (2020-02-16T00:53:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。