論文の概要: Circle Loss: A Unified Perspective of Pair Similarity Optimization
- arxiv url: http://arxiv.org/abs/2002.10857v2
- Date: Mon, 15 Jun 2020 08:15:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 21:45:29.308800
- Title: Circle Loss: A Unified Perspective of Pair Similarity Optimization
- Title(参考訳): 円損失:ペア類似性最適化の統一的視点
- Authors: Yifan Sun, Changmao Cheng, Yuhan Zhang, Chi Zhang, Liang Zheng,
Zhongdao Wang, Yichen Wei
- Abstract要約: 3重項の損失とソフトマックスとクロスエントロピーの損失を含む、ほとんどの損失関数が見つかる。
円の損失はより明確な収束目標に対してより柔軟な最適化アプローチを提供することを示す。
- 参考スコア(独自算出の注目度): 42.33948436767691
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper provides a pair similarity optimization viewpoint on deep feature
learning, aiming to maximize the within-class similarity $s_p$ and minimize the
between-class similarity $s_n$. We find a majority of loss functions, including
the triplet loss and the softmax plus cross-entropy loss, embed $s_n$ and $s_p$
into similarity pairs and seek to reduce $(s_n-s_p)$. Such an optimization
manner is inflexible, because the penalty strength on every single similarity
score is restricted to be equal. Our intuition is that if a similarity score
deviates far from the optimum, it should be emphasized. To this end, we simply
re-weight each similarity to highlight the less-optimized similarity scores. It
results in a Circle loss, which is named due to its circular decision boundary.
The Circle loss has a unified formula for two elemental deep feature learning
approaches, i.e. learning with class-level labels and pair-wise labels.
Analytically, we show that the Circle loss offers a more flexible optimization
approach towards a more definite convergence target, compared with the loss
functions optimizing $(s_n-s_p)$. Experimentally, we demonstrate the
superiority of the Circle loss on a variety of deep feature learning tasks. On
face recognition, person re-identification, as well as several fine-grained
image retrieval datasets, the achieved performance is on par with the state of
the art.
- Abstract(参考訳): 本稿では,クラス内類似度$s_p$を最大化し,クラス間類似度$s_n$を最小化する。
三重項損失やソフトマックスプラスクロスエントロピー損失など、損失関数の大部分は類似度ペアに$s_n$と$s_p$を埋め込み、$(s_n-s_p)$を下げようとしている。
このような最適化方法は、すべての類似度スコアのペナルティ強度が等しく制限されるため、柔軟性がない。
我々の直観は、類似点が最適点から遠く離れている場合、強調すべきである。
この目的のために、我々は、最適化されていない類似度スコアを強調するために、それぞれの類似度を再重み付けする。
その結果円の損失が生じるが、これは円周的な決定境界によって名づけられる。
円損失は、2つの要素的深層的特徴学習アプローチ、すなわちクラスレベルラベルとペアワイズラベルによる学習のための統一式を持つ。
解析的に、円損失は、$(s_n-s_p)$を最適化する損失関数と比較して、より明確な収束目標に向けてより柔軟な最適化アプローチを提供する。
実験では,様々な深層特徴学習タスクにおいて,円損失の優位性を示す。
顔認識、人物の再識別、およびいくつかのきめ細かい画像検索データセットでは、達成されたパフォーマンスは、最先端技術と同等である。
関連論文リスト
- Faster Convergence with Multiway Preferences [99.68922143784306]
本稿では,符号関数に基づく比較フィードバックモデルについて考察し,バッチとマルチウェイの比較による収束率の解析を行う。
本研究は,マルチウェイ選好による凸最適化の問題を初めて研究し,最適収束率を解析するものである。
論文 参考訳(メタデータ) (2023-12-19T01:52:13Z) - Supervised Metric Learning to Rank for Retrieval via Contextual
Similarity Optimization [16.14184145802016]
多くのメートル法学習損失関数は、トレーニングサンプルの正しいランキングを学習することに重点を置いているが、意味的に一貫性のないラベルに強く適合している。
本稿では,コサイン類似性に加えて文脈類似性を最適化する,文脈損失と呼ばれる新しい計量学習手法を提案する。
実験により、提案した損失は騒音のラベル付けに頑健であり、列車データの大部分が保持されていない場合でも過度に適合する傾向が低いことを示す。
論文 参考訳(メタデータ) (2022-10-04T21:08:27Z) - Benchmarking Deep AUROC Optimization: Loss Functions and Algorithmic
Choices [37.559461866831754]
我々は、深いAUROC最適化問題に対するアルゴリズム選択の異なる様々な損失関数をベンチマークする。
正のサンプリング率、正規化、正規化/アクティベーション、重みなどの重要な選択を強調した。
以上の結果から,Adam-type法はトレーニングの面では競争力が高いが,テストの面では他よりも優れていないことが示唆された。
論文 参考訳(メタデータ) (2022-03-27T00:47:00Z) - Provable Stochastic Optimization for Global Contrastive Learning: Small
Batch Does Not Harm Performance [53.49803579981569]
各正の対と全ての負の対をアンカーポイントで対比する、コントラスト学習のグローバルな目的を考える。
SimCLRのような既存のメソッドは、十分な結果を得るために大きなバッチサイズを必要とする。
本稿では,SogCLRという表現のグローバルコントラスト学習を解くためのメモリ効率の最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-02-24T22:16:53Z) - Adaptive Bandit Convex Optimization with Heterogeneous Curvature [40.368893108265056]
本研究では,学習者が決定を下すと,各関数が独自の曲率を持つ異種環境について検討する。
我々は, 高速で曲率に適応できる効率的なアルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-02-12T21:55:42Z) - Planning and Learning with Adaptive Lookahead [74.39132848733847]
ポリシーイテレーション(PI)アルゴリズムは、欲求の一段階の改善と政策評価を交互に行う。
近年の文献では、複数段階のルックアヘッドポリシーの改善が、イテレーション毎の複雑さの増加を犠牲にして、よりコンバージェンス率の向上につながることが示されている。
本研究では,多段階の地平線を状態と推定値の関数として動的に適応する手法を初めて提案する。
論文 参考訳(メタデータ) (2022-01-28T20:26:55Z) - Sample Complexity of Adversarially Robust Linear Classification on
Separated Data [41.30425613353595]
対向的堅牢性を伴う学習の複雑さについて考察する。
非常に分離されたデータの場合、$o(frac1n)$の収束率は達成可能である。
論文 参考訳(メタデータ) (2020-12-19T22:04:59Z) - Beyond Triplet Loss: Meta Prototypical N-tuple Loss for Person
Re-identification [118.72423376789062]
マルチクラス分類損失(N-tuple loss)を導入し、クエリごとの最適化のために複数の(N)インスタンスを共同で検討する。
マルチクラス分類を組み込んだモデルにより,ベンチマーク対象のReIDデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2020-06-08T23:34:08Z) - Ranking a set of objects: a graph based least-square approach [70.7866286425868]
同一労働者の群集によるノイズの多いペアワイズ比較から始まる$N$オブジェクトのランク付けの問題について考察する。
品質評価のために,最小二乗内在的最適化基準に依存する非適応的ランキングアルゴリズムのクラスを提案する。
論文 参考訳(メタデータ) (2020-02-26T16:19:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。