論文の概要: Deep Ranking with Adaptive Margin Triplet Loss
- arxiv url: http://arxiv.org/abs/2107.06187v1
- Date: Tue, 13 Jul 2021 15:37:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-14 14:51:43.709817
- Title: Deep Ranking with Adaptive Margin Triplet Loss
- Title(参考訳): Adaptive Margin Triplet Loss を用いたDeep Ranking
- Authors: Mai Lan Ha and Volker Blanz
- Abstract要約: 本稿では,固定利得三重項損失から適応利得三重項損失への簡単な修正を提案する。
提案した損失は,評価値が連続値である評価データセットに適している。
- 参考スコア(独自算出の注目度): 5.220120772989114
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We propose a simple modification from a fixed margin triplet loss to an
adaptive margin triplet loss. While the original triplet loss is used widely in
classification problems such as face recognition, face re-identification and
fine-grained similarity, our proposed loss is well suited for rating datasets
in which the ratings are continuous values. In contrast to original triplet
loss where we have to sample data carefully, in out method, we can generate
triplets using the whole dataset, and the optimization can still converge
without frequently running into a model collapsing issue. The adaptive margins
only need to be computed once before the training, which is much less expensive
than generating triplets after every epoch as in the fixed margin case. Besides
substantially improved training stability (the proposed model never collapsed
in our experiments compared to a couple of times that the training collapsed on
existing triplet loss), we achieved slightly better performance than the
original triplet loss on various rating datasets and network architectures.
- Abstract(参考訳): 固定マージン三重項損失から適応マージン三重項損失への簡単な修正を提案する。
従来の3重項損失は,顔認識,顔認識,細粒度類似性などの分類問題に広く用いられているが,評価値が連続値である評価データセットには適している。
データを注意深くサンプリングしなければならない元のトリプレット損失とは対照的に、outメソッドでは、データセット全体を使用してトリプレットを生成し、モデル崩壊問題に頻繁にぶつかることなく最適化を収束させることができる。
適応マージンはトレーニングの前に1回だけ計算する必要があり、固定マージンの場合のようにエポックのたびにトリプレットを生成するよりもずっと安価である。
トレーニングの安定性が大幅に向上した(既存の3重項損失でトレーニングが崩壊した2回と比べて、提案したモデルは実験では崩壊しなかった)他、さまざまな評価データセットやネットワークアーキテクチャにおいて、元の3重項損失よりも若干パフォーマンスが向上した。
関連論文リスト
- Byzantine-resilient Federated Learning With Adaptivity to Data Heterogeneity [54.145730036889496]
本稿では、ビザンツの悪意ある攻撃データの存在下でのグラディエント・ラーニング(FL)を扱う。
Average Algorithm (RAGA) が提案され、ロバストネスアグリゲーションを活用してデータセットを選択することができる。
論文 参考訳(メタデータ) (2024-03-20T08:15:08Z) - A Recipe for Efficient SBIR Models: Combining Relative Triplet Loss with
Batch Normalization and Knowledge Distillation [3.364554138758565]
SBIR(Sketch-Based Image Retrieval)は、マルチメディア検索において重要なタスクであり、指定されたスケッチクエリにマッチした画像の集合を検索することを目的としている。
我々は, アンカーの類似性に基づく損失重み付けにより, 制限を克服する適応三重項損失である相対三重項損失(RTL)を導入する。
本稿では, 知識蒸留による精度の限界損失を抑えて, 小型モデルを効率的に訓練するための簡単な手法を提案する。
論文 参考訳(メタデータ) (2023-05-30T12:41:04Z) - All Points Matter: Entropy-Regularized Distribution Alignment for
Weakly-supervised 3D Segmentation [67.30502812804271]
擬似ラベルは、弱い教師付き3Dセグメンテーションタスクに広く使われており、学習に使えるのはスパース・グラウンド・トラス・ラベルのみである。
本稿では,生成した擬似ラベルを正規化し,擬似ラベルとモデル予測とのギャップを効果的に狭めるための新しい学習戦略を提案する。
論文 参考訳(メタデータ) (2023-05-25T08:19:31Z) - Robust Outlier Rejection for 3D Registration with Variational Bayes [70.98659381852787]
我々は、ロバストアライメントのための新しい変分非局所ネットワークベース外乱除去フレームワークを開発した。
そこで本稿では, 投票に基づく不整合探索手法を提案し, 変換推定のための高品質な仮説的不整合をクラスタリングする。
論文 参考訳(メタデータ) (2023-04-04T03:48:56Z) - Self-Supervised Monocular Depth Estimation: Solving the Edge-Fattening
Problem [39.82550656611876]
計量学習に人気があるトリプルト損失は多くのコンピュータビジョンタスクで大きな成功を収めた。
MDEにおける生三重項損失の2つの欠点を示し、問題駆動型再設計を実証する。
論文 参考訳(メタデータ) (2022-10-02T03:08:59Z) - Supervised Contrastive Learning to Classify Paranasal Anomalies in the
Maxillary Sinus [43.850343556811275]
深層学習技術を用いて,MRI画像から副鼻腔系の異常を自動的に検出できる。
副鼻腔奇形分類における既存の深層学習法は、少なくとも1つの異常を診断するために用いられてきた。
コントラスト損失とクロスエントロピー損失を組み合わせた新しい学習パラダイムを提案する。
論文 参考訳(メタデータ) (2022-09-05T12:31:28Z) - Label Distributionally Robust Losses for Multi-class Classification:
Consistency, Robustness and Adaptivity [55.29408396918968]
多クラス分類のためのラベル分布ロバスト(LDR)損失という損失関数群について検討した。
我々の貢献は、多クラス分類のためのLDR損失のトップ$kの一貫性を確立することによって、一貫性と堅牢性の両方を含んでいる。
本稿では,各インスタンスのクラスラベルの雑音度に個別化温度パラメータを自動的に適応させる適応型LDR損失を提案する。
論文 参考訳(メタデータ) (2021-12-30T00:27:30Z) - Risk Minimization from Adaptively Collected Data: Guarantees for
Supervised and Policy Learning [57.88785630755165]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、機械学習のワークホースであるが、適応的に収集されたデータを使用すると、そのモデルに依存しない保証が失敗する可能性がある。
本研究では,仮説クラス上での損失関数の平均値を最小限に抑えるため,適応的に収集したデータを用いた一般的な重み付きERMアルゴリズムについて検討する。
政策学習では、探索がゼロになるたびに既存の文献のオープンギャップを埋める率-最適後悔保証を提供する。
論文 参考訳(メタデータ) (2021-06-03T09:50:13Z) - Strong but Simple Baseline with Dual-Granularity Triplet Loss for
Visible-Thermal Person Re-Identification [9.964287254346976]
可視熱者再同定(VT-ReID)のための概念的に単純かつ効果的な二重粒度三重項損失を提案する。
提案する双粒度三重項損失は, 試料ベース三重項損失と中心ベース三重項損失を, 粒状粒度で階層的に整理する。
論文 参考訳(メタデータ) (2020-12-09T12:43:34Z) - Beyond Triplet Loss: Meta Prototypical N-tuple Loss for Person
Re-identification [118.72423376789062]
マルチクラス分類損失(N-tuple loss)を導入し、クエリごとの最適化のために複数の(N)インスタンスを共同で検討する。
マルチクラス分類を組み込んだモデルにより,ベンチマーク対象のReIDデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2020-06-08T23:34:08Z) - Supervised Contrastive Learning [42.27949000093086]
我々は、自己教師付きバッチコントラストアプローチを完全教師付き設定に拡張する。
教師付きコントラスト(SupCon)損失の2つの可能なバージョンを分析し,損失の最も優れた定式化を同定した。
ResNet-200では、ImageNetデータセットでトップ1の精度が81.4%に達しています。
論文 参考訳(メタデータ) (2020-04-23T17:58:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。