論文の概要: PD-Loss: Proxy-Decidability for Efficient Metric Learning
- arxiv url: http://arxiv.org/abs/2508.17082v1
- Date: Sat, 23 Aug 2025 16:46:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.33179
- Title: PD-Loss: Proxy-Decidability for Efficient Metric Learning
- Title(参考訳): PD-Loss:効率的なメトリック学習のためのプロキシ決定可能性
- Authors: Pedro Silva, Guilherme A. L. Silva, Pablo Coelho, Vander Freitas, Gladston Moreira, David Menotii, Eduardo Luz,
- Abstract要約: 本稿では, 学習可能なプロキシとd'の統計フレームワークを統合し, 埋め込み空間を効率的に最適化する新しい目的である Proxy-Decidability Loss (PD-Loss) を紹介する。
PD-Lossは、組込み最適化の新しい視点を導入しながら、最先端のメソッドに匹敵するパフォーマンスを実現している。
- 参考スコア(独自算出の注目度): 0.03891635937589588
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Metric Learning (DML) aims to learn embedding functions that map semantically similar inputs to proximate points in a metric space while separating dissimilar ones. Existing methods, such as pairwise losses, are hindered by complex sampling requirements and slow convergence. In contrast, proxy-based losses, despite their improved scalability, often fail to optimize global distribution properties. The Decidability-based Loss (D-Loss) addresses this by targeting the decidability index (d') to enhance distribution separability, but its reliance on large mini-batches imposes significant computational constraints. We introduce Proxy-Decidability Loss (PD-Loss), a novel objective that integrates learnable proxies with the statistical framework of d' to optimize embedding spaces efficiently. By estimating genuine and impostor distributions through proxies, PD-Loss combines the computational efficiency of proxy-based methods with the principled separability of D-Loss, offering a scalable approach to distribution-aware DML. Experiments across various tasks, including fine-grained classification and face verification, demonstrate that PD-Loss achieves performance comparable to that of state-of-the-art methods while introducing a new perspective on embedding optimization, with potential for broader applications.
- Abstract(参考訳): Deep Metric Learning (DML)は、意味論的に類似した入力をメートル法空間の近点にマッピングし、異種を分離する埋め込み関数を学習することを目的としている。
対損失のような既存の方法は、複雑なサンプリング要求と緩やかな収束によって妨げられる。
対照的に、拡張性の改善にもかかわらず、プロキシベースの損失は、グローバルな分散プロパティの最適化に失敗することが多い。
決定可能性に基づく損失 (D-Loss) は、分散分離性を高めるために決定可能性指数 (d') を目標とすることでこの問題に対処するが、大きなミニバッチへの依存は、計算上の重大な制約を課す。
本稿では, 学習可能なプロキシとd'の統計フレームワークを統合し, 埋め込み空間を効率的に最適化する新しい目的である Proxy-Decidability Loss (PD-Loss) を紹介する。
PD-Lossは、プロキシを通して真と偽の分布を推定することにより、プロキシベースのメソッドの計算効率とD-Lossの原理的な分離性を組み合わせ、分散対応DMLへのスケーラブルなアプローチを提供する。
きめ細かい分類や顔の検証を含む様々なタスクの実験では、PD-Lossは最先端の手法に匹敵する性能を達成し、より広範なアプリケーションに応用可能な埋め込み最適化の新しい視点を導入している。
関連論文リスト
- NDCG-Consistent Softmax Approximation with Accelerated Convergence [67.10365329542365]
本稿では,ランキングの指標と直接一致した新たな損失定式化を提案する。
提案したRG損失を高効率な Alternating Least Squares (ALS) 最適化手法と統合する。
実世界のデータセットに対する実証的な評価は、我々のアプローチが同等または上位のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2025-06-11T06:59:17Z) - Decentralized Smoothing ADMM for Quantile Regression with Non-Convex Sparse Penalties [3.269165283595478]
急速に進化するIoT(Internet-of-Things)エコシステムでは、センサによって生成された分散データを扱う上で、効果的なデータ分析技術が不可欠である。
下位段階のコンセンサスアプローチのような既存の手法の限界に対処することは、アクティブ係数と非アクティブ係数の区別に失敗する。
論文 参考訳(メタデータ) (2024-08-02T15:00:04Z) - Anti-Collapse Loss for Deep Metric Learning Based on Coding Rate Metric [99.19559537966538]
DMLは、分類、クラスタリング、検索といった下流タスクのための識別可能な高次元埋め込み空間を学習することを目的としている。
埋め込み空間の構造を維持し,特徴の崩壊を避けるために,反崩壊損失と呼ばれる新しい損失関数を提案する。
ベンチマークデータセットの総合実験により,提案手法が既存の最先端手法より優れていることを示す。
論文 参考訳(メタデータ) (2024-07-03T13:44:20Z) - Provably Mitigating Overoptimization in RLHF: Your SFT Loss is Implicitly an Adversarial Regularizer [52.09480867526656]
人間の嗜好を学習する際の分布変化と不確実性の一形態として,不一致の原因を同定する。
過度な最適化を緩和するために、まず、逆選択された報酬モデルに最適なポリシーを選択する理論アルゴリズムを提案する。
報奨モデルとそれに対応する最適ポリシーの等価性を用いて、優先最適化損失と教師付き学習損失を組み合わせた単純な目的を特徴とする。
論文 参考訳(メタデータ) (2024-05-26T05:38:50Z) - Deep Metric Learning with Soft Orthogonal Proxies [1.823505080809275]
本稿では,プロキシにソフト直交性(SO)制約を導入する新しいアプローチを提案する。
提案手法では,DMLの目的と合わせて,画像からコンテキスト特徴を抽出するエンコーダとして,データ効率の良い画像変換器(DeiT)を利用する。
提案手法が最先端手法よりも有意なマージンで優れていることを示す。
論文 参考訳(メタデータ) (2023-06-22T17:22:15Z) - Robust Calibrate Proxy Loss for Deep Metric Learning [6.784952050036532]
本稿では、実際のサンプル情報を用いて、プロキシベースの損失の類似性計算を改善するCalibrate Proxy構造を提案する。
提案手法は,正規データセットと雑音データセットの両方において,一般的に使用されるプロキシベース損失の性能を効果的に向上できることを示す。
論文 参考訳(メタデータ) (2023-04-06T02:43:10Z) - A Non-isotropic Probabilistic Take on Proxy-based Deep Metric Learning [49.999268109518255]
プロキシベースのDeep Metric Learningは、クラス代表者(プロキシ)に画像を埋め込むことで学習する
さらに、プロキシベースのDMLは、クラス内部構造を学ぶのに苦労している。
両問題に対処するために,非等方的確率的プロキシベースDMLを導入する。
論文 参考訳(メタデータ) (2022-07-08T09:34:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。