論文の概要: Hierarchical Proxy-based Loss for Deep Metric Learning
- arxiv url: http://arxiv.org/abs/2103.13538v1
- Date: Thu, 25 Mar 2021 00:38:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-26 13:40:27.866782
- Title: Hierarchical Proxy-based Loss for Deep Metric Learning
- Title(参考訳): 階層的プロキシに基づく深層学習の損失
- Authors: Zhibo Yang, Muhammet Bastan, Xinliang Zhu, Doug Gray, Dimitris Samaras
- Abstract要約: プロキシベースのメトリック学習の損失は、高速収束とトレーニングの複雑さが低いため、ペアベースの損失よりも優れている。
我々は,この暗黙の階層を,プロキシに階層構造を課すことで活用するフレームワークを提案する。
その結果、階層型プロキシベースの損失フレームワークは、既存のプロキシベースの損失のパフォーマンスを改善します。
- 参考スコア(独自算出の注目度): 32.10423536428467
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Proxy-based metric learning losses are superior to pair-based losses due to
their fast convergence and low training complexity. However, existing
proxy-based losses focus on learning class-discriminative features while
overlooking the commonalities shared across classes which are potentially
useful in describing and matching samples. Moreover, they ignore the implicit
hierarchy of categories in real-world datasets, where similar subordinate
classes can be grouped together. In this paper, we present a framework that
leverages this implicit hierarchy by imposing a hierarchical structure on the
proxies and can be used with any existing proxy-based loss. This allows our
model to capture both class-discriminative features and class-shared
characteristics without breaking the implicit data hierarchy. We evaluate our
method on five established image retrieval datasets such as In-Shop and SOP.
Results demonstrate that our hierarchical proxy-based loss framework improves
the performance of existing proxy-based losses, especially on large datasets
which exhibit strong hierarchical structure.
- Abstract(参考訳): プロキシベースのメトリック学習損失は、高速収束と低トレーニングの複雑さのため、ペアベースの損失よりも優れている。
しかし、既存のプロキシベースの損失は、クラス識別機能を学習し、クラス間で共有される共通性を見落としながら、サンプルの記述とマッチングに有用である。
さらに、同様の従属クラスをグループ化できる実世界のデータセットにおけるカテゴリの暗黙的な階層を無視する。
本稿では,この暗黙の階層を,プロキシに階層構造を課すことで活用し,既存のプロキシベースの損失に対して使用可能なフレームワークを提案する。
これにより、暗黙のデータ階層を壊すことなく、クラス識別特徴とクラス共有特徴の両方をキャプチャできる。
本手法は,in-shop や sop などの確立した5つの画像検索データセットについて評価する。
その結果、階層型プロキシベースの損失フレームワークは、既存のプロキシベースの損失、特に強力な階層構造を示す大規模データセットのパフォーマンスを向上させることが示されました。
関連論文リスト
- Harnessing Superclasses for Learning from Hierarchical Databases [1.835004446596942]
多くの大規模分類問題において、クラスは既知の階層に整理され、通常木として表される。
この種の教師付き階層分類の損失について紹介する。
提案手法では,クロスエントロピーの損失に比較して,計算コストの大幅な増大は伴わない。
論文 参考訳(メタデータ) (2024-11-25T14:39:52Z) - Anti-Collapse Loss for Deep Metric Learning Based on Coding Rate Metric [99.19559537966538]
DMLは、分類、クラスタリング、検索といった下流タスクのための識別可能な高次元埋め込み空間を学習することを目的としている。
埋め込み空間の構造を維持し,特徴の崩壊を避けるために,反崩壊損失と呼ばれる新しい損失関数を提案する。
ベンチマークデータセットの総合実験により,提案手法が既存の最先端手法より優れていることを示す。
論文 参考訳(メタデータ) (2024-07-03T13:44:20Z) - Robust Calibrate Proxy Loss for Deep Metric Learning [6.784952050036532]
本稿では、実際のサンプル情報を用いて、プロキシベースの損失の類似性計算を改善するCalibrate Proxy構造を提案する。
提案手法は,正規データセットと雑音データセットの両方において,一般的に使用されるプロキシベース損失の性能を効果的に向上できることを示す。
論文 参考訳(メタデータ) (2023-04-06T02:43:10Z) - Weakly-supervised Action Localization via Hierarchical Mining [76.00021423700497]
弱教師付きアクションローカライゼーションは、ビデオレベルの分類ラベルだけで、与えられたビデオ内のアクションインスタンスを時間的にローカライズし、分類することを目的としている。
ビデオレベルおよびスニペットレベルでの階層的マイニング戦略,すなわち階層的監視と階層的一貫性マイニングを提案する。
我々は、HiM-NetがTHUMOS14とActivityNet1.3データセットの既存の手法よりも、階層的に監督と一貫性をマイニングすることで、大きなマージンを持つことを示す。
論文 参考訳(メタデータ) (2022-06-22T12:19:09Z) - Use All The Labels: A Hierarchical Multi-Label Contrastive Learning
Framework [75.79736930414715]
本稿では,すべての利用可能なラベルを活用でき,クラス間の階層的関係を維持できる階層型多言語表現学習フレームワークを提案する。
比較損失に階層的ペナルティを併用し,その階層的制約を強制する。
論文 参考訳(メタデータ) (2022-04-27T21:41:44Z) - The Group Loss++: A deeper look into group loss for deep metric learning [65.19665861268574]
グループ損失 (Group Loss) は、グループの全サンプルに埋め込まれた類似性を強制する微分可能なラベルプロパゲーション法に基づく損失関数である。
4つのデータセットでクラスタリングと画像検索の最先端結果を示し、2人の再識別データセットで競合結果を示す。
論文 参考訳(メタデータ) (2022-04-04T14:09:58Z) - Provable Hierarchy-Based Meta-Reinforcement Learning [50.17896588738377]
HRLをメタRL設定で解析し、下流タスクで使用するメタトレーニング中に学習者が潜在階層構造を学習する。
我々は、この自然階層の標本効率の回復を保証し、抽出可能な楽観主義に基づくアルゴリズムとともに「多様性条件」を提供する。
我々の境界は、時間的・状態的・行動的抽象化などのHRL文献に共通する概念を取り入れており、我々の設定と分析が実際にHRLの重要な特徴を捉えていることを示唆している。
論文 参考訳(メタデータ) (2021-10-18T17:56:02Z) - Proxy Synthesis: Learning with Synthetic Classes for Deep Metric
Learning [13.252164137961332]
深層メトリック学習におけるより強固な一般化のために,合成クラスを活用したプロキシ合成と呼ばれる単純な正規化器を提案する。
提案手法は合成クラスとして動作する合成埋め込みとプロキシを生成し,プロキシベースの損失を計算する際に未知のクラスを模倣する。
本手法はsoftmaxとその変種を含む任意のプロキシベース損失に適用可能である。
論文 参考訳(メタデータ) (2021-03-29T09:39:07Z) - Pitfalls of Assessing Extracted Hierarchies for Multi-Class
Classification [4.89253144446913]
私たちは、実践者がメソッドについて誤解を招くような結論を下すかもしれない、一般的な落とし穴を特定します。
階層の質が実験的な設定によってどう無関係になるかを示す。
その結果,多くのクラスを持つデータセットは,これらのクラスが相互に関係する複雑な構造を持つことが明らかとなった。
論文 参考訳(メタデータ) (2021-01-26T21:50:57Z) - Hierarchical Class-Based Curriculum Loss [18.941207332233805]
ほとんどの実世界のデータにはラベル間の依存関係があり、階層構造を使ってキャプチャできる。
i) ラベル空間に存在する階層的制約を満たすことと, (ii) 階層のレベルに基づいてラベルに一様でない重みを与えるという2つの特性を持つ損失関数, 階層的カリキュラム損失を提案する。
論文 参考訳(メタデータ) (2020-06-05T18:48:57Z) - Proxy Anchor Loss for Deep Metric Learning [47.832107446521626]
我々は、ペアとプロキシの両方の手法の利点を生かし、それらの制限を克服する新しいプロキシベースの損失を示す。
プロキシの使用により、私たちの損失は収束の速度を加速し、ノイズの多いラベルや外れ値に対して堅牢です。
提案手法は、4つの公開ベンチマークで評価され、損失をトレーニングした標準ネットワークは最先端の性能を達成し、最も高速に収束する。
論文 参考訳(メタデータ) (2020-03-31T02:05:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。