論文の概要: Non-isotropy Regularization for Proxy-based Deep Metric Learning
- arxiv url: http://arxiv.org/abs/2203.08547v1
- Date: Wed, 16 Mar 2022 11:13:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-17 22:05:10.262871
- Title: Non-isotropy Regularization for Proxy-based Deep Metric Learning
- Title(参考訳): プロキシに基づくDeep Metric Learningのための非等方正則化
- Authors: Karsten Roth, Oriol Vinyals, Zeynep Akata
- Abstract要約: 本稿では,プロキシに基づくDeep Metric Learningのための非等方正則化(mathbbNIR$)を提案する。
これにより、プロキシの周囲のサンプルの非等方分布を明示的に誘導して最適化することが可能になる。
実験では、競争力と最先端のパフォーマンスを達成しながら、$mathbbNIR$の一貫性のある一般化の利点を強調している。
- 参考スコア(独自算出の注目度): 78.18860829585182
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Metric Learning (DML) aims to learn representation spaces on which
semantic relations can simply be expressed through predefined distance metrics.
Best performing approaches commonly leverage class proxies as sample stand-ins
for better convergence and generalization. However, these proxy-methods solely
optimize for sample-proxy distances. Given the inherent non-bijectiveness of
used distance functions, this can induce locally isotropic sample
distributions, leading to crucial semantic context being missed due to
difficulties resolving local structures and intraclass relations between
samples. To alleviate this problem, we propose non-isotropy regularization
($\mathbb{NIR}$) for proxy-based Deep Metric Learning. By leveraging
Normalizing Flows, we enforce unique translatability of samples from their
respective class proxies. This allows us to explicitly induce a non-isotropic
distribution of samples around a proxy to optimize for. In doing so, we equip
proxy-based objectives to better learn local structures. Extensive experiments
highlight consistent generalization benefits of $\mathbb{NIR}$ while achieving
competitive and state-of-the-art performance on the standard benchmarks
CUB200-2011, Cars196 and Stanford Online Products. In addition, we find the
superior convergence properties of proxy-based methods to still be retained or
even improved, making $\mathbb{NIR}$ very attractive for practical usage. Code
available at https://github.com/ExplainableML/NonIsotropicProxyDML.
- Abstract(参考訳): Deep Metric Learning (DML) は、意味的関係を予め定義された距離メトリクスで簡単に表現できる表現空間を学習することを目的としている。
ベストパフォーマンスアプローチは、よくクラスプロキシをサンプルのスタンドインとして利用して収束と一般化を改善する。
しかし、これらのプロキシメソッドはサンプルプロキシ距離のみを最適化する。
使用距離関数の固有の非単射性を考えると、これは局所等方性サンプル分布を誘導し、局所構造を解くのが困難であり、サンプル間のクラス内関係が欠落する。
この問題を緩和するために、プロキシベースのDeep Metric Learningのための非等方正則化($\mathbb{NIR}$)を提案する。
フローの正規化を活用することで,各クラスプロキシからのサンプルのユニークな変換性を実現する。
これにより、プロキシの周囲のサンプルの非等方分布を明示的に誘導して最適化することが可能になる。
そのため、プロキシベースの目的を設定して、ローカル構造をよりよく学習する。
大規模な実験は、標準ベンチマークであるCUB200-2011、Cars196、Stanford Online Productsの競争力と最先端のパフォーマンスを達成しつつ、$\mathbb{NIR}$の一貫性のある一般化の利点を強調している。
さらに、プロキシベースのメソッドの優れた収束特性は保持または改善される必要があり、実使用には$\mathbb{nir}$が非常に魅力的である。
コードはhttps://github.com/explainableml/nonisotropicproxydml。
関連論文リスト
- Towards Improved Proxy-based Deep Metric Learning via Data-Augmented
Domain Adaptation [15.254782791542329]
本稿では,プロキシに基づくDeep Metric Learningフレームワークを提案する。
本稿では,データ拡張ドメイン適応法(Data-Augmented Domain Adaptation, DADA)を提案する。
一般的なCUB-200-2011を含むベンチマーク実験により,我々の学習アルゴリズムは既存のプロキシ損失を大幅に改善することを示した。
論文 参考訳(メタデータ) (2024-01-01T00:10:58Z) - Deep Metric Learning with Soft Orthogonal Proxies [1.823505080809275]
本稿では,プロキシにソフト直交性(SO)制約を導入する新しいアプローチを提案する。
提案手法では,DMLの目的と合わせて,画像からコンテキスト特徴を抽出するエンコーダとして,データ効率の良い画像変換器(DeiT)を利用する。
提案手法が最先端手法よりも有意なマージンで優れていることを示す。
論文 参考訳(メタデータ) (2023-06-22T17:22:15Z) - Deep Metric Learning with Chance Constraints [6.965621436414179]
ディープ・メトリック・ラーニング (DML) は, 組込み空間における対方向/クラス間近接違反の期待損失を実証することを目的としている。
我々は,プロキシベースのDMLの最小化は一定の確率制約を満たすことを示し,最悪の場合の一般化に基づく手法は,クラスプロキシの周辺にある最小の球の半径が対応するクラスサンプルの領域全体をカバーすることで特徴付けられることを示した。
論文 参考訳(メタデータ) (2022-09-19T14:50:48Z) - A Non-isotropic Probabilistic Take on Proxy-based Deep Metric Learning [49.999268109518255]
プロキシベースのDeep Metric Learningは、クラス代表者(プロキシ)に画像を埋め込むことで学習する
さらに、プロキシベースのDMLは、クラス内部構造を学ぶのに苦労している。
両問題に対処するために,非等方的確率的プロキシベースDMLを導入する。
論文 参考訳(メタデータ) (2022-07-08T09:34:57Z) - Self-Ensembling GAN for Cross-Domain Semantic Segmentation [107.27377745720243]
本稿では,セマンティックセグメンテーションのためのクロスドメインデータを利用した自己理解型生成逆数ネットワーク(SE-GAN)を提案する。
SE-GANでは、教師ネットワークと学生ネットワークは、意味分節マップを生成するための自己組織化モデルを構成する。
その単純さにもかかわらず、SE-GANは敵の訓練性能を大幅に向上させ、モデルの安定性を高めることができる。
論文 参考訳(メタデータ) (2021-12-15T09:50:25Z) - Instance Similarity Learning for Unsupervised Feature Representation [83.31011038813459]
教師なし特徴表現のための例類似性学習(ISL)手法を提案する。
我々はGAN(Generative Adversarial Networks)を用いて、基礎となる特徴多様体をマイニングする。
画像分類実験は, 最先端手法と比較して, 提案手法の優位性を示した。
論文 参考訳(メタデータ) (2021-08-05T16:42:06Z) - How Fine-Tuning Allows for Effective Meta-Learning [50.17896588738377]
MAMLライクなアルゴリズムから派生した表現を解析するための理論的フレームワークを提案する。
我々は,勾配降下による微調整により得られる最良予測器のリスク境界を提示し,アルゴリズムが共有構造を有効活用できることを実証する。
この分離の結果、マイニングベースのメソッド、例えばmamlは、少数ショット学習における"frozen representation"目標を持つメソッドよりも優れている。
論文 参考訳(メタデータ) (2021-05-05T17:56:00Z) - Fewer is More: A Deep Graph Metric Learning Perspective Using Fewer
Proxies [65.92826041406802]
本稿では,グラフ分類の観点から,プロキシベースのディープグラフメトリックラーニング手法を提案する。
複数のグローバルプロキシを利用して、各クラスの元のデータポイントを総括的に近似する。
本研究では, 近接関係を接地トラス・ラベルに従って調整する, 新たな逆ラベル伝搬アルゴリズムを設計する。
論文 参考訳(メタデータ) (2020-10-26T14:52:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。