論文の概要: Potential Field Based Deep Metric Learning
- arxiv url: http://arxiv.org/abs/2405.18560v2
- Date: Sun, 01 Dec 2024 05:22:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-03 16:57:10.999200
- Title: Potential Field Based Deep Metric Learning
- Title(参考訳): ポテンシャル場に基づくDeep Metric Learning
- Authors: Shubhang Bhatnagar, Narendra Ahuja,
- Abstract要約: ディープメトリック学習は、意味的に意味のある表現空間を学ぶためにネットワークを訓練する。
物理学における静電場に着想を得た新しい合成DMLモデルを提案する。
このような減衰は,クラス内変動が大きく,ラベルノイズも大きい実世界のデータセットの性能向上に有効であることを示す。
- 参考スコア(独自算出の注目度): 8.670873561640903
- License:
- Abstract: Deep metric learning (DML) involves training a network to learn a semantically meaningful representation space. Many current approaches mine n-tuples of examples and model interactions within each tuplets. We present a novel, compositional DML model, inspired by electrostatic fields in physics that, instead of in tuples, represents the influence of each example (embedding) by a continuous potential field, and superposes the fields to obtain their combined global potential field. We use attractive/repulsive potential fields to represent interactions among embeddings from images of the same/different classes. Contrary to typical learning methods, where mutual influence of samples is proportional to their distance, we enforce reduction in such influence with distance, leading to a decaying field. We show that such decay helps improve performance on real world datasets with large intra-class variations and label noise. Like other proxy-based methods, we also use proxies to succinctly represent sub-populations of examples. We evaluate our method on three standard DML benchmarks- Cars-196, CUB-200-2011, and SOP datasets where it outperforms state-of-the-art baselines.
- Abstract(参考訳): ディープ・メトリック・ラーニング(DML)は、意味的に意味のある表現空間を学ぶためにネットワークを訓練する。
現在の多くのアプローチは、各タプレット内の例とモデル相互作用のn-タプルをマイニングしている。
本稿では, 電場から着想を得た新しい構成DMLモデルを提案する。このモデルでは, タプルではなく, 連続ポテンシャル場による各例(埋め込み)の影響を表現し, それらの結合した大域ポテンシャル場を得るために, 電場を重畳する。
我々は、同じ/異なるクラスの画像からの埋め込み間の相互作用を表現するために、魅力的な/反発的なポテンシャル場を使用する。
サンプルの相互影響が距離に比例する典型的な学習法とは対照的に、距離による影響の低減を強制し、崩壊する分野へと導く。
このような減衰は,クラス内変動が大きく,ラベルノイズも大きい実世界のデータセットの性能向上に有効であることを示す。
他のプロキシベースのメソッドと同様に、プロキシを使ってサンプルのサブポピュレーションを簡潔に表現します。
本稿では,Cars-196,CUB-200-2011,SOPの3つの標準DMLベンチマークを用いて評価を行った。
関連論文リスト
- Exploiting Field Dependencies for Learning on Categorical Data [33.2727127163419]
本稿では,フィールド間の依存関係を利用した分類データ学習手法を提案する。
提案手法は単純だが,6つの一般的なデータセットベンチマークにおいて,最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2023-07-18T15:03:56Z) - Synthetic-to-Real Domain Generalized Semantic Segmentation for 3D Indoor
Point Clouds [69.64240235315864]
本稿では,本課題に対して,合成-実領域一般化設定を提案する。
合成と実世界のポイントクラウドデータのドメインギャップは、主に異なるレイアウトとポイントパターンにあります。
CINMixとMulti-prototypeの両方が分配ギャップを狭めることを示した。
論文 参考訳(メタデータ) (2022-12-09T05:07:43Z) - Dynamic Latent Separation for Deep Learning [67.62190501599176]
機械学習の中核的な問題は、複雑なデータに対するモデル予測のための表現力のある潜在変数を学習することである。
本稿では,表現性を向上し,部分的解釈を提供し,特定のアプリケーションに限定されないアプローチを開発する。
論文 参考訳(メタデータ) (2022-10-07T17:56:53Z) - FV-UPatches: Enhancing Universality in Finger Vein Recognition [0.6299766708197883]
限られたデータで学習しながら一般化を実現するユニバーサルラーニングベースのフレームワークを提案する。
提案フレームワークは、他の静脈ベースの生体認証にも応用可能性を示す。
論文 参考訳(メタデータ) (2022-06-02T14:20:22Z) - CHALLENGER: Training with Attribution Maps [63.736435657236505]
ニューラルネットワークのトレーニングに属性マップを利用すると、モデルの正規化が向上し、性能が向上することを示す。
特に、我々の汎用的なドメインに依存しないアプローチは、ビジョン、自然言語処理、時系列タスクにおける最先端の結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-05-30T13:34:46Z) - Contrastive Neighborhood Alignment [81.65103777329874]
本稿では,学習特徴のトポロジを維持するための多様体学習手法であるContrastive Neighborhood Alignment(CNA)を提案する。
対象モデルは、対照的な損失を用いて、ソース表現空間の局所構造を模倣することを目的としている。
CNAは3つのシナリオで説明される: 多様体学習、モデルが元のデータの局所的なトポロジーを次元還元された空間で維持する、モデル蒸留、小さな学生モデルがより大きな教師を模倣するために訓練される、レガシーモデル更新、より強力なモデルに置き換えられる、という3つのシナリオである。
論文 参考訳(メタデータ) (2022-01-06T04:58:31Z) - Semi-Supervised Domain Adaptation with Prototypical Alignment and
Consistency Learning [86.6929930921905]
本稿では,いくつかの対象サンプルがラベル付けされていれば,ドメインシフトに対処するのにどの程度役立つか検討する。
ランドマークの可能性を最大限に追求するために、ランドマークから各クラスのターゲットプロトタイプを計算するプロトタイプアライメント(PA)モジュールを組み込んでいます。
具体的には,ラベル付き画像に深刻な摂動を生じさせ,PAを非自明にし,モデル一般化性を促進する。
論文 参考訳(メタデータ) (2021-04-19T08:46:08Z) - Relation-Guided Representation Learning [53.60351496449232]
本稿では,サンプル関係を明示的にモデル化し,活用する表現学習手法を提案する。
私たちのフレームワークは、サンプル間の関係をよく保存します。
サンプルをサブスペースに埋め込むことにより,本手法が大規模なサンプル外問題に対処可能であることを示す。
論文 参考訳(メタデータ) (2020-07-11T10:57:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。