論文の概要: Realigned Softmax Warping for Deep Metric Learning
- arxiv url: http://arxiv.org/abs/2408.15656v1
- Date: Wed, 28 Aug 2024 09:17:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-29 16:21:03.659127
- Title: Realigned Softmax Warping for Deep Metric Learning
- Title(参考訳): 深層学習のためのソフトマックスワープ
- Authors: Michael G. DeMoor, John J. Prevost,
- Abstract要約: 本稿では,ユークリッド領域内で機能する新たな損失関数のクラスを提案する。
これらのコンパクト性と分離性の力は、ワープ関数を用いることで、自由に制御された位置で強化または緩和することができる。
- 参考スコア(独自算出の注目度): 1.2891210250935148
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Metric Learning (DML) loss functions traditionally aim to control the forces of separability and compactness within an embedding space so that the same class data points are pulled together and different class ones are pushed apart. Within the context of DML, a softmax operation will typically normalize distances into a probability for optimization, thus coupling all the push/pull forces together. This paper proposes a potential new class of loss functions that operate within a euclidean domain and aim to take full advantage of the coupled forces governing embedding space formation under a softmax. These forces of compactness and separability can be boosted or mitigated within controlled locations at will by using a warping function. In this work, we provide a simple example of a warping function and use it to achieve competitive, state-of-the-art results on various metric learning benchmarks.
- Abstract(参考訳): ディープ・メトリック・ラーニング(DML)の損失関数は、伝統的に、埋め込み空間内の分離性とコンパクト性の力をコントロールすることを目的としており、同じクラスデータポイントをまとめて、異なるクラスを分割する。
DMLの文脈内では、ソフトマックス演算は通常、距離を最適化の確率に正規化し、すべてのプッシュ/プル力を結合する。
本稿では,ユークリッド領域内で動作し,ソフトマックス下での埋め込み空間形成を規定する結合力のフル活用を目的とした,潜在的に新しい損失関数のクラスを提案する。
これらのコンパクト性と分離性の力は、ワープ関数を用いることで、自由に制御された位置で強化または緩和することができる。
本研究では,ワーピング関数の簡単な例を示し,様々なメトリクス学習ベンチマークの競合的かつ最先端な結果を得るために使用する。
関連論文リスト
- Anti-Collapse Loss for Deep Metric Learning Based on Coding Rate Metric [99.19559537966538]
DMLは、分類、クラスタリング、検索といった下流タスクのための識別可能な高次元埋め込み空間を学習することを目的としている。
埋め込み空間の構造を維持し,特徴の崩壊を避けるために,反崩壊損失と呼ばれる新しい損失関数を提案する。
ベンチマークデータセットの総合実験により,提案手法が既存の最先端手法より優れていることを示す。
論文 参考訳(メタデータ) (2024-07-03T13:44:20Z) - Federated Learning under Partially Class-Disjoint Data via Manifold Reshaping [64.58402571292723]
我々はFedMRと呼ばれる多様体再構成手法を提案し、局所訓練の特徴空間を校正する。
我々は、FedMRがはるかに高い精度と通信効率を達成することを示すために、さまざまなデータセットに関する広範な実験を行います。
論文 参考訳(メタデータ) (2024-05-29T10:56:13Z) - Large Margin Discriminative Loss for Classification [3.3975558777609915]
本稿では,Deep Learning の文脈において,大きなマージンを持つ新たな識別的損失関数を提案する。
この損失は、クラス内コンパクト性とクラス間分離性によって表されるニューラルネットの識別力を高める。
論文 参考訳(メタデータ) (2024-05-28T18:10:45Z) - Maximally Compact and Separated Features with Regular Polytope Networks [22.376196701232388]
本稿では, CNN から抽出する方法として, クラス間分離性とクラス間圧縮性の特性について述べる。
我々は、よく知られた citewen2016discriminative や他の類似したアプローチで得られる特徴と類似した特徴を得る。
論文 参考訳(メタデータ) (2023-01-15T15:20:57Z) - Adaptive-Gravity: A Defense Against Adversarial Samples [21.55567781552672]
本稿では、ニューラルネットワークの深い分類器の強靭性を高めるために、Adaptive-Gravityと呼ばれる新しいモデルトレーニングソリューションを提案する。
各クラスタに関連付けられたセントロイドを用いて、異なるクラスのセントロイドを互いに引き離す反重力力を導出する。
実験結果から,Gravityは,最先端の敵攻撃に対するモデル強化のための強力な手段として機能するだけでなく,モデルのトレーニング精度を効果的に向上することが示された。
論文 参考訳(メタデータ) (2022-04-07T18:55:27Z) - Compressing Deep ODE-Nets using Basis Function Expansions [105.05435207079759]
重みの定式化を基底関数の線形結合を用いた連続深度関数とみなす。
この観点では、ほぼ最先端の性能を維持しながら、再トレーニングすることなく、ベースの変化によって重みを圧縮することができる。
これにより、推論時間とメモリフットプリントの両方が削減され、計算環境間の高速で厳密な適応が可能となる。
論文 参考訳(メタデータ) (2021-06-21T03:04:51Z) - Dynamic Probabilistic Pruning: A general framework for
hardware-constrained pruning at different granularities [80.06422693778141]
異なる粒度(重み、カーネル、フィルタ/フィーチャーマップ)での刈り取りを容易にするフレキシブルな新しい刈り取り機構を提案する。
このアルゴリズムをDPP(Dynamic Probabilistic Pruning)と呼ぶ。
DPPは、画像分類のための異なるベンチマークデータセットで訓練された一般的なディープラーニングモデルを刈り取る際に、競合圧縮率と分類精度を達成する。
論文 参考訳(メタデータ) (2021-05-26T17:01:52Z) - Fast Gravitational Approach for Rigid Point Set Registration with
Ordinary Differential Equations [79.71184760864507]
本稿では,FGA(Fast Gravitational Approach)と呼ばれる厳密な点集合アライメントのための物理に基づく新しい手法を紹介する。
FGAでは、ソースとターゲットの点集合は、シミュレーションされた重力場内を移動しながら、世界規模で多重リンクされた方法で相互作用する質量を持つ剛体粒子群として解釈される。
従来のアライメント手法では,新しいメソッドクラスには特徴がないことを示す。
論文 参考訳(メタデータ) (2020-09-28T15:05:39Z) - Towards Certified Robustness of Distance Metric Learning [53.96113074344632]
我々は,距離学習アルゴリズムの一般化とロバスト性を改善するために,入力空間に逆のマージンを付与することを提唱する。
アルゴリズム的ロバスト性の理論手法を用いることにより,拡張マージンは一般化能力に有益であることを示す。
論文 参考訳(メタデータ) (2020-06-10T16:51:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。