論文の概要: Adaptive neighborhood Metric learning
- arxiv url: http://arxiv.org/abs/2201.08314v1
- Date: Thu, 20 Jan 2022 17:26:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-21 14:32:43.058661
- Title: Adaptive neighborhood Metric learning
- Title(参考訳): 適応的近隣メトリック学習
- Authors: Kun Song, Junwei Han, Gong Cheng, Jiwen Lu, Feiping Nie
- Abstract要約: 適応的近傍距離距離学習(ANML)という新しい距離距離距離距離距離距離学習アルゴリズムを提案する。
ANMLは線形埋め込みと深層埋め込みの両方を学ぶのに使うことができる。
本手法で提案するemphlog-exp平均関数は,深層学習手法をレビューするための新たな視点を与える。
- 参考スコア(独自算出の注目度): 184.95321334661898
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this paper, we reveal that metric learning would suffer from serious
inseparable problem if without informative sample mining. Since the inseparable
samples are often mixed with hard samples, current informative sample mining
strategies used to deal with inseparable problem may bring up some
side-effects, such as instability of objective function, etc. To alleviate this
problem, we propose a novel distance metric learning algorithm, named adaptive
neighborhood metric learning (ANML). In ANML, we design two thresholds to
adaptively identify the inseparable similar and dissimilar samples in the
training procedure, thus inseparable sample removing and metric parameter
learning are implemented in the same procedure. Due to the non-continuity of
the proposed ANML, we develop an ingenious function, named \emph{log-exp mean
function} to construct a continuous formulation to surrogate it, which can be
efficiently solved by the gradient descent method. Similar to Triplet loss,
ANML can be used to learn both the linear and deep embeddings. By analyzing the
proposed method, we find it has some interesting properties. For example, when
ANML is used to learn the linear embedding, current famous metric learning
algorithms such as the large margin nearest neighbor (LMNN) and neighbourhood
components analysis (NCA) are the special cases of the proposed ANML by setting
the parameters different values. When it is used to learn deep features, the
state-of-the-art deep metric learning algorithms such as Triplet loss, Lifted
structure loss, and Multi-similarity loss become the special cases of ANML.
Furthermore, the \emph{log-exp mean function} proposed in our method gives a
new perspective to review the deep metric learning methods such as Prox-NCA and
N-pairs loss. At last, promising experimental results demonstrate the
effectiveness of the proposed method.
- Abstract(参考訳): 本稿では,サンプルマイニングを行なわなければ,メトリクス学習は深刻な分離不能な問題に苦しむことを明らかにする。
分離不能なサンプルはしばしば硬いサンプルと混合されるため、分離不能な問題に対処するために使用される現在の情報的サンプルマイニング戦略は、目的関数の不安定性などの副作用を引き起こす可能性がある。
そこで本研究では,新しい距離距離メトリック学習アルゴリズムであるadaptive neighborhood metric learning (anml)を提案する。
ANMLでは、トレーニング手順において、分離不能な類似サンプルと異種サンプルを適応的に識別する2つの閾値を設計し、分離不能なサンプル除去とパラメータ学習を同じ手順で実施する。
提案したANMLの不連続性のため, 連続的な定式化を構築し, 勾配降下法により効率よく解けるような, 創発的関数である 'emph{log-exp mean function} を開発した。
Tripletの損失と同様に、ANMLは線形と深い埋め込みの両方を学ぶのに使うことができる。
提案手法を解析した結果,興味深い性質が得られた。
例えば、線形埋め込みの学習にANMLを使用する場合、パラメータを異なる値に設定することで、提案したANMLの特別な場合として、大きな辺近傍(LMNN)や近傍成分分析(NCA)といった現在の有名なメトリック学習アルゴリズムが用いられる。
深い特徴を学習する際には、トリプルト損失、リフテッド構造損失、多相性損失といった最先端の深度学習アルゴリズムがANMLの特殊なケースとなる。
さらに,本手法で提案した「emph{log-exp mean function」は,Prox-NCAやN対損失といった深度学習手法を考察するための新たな視点を与える。
最後に,提案手法の有効性を示す有望な実験結果を得た。
関連論文リスト
- An Adaptive Plug-and-Play Network for Few-Shot Learning [12.023266104119289]
少数のサンプルから学んだ後、新しいサンプルを分類するモデルが必要である。
ディープネットワークと複雑なメトリクスはオーバーフィッティングを引き起こす傾向があり、パフォーマンスをさらに改善することは困難である。
プラグアンドプレイ型モデル適応型リサイザ (MAR) とアダプティブ類似度測定器 (ASM) をその他の損失なく提案する。
論文 参考訳(メタデータ) (2023-02-18T13:25:04Z) - Adaptive Hierarchical Similarity Metric Learning with Noisy Labels [138.41576366096137]
適応的階層的類似度メトリック学習法を提案する。
ノイズに敏感な2つの情報、すなわち、クラスワイドのばらつきとサンプルワイドの一貫性を考える。
提案手法は,現在の深層学習手法と比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2021-10-29T02:12:18Z) - MAML is a Noisy Contrastive Learner [72.04430033118426]
モデルに依存しないメタラーニング(MAML)は、今日では最も人気があり広く採用されているメタラーニングアルゴリズムの1つである。
我々は、MAMLの動作メカニズムに対する新たな視点を提供し、以下に示すように、MAMLは、教師付きコントラスト目的関数を用いたメタラーナーに類似している。
このような干渉を軽減するため, 単純だが効果的な手法であるゼロ化手法を提案する。
論文 参考訳(メタデータ) (2021-06-29T12:52:26Z) - Exploring Adversarial Robustness of Deep Metric Learning [25.12224002984514]
DMLはディープニューラルネットワークアーキテクチャを使用して、入力のセマンティック埋め込みを学習する。
私たちは、ミニバッチのサンプルに依存しているメトリック損失の主な課題に取り組みます。
3つの一般的なDMLデータセットの実験を使用して、逆転精度の5-76倍の増加を実証する。
論文 参考訳(メタデータ) (2021-02-14T23:18:12Z) - FILM: A Fast, Interpretable, and Low-rank Metric Learning Approach for
Sentence Matching [5.652294014986704]
FILM(Fast, Interpretable, Low-rank Metric Learning)を導入し,高次元データの高識別性投影を効率的に行う。
実験では,Quora Challenge and Semantic Textual similarity (STS) Taskに適用した。
その結果, FILM法は高速な計算速度だけでなく, 優れた性能が得られることがわかった。
論文 参考訳(メタデータ) (2020-10-12T08:24:41Z) - A Rigorous Machine Learning Analysis Pipeline for Biomedical Binary
Classification: Application in Pancreatic Cancer Nested Case-control Studies
with Implications for Bias Assessments [2.9726886415710276]
バイナリ分類にフォーカスした、厳格で厳格なML分析パイプラインをレイアウトし、組み立てました。
この'自動'だがカスタマイズ可能なパイプラインは、a)探索分析、b)データのクリーニングと変換、c)特徴選択、d)9つの確立されたMLアルゴリズムによるモデルトレーニングを含む。
本パイプラインは,癌に対する確立された,新たに同定されたリスクファクターの疫学的検討に適用し,MLアルゴリズムによって異なるバイアス源がどのように扱われるかを評価する。
論文 参考訳(メタデータ) (2020-08-28T19:58:05Z) - ECML: An Ensemble Cascade Metric Learning Mechanism towards Face
Verification [50.137924223702264]
特に、階層的メートル法学習はカスケード方式で実行され、不適合を緩和する。
顔の特徴分布特性を考慮し, 閉形解を用いたロバストなマハラノビス計量学習法(RMML)を提案する。
EC-RMMLは、顔認証のための最先端のメトリック学習法よりも優れている。
論文 参考訳(メタデータ) (2020-07-11T08:47:07Z) - Theoretical Convergence of Multi-Step Model-Agnostic Meta-Learning [63.64636047748605]
一般的なマルチステップMAMLアルゴリズムに対して収束保証を提供するための新しい理論フレームワークを開発する。
特に,本研究の結果は,収束を保証するためには,内部段階のステップを逆比例して$N$の内段ステップを選択する必要があることを示唆している。
論文 参考訳(メタデータ) (2020-02-18T19:17:54Z) - Localized Debiased Machine Learning: Efficient Inference on Quantile
Treatment Effects and Beyond [69.83813153444115]
因果推論における(局所)量子化処理効果((L)QTE)の効率的な推定式を検討する。
Debiased Machine Learning (DML)は、高次元のニュアンスを推定するデータ分割手法である。
本稿では、この負担のかかるステップを避けるために、局所的脱バイアス機械学習(LDML)を提案する。
論文 参考訳(メタデータ) (2019-12-30T14:42:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。