論文の概要: Adaptive neighborhood Metric learning
- arxiv url: http://arxiv.org/abs/2201.08314v1
- Date: Thu, 20 Jan 2022 17:26:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-21 14:32:43.058661
- Title: Adaptive neighborhood Metric learning
- Title(参考訳): 適応的近隣メトリック学習
- Authors: Kun Song, Junwei Han, Gong Cheng, Jiwen Lu, Feiping Nie
- Abstract要約: 適応的近傍距離距離学習(ANML)という新しい距離距離距離距離距離距離学習アルゴリズムを提案する。
ANMLは線形埋め込みと深層埋め込みの両方を学ぶのに使うことができる。
本手法で提案するemphlog-exp平均関数は,深層学習手法をレビューするための新たな視点を与える。
- 参考スコア(独自算出の注目度): 184.95321334661898
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this paper, we reveal that metric learning would suffer from serious
inseparable problem if without informative sample mining. Since the inseparable
samples are often mixed with hard samples, current informative sample mining
strategies used to deal with inseparable problem may bring up some
side-effects, such as instability of objective function, etc. To alleviate this
problem, we propose a novel distance metric learning algorithm, named adaptive
neighborhood metric learning (ANML). In ANML, we design two thresholds to
adaptively identify the inseparable similar and dissimilar samples in the
training procedure, thus inseparable sample removing and metric parameter
learning are implemented in the same procedure. Due to the non-continuity of
the proposed ANML, we develop an ingenious function, named \emph{log-exp mean
function} to construct a continuous formulation to surrogate it, which can be
efficiently solved by the gradient descent method. Similar to Triplet loss,
ANML can be used to learn both the linear and deep embeddings. By analyzing the
proposed method, we find it has some interesting properties. For example, when
ANML is used to learn the linear embedding, current famous metric learning
algorithms such as the large margin nearest neighbor (LMNN) and neighbourhood
components analysis (NCA) are the special cases of the proposed ANML by setting
the parameters different values. When it is used to learn deep features, the
state-of-the-art deep metric learning algorithms such as Triplet loss, Lifted
structure loss, and Multi-similarity loss become the special cases of ANML.
Furthermore, the \emph{log-exp mean function} proposed in our method gives a
new perspective to review the deep metric learning methods such as Prox-NCA and
N-pairs loss. At last, promising experimental results demonstrate the
effectiveness of the proposed method.
- Abstract(参考訳): 本稿では,サンプルマイニングを行なわなければ,メトリクス学習は深刻な分離不能な問題に苦しむことを明らかにする。
分離不能なサンプルはしばしば硬いサンプルと混合されるため、分離不能な問題に対処するために使用される現在の情報的サンプルマイニング戦略は、目的関数の不安定性などの副作用を引き起こす可能性がある。
そこで本研究では,新しい距離距離メトリック学習アルゴリズムであるadaptive neighborhood metric learning (anml)を提案する。
ANMLでは、トレーニング手順において、分離不能な類似サンプルと異種サンプルを適応的に識別する2つの閾値を設計し、分離不能なサンプル除去とパラメータ学習を同じ手順で実施する。
提案したANMLの不連続性のため, 連続的な定式化を構築し, 勾配降下法により効率よく解けるような, 創発的関数である 'emph{log-exp mean function} を開発した。
Tripletの損失と同様に、ANMLは線形と深い埋め込みの両方を学ぶのに使うことができる。
提案手法を解析した結果,興味深い性質が得られた。
例えば、線形埋め込みの学習にANMLを使用する場合、パラメータを異なる値に設定することで、提案したANMLの特別な場合として、大きな辺近傍(LMNN)や近傍成分分析(NCA)といった現在の有名なメトリック学習アルゴリズムが用いられる。
深い特徴を学習する際には、トリプルト損失、リフテッド構造損失、多相性損失といった最先端の深度学習アルゴリズムがANMLの特殊なケースとなる。
さらに,本手法で提案した「emph{log-exp mean function」は,Prox-NCAやN対損失といった深度学習手法を考察するための新たな視点を与える。
最後に,提案手法の有効性を示す有望な実験結果を得た。
関連論文リスト
- Robust Analysis of Multi-Task Learning Efficiency: New Benchmarks on Light-Weighed Backbones and Effective Measurement of Multi-Task Learning Challenges by Feature Disentanglement [69.51496713076253]
本稿では,既存のMTL手法の効率性に焦点をあてる。
バックボーンを小さくしたメソッドの大規模な実験と,MetaGraspNetデータセットを新しいテストグラウンドとして実施する。
また,MTLにおける課題の新規かつ効率的な識別子として,特徴分散尺度を提案する。
論文 参考訳(メタデータ) (2024-02-05T22:15:55Z) - Querying Easily Flip-flopped Samples for Deep Active Learning [63.62397322172216]
アクティブラーニング(英: Active Learning)は、ラベルのないデータを戦略的に選択してクエリすることで、モデルの性能を向上させることを目的とした機械学習パラダイムである。
効果的な選択戦略の1つはモデルの予測の不確実性に基づくもので、サンプルがどの程度情報的であるかの尺度として解釈できる。
本稿では,予測されたラベルの不一致の最小確率として,最小不一致距離(LDM)を提案する。
論文 参考訳(メタデータ) (2024-01-18T08:12:23Z) - On Training Implicit Meta-Learning With Applications to Inductive
Weighing in Consistency Regularization [0.0]
暗黙的メタラーニング(IML)では、特にヘシアン(Hessian)の計算に2ドル(約2,200円)の勾配を必要とする。
ヘッセンの様々な近似が提案されたが、計算コスト、安定性、解の一般化、推定精度の体系的な比較はほとんど見過ごされてしまった。
本稿では,ドメイン固有の特徴を抽出するために,信頼ネットワークをトレーニングすることで,有用画像のアップウェイトや配布外サンプルのダウンウェイトを学べることを示す。
論文 参考訳(メタデータ) (2023-10-28T15:50:03Z) - An Adaptive Plug-and-Play Network for Few-Shot Learning [12.023266104119289]
少数のサンプルから学んだ後、新しいサンプルを分類するモデルが必要である。
ディープネットワークと複雑なメトリクスはオーバーフィッティングを引き起こす傾向があり、パフォーマンスをさらに改善することは困難である。
プラグアンドプレイ型モデル適応型リサイザ (MAR) とアダプティブ類似度測定器 (ASM) をその他の損失なく提案する。
論文 参考訳(メタデータ) (2023-02-18T13:25:04Z) - Adaptive Hierarchical Similarity Metric Learning with Noisy Labels [138.41576366096137]
適応的階層的類似度メトリック学習法を提案する。
ノイズに敏感な2つの情報、すなわち、クラスワイドのばらつきとサンプルワイドの一貫性を考える。
提案手法は,現在の深層学習手法と比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2021-10-29T02:12:18Z) - Exploring Adversarial Robustness of Deep Metric Learning [25.12224002984514]
DMLはディープニューラルネットワークアーキテクチャを使用して、入力のセマンティック埋め込みを学習する。
私たちは、ミニバッチのサンプルに依存しているメトリック損失の主な課題に取り組みます。
3つの一般的なDMLデータセットの実験を使用して、逆転精度の5-76倍の増加を実証する。
論文 参考訳(メタデータ) (2021-02-14T23:18:12Z) - A Rigorous Machine Learning Analysis Pipeline for Biomedical Binary
Classification: Application in Pancreatic Cancer Nested Case-control Studies
with Implications for Bias Assessments [2.9726886415710276]
バイナリ分類にフォーカスした、厳格で厳格なML分析パイプラインをレイアウトし、組み立てました。
この'自動'だがカスタマイズ可能なパイプラインは、a)探索分析、b)データのクリーニングと変換、c)特徴選択、d)9つの確立されたMLアルゴリズムによるモデルトレーニングを含む。
本パイプラインは,癌に対する確立された,新たに同定されたリスクファクターの疫学的検討に適用し,MLアルゴリズムによって異なるバイアス源がどのように扱われるかを評価する。
論文 参考訳(メタデータ) (2020-08-28T19:58:05Z) - ECML: An Ensemble Cascade Metric Learning Mechanism towards Face
Verification [50.137924223702264]
特に、階層的メートル法学習はカスケード方式で実行され、不適合を緩和する。
顔の特徴分布特性を考慮し, 閉形解を用いたロバストなマハラノビス計量学習法(RMML)を提案する。
EC-RMMLは、顔認証のための最先端のメトリック学習法よりも優れている。
論文 参考訳(メタデータ) (2020-07-11T08:47:07Z) - Localized Debiased Machine Learning: Efficient Inference on Quantile
Treatment Effects and Beyond [69.83813153444115]
因果推論における(局所)量子化処理効果((L)QTE)の効率的な推定式を検討する。
Debiased Machine Learning (DML)は、高次元のニュアンスを推定するデータ分割手法である。
本稿では、この負担のかかるステップを避けるために、局所的脱バイアス機械学習(LDML)を提案する。
論文 参考訳(メタデータ) (2019-12-30T14:42:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。