論文の概要: Multimodal-Aware Weakly Supervised Metric Learning with Self-weighting
Triplet Loss
- arxiv url: http://arxiv.org/abs/2102.02670v1
- Date: Wed, 3 Feb 2021 07:27:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-05 16:38:31.703269
- Title: Multimodal-Aware Weakly Supervised Metric Learning with Self-weighting
Triplet Loss
- Title(参考訳): 自己重み付き三重項損失を伴うマルチモーダルアウェア重み付き計量学習
- Authors: Huiyuan Deng, Xiangzhu Meng, Lin Feng
- Abstract要約: MDaML (MultimoDal Aware weakly supervised Metric Learning) と呼ばれる新しい弱教師付きメトリック学習アルゴリズムを提案する。
MDaMLは、データ空間を複数のクラスタに分割し、各サンプルのローカルクラスタセンターとウェイトを割り当てる。
13のデータセットで実験を行い、提案したMDaMLの優位性を検証した。
- 参考スコア(独自算出の注目度): 2.010312620798609
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In recent years, we have witnessed a surge of interests in learning a
suitable distance metric from weakly supervised data. Most existing methods aim
to pull all the similar samples closer while push the dissimilar ones as far as
possible. However, when some classes of the dataset exhibit multimodal
distribution, these goals conflict and thus can hardly be concurrently
satisfied. Additionally, to ensure a valid metric, many methods require a
repeated eigenvalue decomposition process, which is expensive and numerically
unstable. Therefore, how to learn an appropriate distance metric from weakly
supervised data remains an open but challenging problem. To address this issue,
in this paper, we propose a novel weakly supervised metric learning algorithm,
named MultimoDal Aware weakly supervised Metric Learning (MDaML). MDaML
partitions the data space into several clusters and allocates the local cluster
centers and weight for each sample. Then, combining it with the weighted
triplet loss can further enhance the local separability, which encourages the
local dissimilar samples to keep a large distance from the local similar
samples. Meanwhile, MDaML casts the metric learning problem into an
unconstrained optimization on the SPD manifold, which can be efficiently solved
by Riemannian Conjugate Gradient Descent (RCGD). Extensive experiments
conducted on 13 datasets validate the superiority of the proposed MDaML.
- Abstract(参考訳): 近年、我々は弱い監督されたデータから適切な距離メトリックを学ぶための関心の急増を目撃しました。
既存のほとんどのメソッドは、類似のサンプルをできるだけ遠くまで押しながら、類似のサンプルを近づけることを目指しています。
しかし、データセットのいくつかのクラスがマルチモーダル分布を示す場合、これらのゴールは相反するので、同時に満足できない。
さらに、有効な計量を保証するために、多くの手法は、高価で数値的に不安定な繰り返し固有値分解プロセスを必要とする。
したがって、弱い教師付きデータから適切な距離距離を学習する方法は、オープンだが難しい問題である。
本稿では,mdaml(multimodal aware weakly supervised metric learning)と呼ばれる,新しい弱教師付きメトリック学習アルゴリズムを提案する。
MDaMLは、データ空間を複数のクラスタに分割し、各サンプルのローカルクラスタセンターとウェイトを割り当てる。
そして、重み付き三重項損失と組み合わせることで、局所分離性がさらに向上し、局所的異種試料が局所類似試料との距離を大きく保つことができる。
一方、MDaMLは、計量学習問題をSPD多様体上の制約のない最適化にキャストし、リーマン共役勾配 Descent (RCGD) によって効率的に解ける。
13のデータセット上で実施された広範な実験は、提案されたMDaMLの優位性を検証する。
関連論文リスト
- Querying Easily Flip-flopped Samples for Deep Active Learning [63.62397322172216]
アクティブラーニング(英: Active Learning)は、ラベルのないデータを戦略的に選択してクエリすることで、モデルの性能を向上させることを目的とした機械学習パラダイムである。
効果的な選択戦略の1つはモデルの予測の不確実性に基づくもので、サンプルがどの程度情報的であるかの尺度として解釈できる。
本稿では,予測されたラベルの不一致の最小確率として,最小不一致距離(LDM)を提案する。
論文 参考訳(メタデータ) (2024-01-18T08:12:23Z) - Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - Instance-Variant Loss with Gaussian RBF Kernel for 3D Cross-modal
Retriveal [52.41252219453429]
既存の方法は全てのインスタンスを等しく扱い、同じペナルティ強度を様々な難易度を持つインスタンスに適用する。
これは曖昧な収束や局所最適性をもたらし、特徴空間の分離性を著しく妥協させる。
本稿では,異なるインスタンスに対して異なるペナルティ強度を割り当て,空間分離性を向上させるインスタンス・ヴァリアント損失を提案する。
論文 参考訳(メタデータ) (2023-05-07T10:12:14Z) - DAS: Densely-Anchored Sampling for Deep Metric Learning [43.81322638018864]
本研究では, アンカー近傍の埋め込み空間を利用してデータポイントのない埋め込みを密に生成するDensely-Anchored Smpling (DAS) 方式を提案する。
提案手法は既存のDMLフレームワークに統合され,ベルやホイッスルを使わずに改善されている。
論文 参考訳(メタデータ) (2022-07-30T02:07:46Z) - Adaptive neighborhood Metric learning [184.95321334661898]
適応的近傍距離距離学習(ANML)という新しい距離距離距離距離距離距離学習アルゴリズムを提案する。
ANMLは線形埋め込みと深層埋め込みの両方を学ぶのに使うことができる。
本手法で提案するemphlog-exp平均関数は,深層学習手法をレビューするための新たな視点を与える。
論文 参考訳(メタデータ) (2022-01-20T17:26:37Z) - Exploring Adversarial Robustness of Deep Metric Learning [25.12224002984514]
DMLはディープニューラルネットワークアーキテクチャを使用して、入力のセマンティック埋め込みを学習する。
私たちは、ミニバッチのサンプルに依存しているメトリック損失の主な課題に取り組みます。
3つの一般的なDMLデータセットの実験を使用して、逆転精度の5-76倍の増加を実証する。
論文 参考訳(メタデータ) (2021-02-14T23:18:12Z) - Multi-level Distance Regularization for Deep Metric Learning [20.178765779788492]
MDR(Multi-level Distance Regularization)と呼ばれる深度学習のための距離に基づく新しい正規化手法を提案する。
MDRは、埋め込みベクトル間のペアワイズ距離を複数のレベルに調整することで、学習手順を明示的に妨害する。
我々のMDRを簡単に採用することで、従来のアプローチは性能と一般化能力を向上させることができる。
論文 参考訳(メタデータ) (2021-02-08T14:16:07Z) - Attentional-Biased Stochastic Gradient Descent [74.49926199036481]
深層学習におけるデータ不均衡やラベルノイズ問題に対処するための証明可能な手法(ABSGD)を提案する。
本手法は運動量SGDの簡易な修正であり,各試料に個別の重み付けを行う。
ABSGDは追加コストなしで他の堅牢な損失と組み合わせられるほど柔軟である。
論文 参考訳(メタデータ) (2020-12-13T03:41:52Z) - Deep Metric Learning Meets Deep Clustering: An Novel Unsupervised
Approach for Feature Embedding [32.8693763689033]
Unsupervised Deep Distance Metric Learning (UDML)は、ラベルのないデータセットから埋め込み空間のサンプル類似性を学ぶことを目的としている。
従来のUDML法は通常、正と負のサンプルの採掘を必要とする三重項損失または対損失を用いる。
しかし、ラベル情報が入手できないため、教師なしの設定ではこれは難しい。
本稿では,その課題を克服する新しいUDML手法を提案する。
論文 参考訳(メタデータ) (2020-09-09T04:02:04Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。