論文の概要: A Multilayer Framework for Online Metric Learning
- arxiv url: http://arxiv.org/abs/1805.05510v3
- Date: Thu, 24 Aug 2023 05:37:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-28 18:37:46.680404
- Title: A Multilayer Framework for Online Metric Learning
- Title(参考訳): オンラインメトリクス学習のための多層フレームワーク
- Authors: Wenbin Li, Yanfang Liu, Jing Huo, Yinghuan Shi, Yang Gao, Lei Wang and
Jiebo Luo
- Abstract要約: 本稿では,インスタンス間の非線形類似性を捉えるために,オンラインメトリック学習のための多層フレームワークを提案する。
マハラノビスをベースとした新しいオンラインメトリックラーニング(MOML)アルゴリズムは、受動攻撃戦略とワンパス三重項構築戦略に基づいて提案される。
提案したMLOMLは、いくつかの優れた特性を享受し、実際にメトリクスを漸進的に学習し、ベンチマークデータセットでより良いパフォーマンスを発揮する。
- 参考スコア(独自算出の注目度): 71.31889711244739
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Online metric learning has been widely applied in classification and
retrieval. It can automatically learn a suitable metric from data by
restricting similar instances to be separated from dissimilar instances with a
given margin. However, the existing online metric learning algorithms have
limited performance in real-world classifications, especially when data
distributions are complex. To this end, this paper proposes a multilayer
framework for online metric learning to capture the nonlinear similarities
among instances. Different from the traditional online metric learning, which
can only learn one metric space, the proposed Multi-Layer Online Metric
Learning (MLOML) takes an online metric learning algorithm as a metric layer
and learns multiple hierarchical metric spaces, where each metric layer follows
a nonlinear layers for the complicated data distribution. Moreover, the forward
propagation (FP) strategy and backward propagation (BP) strategy are employed
to train the hierarchical metric layers. To build a metric layer of the
proposed MLOML, a new Mahalanobis-based Online Metric Learning (MOML) algorithm
is presented based on the passive-aggressive strategy and one-pass triplet
construction strategy. Furthermore, in a progressively and nonlinearly learning
way, MLOML has a stronger learning ability than traditional online metric
learning in the case of limited available training data. To make the learning
process more explainable and theoretically guaranteed, theoretical analysis is
provided. The proposed MLOML enjoys several nice properties, indeed learns a
metric progressively, and performs better on the benchmark datasets. Extensive
experiments with different settings have been conducted to verify these
properties of the proposed MLOML.
- Abstract(参考訳): オンラインメトリック学習は、分類と検索に広く応用されている。
与えられたマージンを持つ異種インスタンスから分離される類似のインスタンスを制限することで、データから適切なメトリックを自動的に学習することができる。
しかし、既存のオンラインメトリック学習アルゴリズムは、特にデータ分布が複雑である場合、実世界の分類において限られた性能を有する。
そこで本研究では,オンラインメトリック学習のための多層フレームワークを提案し,インスタンス間の非線形類似性を捉える。
従来のオンラインメトリック学習とは異なり、提案されているマルチレイヤオンラインメトリック学習(mloml)は、オンラインメトリック学習アルゴリズムをメートル法レイヤとして取り、複雑なデータ分散のための非線形層に従う複数の階層的メトリック空間を学習する。
さらに, 前方伝搬(FP)戦略と後方伝搬(BP)戦略を用いて, 階層的計量層を訓練する。
提案したMLOMLの計量層を構築するために,新しいMahalanobisベースのオンラインメトリックラーニング(MOML)アルゴリズムを,受動攻撃戦略と1パス三重項構成戦略に基づいて提案する。
さらに,MLOMLの学習能力は,学習データに制限がある場合にも,従来のオンラインメトリック学習よりも優れていた。
学習プロセスをより説明しやすく理論的に保証するために、理論的解析を提供する。
提案したMLOMLは、いくつかの優れた特性を享受し、実際にメトリクスを漸進的に学習し、ベンチマークデータセットでより良いパフォーマンスを発揮する。
提案したMLOMLのこれらの特性を検証するために、異なる設定による大規模な実験が行われた。
関連論文リスト
- ConML: A Universal Meta-Learning Framework with Task-Level Contrastive Learning [49.447777286862994]
ConMLは、さまざまなメタ学習アルゴリズムに適用可能な、普遍的なメタ学習フレームワークである。
我々は、ConMLが最適化ベース、メートル法ベース、およびアモータイズベースメタ学習アルゴリズムとシームレスに統合できることを実証した。
論文 参考訳(メタデータ) (2024-10-08T12:22:10Z) - Performance Law of Large Language Models [58.32539851241063]
性能法則は、LLMアーキテクチャの選択と計算資源の効率的な割り当てを導くために用いられる。
性能法則は、LLMアーキテクチャの選択と計算資源の効率的な割り当てを広範な実験なしで導くのに利用できる。
論文 参考訳(メタデータ) (2024-08-19T11:09:12Z) - Few-shot Metric Learning: Online Adaptation of Embedding for Retrieval [37.601607544184915]
メトリック学習は、典型的には、類似した物体を近くの点にマッピングする効果的な埋め込み関数を学習することによって距離メトリックを構築することを目的としている。
近年のディープ・メトリック・ラーニングの進歩にもかかわらず、学習されたメートル法が大きな領域ギャップを持つ未確認のクラスに一般化することは依然として困難である。
本稿では,少数の注釈付きデータのみを用いて,組込み関数を対象領域に適応させることを目的とした,数ショットメトリック学習の新たな課題を提案する。
論文 参考訳(メタデータ) (2022-11-14T05:10:17Z) - Classification Performance Metric Elicitation and its Applications [5.5637552942511155]
その実践的関心にもかかわらず、機械学習アプリケーションのためのメトリクスの選択方法に関する正式なガイダンスは限られている。
この論文は、暗黙のユーザの嗜好を最も反映したパフォーマンスメトリックを選択するための原則的なフレームワークとして、メトリクスの誘惑を概説している。
論文 参考訳(メタデータ) (2022-08-19T03:57:17Z) - Adaptive neighborhood Metric learning [184.95321334661898]
適応的近傍距離距離学習(ANML)という新しい距離距離距離距離距離距離学習アルゴリズムを提案する。
ANMLは線形埋め込みと深層埋め込みの両方を学ぶのに使うことができる。
本手法で提案するemphlog-exp平均関数は,深層学習手法をレビューするための新たな視点を与える。
論文 参考訳(メタデータ) (2022-01-20T17:26:37Z) - A Framework to Enhance Generalization of Deep Metric Learning methods
using General Discriminative Feature Learning and Class Adversarial Neural
Networks [1.5469452301122175]
メトリック学習アルゴリズムは、意味論的に類似したデータアイテムをまとめて、異種データを遠くに保持する距離関数を学習することを目的としている。
データから特徴を自動的に抽出し,入力空間から意味的な埋め込み空間への非線形変換を学習するDeep Metric Learning (DML)法が提案されている。
ゼロショット学習(ZSL)環境において,既存のDML手法の一般化能力を高める枠組みを提案する。
論文 参考訳(メタデータ) (2021-06-11T14:24:40Z) - Memory-Based Optimization Methods for Model-Agnostic Meta-Learning and
Personalized Federated Learning [56.17603785248675]
モデルに依存しないメタラーニング (MAML) が人気のある研究分野となっている。
既存のMAMLアルゴリズムは、イテレーション毎にメタモデルを更新するためにいくつかのタスクとデータポイントをサンプリングすることで、エピソードのアイデアに依存している。
本稿では,MAMLのメモリベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-09T08:47:58Z) - Towards Self-Adaptive Metric Learning On the Fly [16.61982837441342]
我々は,適応的メトリック関数をオンザフライで学習する上で,オンライン適応メトリック学習(OAML)のオープンな課題に対処することを目指している。
従来のオンラインメトリック学習とは異なり、学習されたメトリックは非線形であり、モデルは自己適応的である必要があるため、OAMLははるかに困難である。
制約の流れから適応モデルの複雑性を備えたANNベースのメトリクスを学習することで、この課題に取り組む新しいオンラインメトリック学習フレームワークを紹介します。
論文 参考訳(メタデータ) (2021-04-03T23:11:52Z) - ECML: An Ensemble Cascade Metric Learning Mechanism towards Face
Verification [50.137924223702264]
特に、階層的メートル法学習はカスケード方式で実行され、不適合を緩和する。
顔の特徴分布特性を考慮し, 閉形解を用いたロバストなマハラノビス計量学習法(RMML)を提案する。
EC-RMMLは、顔認証のための最先端のメトリック学習法よりも優れている。
論文 参考訳(メタデータ) (2020-07-11T08:47:07Z) - Online Metric Learning for Multi-Label Classification [22.484707213499714]
マルチラベル分類のための新しいオンラインメトリック学習パラダイムを提案する。
我々はまず,$k$-Nearest Neighbour(k$NN)に基づくマルチラベル分類のための新しい指標を提案する。
論文 参考訳(メタデータ) (2020-06-12T11:33:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。