論文の概要: Generalizable Embeddings with Cross-batch Metric Learning
- arxiv url: http://arxiv.org/abs/2307.07620v2
- Date: Mon, 24 Jul 2023 13:03:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-25 20:19:06.925766
- Title: Generalizable Embeddings with Cross-batch Metric Learning
- Title(参考訳): クロスバッチメトリック学習による一般化埋め込み
- Authors: Yeti Z. Gurbuz and A. Aydin Alatan
- Abstract要約: 学習可能なプロトタイプの凸結合としてGAPを定式化する。
本稿では, 線形予測器をサンプルのバッチに適合させる反復過程として, プロトタイプ学習が表現可能であることを示す。
その観点で、各イテレーションで2つの不整合クラスを考え、他のバッチに適合するプロトタイプでバッチのサンプルを表現して学習を規則化する。
- 参考スコア(独自算出の注目度): 10.553094246710865
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Global average pooling (GAP) is a popular component in deep metric learning
(DML) for aggregating features. Its effectiveness is often attributed to
treating each feature vector as a distinct semantic entity and GAP as a
combination of them. Albeit substantiated, such an explanation's algorithmic
implications to learn generalizable entities to represent unseen classes, a
crucial DML goal, remain unclear. To address this, we formulate GAP as a convex
combination of learnable prototypes. We then show that the prototype learning
can be expressed as a recursive process fitting a linear predictor to a batch
of samples. Building on that perspective, we consider two batches of disjoint
classes at each iteration and regularize the learning by expressing the samples
of a batch with the prototypes that are fitted to the other batch. We validate
our approach on 4 popular DML benchmarks.
- Abstract(参考訳): グローバル平均プーリング(GAP)は、機能集約のためのディープメトリックラーニング(DML)において人気のあるコンポーネントである。
その有効性は、各特徴ベクトルを別個の意味的実体として扱い、GAPをそれらの組み合わせとして扱うことによることが多い。
しかし、このような説明のアルゴリズム的意味は、目に見えないクラスを表現するために一般化可能な実体を学習することであり、これは重要なDMLの目標である。
そこで我々はGAPを学習可能なプロトタイプの凸結合として定式化する。
次に, 線形予測器をサンプルのバッチに適合させる再帰過程として, プロトタイプ学習が表現可能であることを示す。
その観点から,各イテレーションで異なるクラスの2つのバッチについて検討し,他のバッチに適合するプロトタイプを用いて,バッチのサンプルを表現して学習を規則化する。
4つのDMLベンチマークでアプローチを検証する。
関連論文リスト
- Improved Diversity-Promoting Collaborative Metric Learning for Recommendation [127.08043409083687]
CML(Collaborative Metric Learning)は、リコメンデーションシステムにおいて人気のある手法として最近登場した。
本稿では,ユーザが複数のカテゴリの関心を持つ,困難なシナリオに焦点をあてる。
textitDiversity-Promoting Collaborative Metric Learning (DPCML) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-09-02T07:44:48Z) - ProtoGMM: Multi-prototype Gaussian-Mixture-based Domain Adaptation Model for Semantic Segmentation [0.8213829427624407]
ドメイン適応型セマンティックセグメンテーションは、ラベルのないターゲットドメインに対して正確で高密度な予測を生成することを目的としている。
本稿では,GMMを比較学習に組み込んだProtoGMMモデルを提案する。
クラス間のセマンティックな類似性の向上,クラス間の類似性の低下,およびソースドメインとターゲットドメイン間のドメインアライメントを実現するために,マルチプロトタイプコントラスト学習を採用する。
論文 参考訳(メタデータ) (2024-06-27T14:50:50Z) - Interpetable Target-Feature Aggregation for Multi-Task Learning based on Bias-Variance Analysis [53.38518232934096]
マルチタスク学習(MTL)は、タスク間の共有知識を活用し、一般化とパフォーマンスを改善するために設計された強力な機械学習パラダイムである。
本稿では,タスククラスタリングと特徴変換の交点におけるMTL手法を提案する。
両段階において、鍵となる側面は減った目標と特徴の解釈可能性を維持することである。
論文 参考訳(メタデータ) (2024-06-12T08:30:16Z) - A Prototypical Semantic Decoupling Method via Joint Contrastive Learning
for Few-Shot Name Entity Recognition [24.916377682689955]
名前付きエンティティ認識(NER)は、わずかにラベル付きインスタンスに基づいて名前付きエンティティを識別することを目的としている。
連立コントラスト学習(PSDC)を用いた数発NERのためのプロトタイプセマンティックデカップリング手法を提案する。
2つの数ショットのNERベンチマークによる実験結果から、PSDCは全体の性能において従来のSOTA法よりも一貫して優れていたことが示されている。
論文 参考訳(メタデータ) (2023-02-27T09:20:00Z) - Coded Residual Transform for Generalizable Deep Metric Learning [34.100840501900706]
我々は,その一般化能力を大幅に向上させるために,深度学習のための符号化残差変換(CRT)と呼ばれる新しい手法を提案する。
CRTは、多彩なプロトタイプへのプロジェクションに基づいた補完的な視点のセットからフィーチャーマップを表現し、エンコードする。
実験結果とアブレーション実験により,提案手法は最先端の深層学習法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2022-10-09T06:17:31Z) - Meta-Causal Feature Learning for Out-of-Distribution Generalization [71.38239243414091]
本稿では,協調タスク生成モジュール (BTG) とメタ因果特徴学習モジュール (MCFL) を含む,バランス付きメタ因果学習器 (BMCL) を提案する。
BMCLは、分類のためのクラス不変の視覚領域を効果的に識別し、最先端の手法の性能を向上させるための一般的なフレームワークとして機能する。
論文 参考訳(メタデータ) (2022-08-22T09:07:02Z) - Dual Prototypical Contrastive Learning for Few-shot Semantic
Segmentation [55.339405417090084]
本稿では,FSSタスクに適合する2つの特徴的コントラスト学習手法を提案する。
第一の考え方は、プロトタイプの特徴空間におけるクラス内距離を減少させながら、クラス間距離を増やすことで、プロトタイプをより差別的にすることである。
提案手法は,PASCAL-5iおよびCOCO-20iデータセット上で,最先端のFSS手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-09T08:14:50Z) - Prototypical Contrastive Learning of Unsupervised Representations [171.3046900127166]
原型コントラスト学習(Prototypeal Contrastive Learning, PCL)は、教師なし表現学習法である。
PCLは暗黙的にデータのセマンティック構造を学習された埋め込み空間にエンコードする。
PCLは、複数のベンチマークで最先端のインスタンスワイド・コントラスト学習法より優れている。
論文 参考訳(メタデータ) (2020-05-11T09:53:36Z) - DiVA: Diverse Visual Feature Aggregation for Deep Metric Learning [83.48587570246231]
視覚的類似性は多くのコンピュータビジョンアプリケーションにおいて重要な役割を果たす。
ディープ・メトリック・ラーニング(DML)は、そのような類似性を学ぶための強力なフレームワークである。
我々は,概念的に異なるデータ関係を対象とする複数の補完学習タスクを提案し,研究する。
我々は、訓練信号を集約する単一モデルを学び、その結果、強力な一般化と最先端のパフォーマンスが得られる。
論文 参考訳(メタデータ) (2020-04-28T12:26:50Z) - Revisiting Training Strategies and Generalization Performance in Deep
Metric Learning [28.54755295856929]
我々は、最も広く使われているDML目的関数を再検討し、重要なパラメータ選択について検討する。
一貫した比較では、DMLの目的は文学で示されるよりもはるかに高い飽和を示す。
これらの知見を公開し、ランキングベースのDMLモデルの性能を確実に向上させるために、単純かつ効果的に正規化を訓練することを提案する。
論文 参考訳(メタデータ) (2020-02-19T22:16:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。