論文の概要: Generalized Sum Pooling for Metric Learning
- arxiv url: http://arxiv.org/abs/2308.09228v1
- Date: Fri, 18 Aug 2023 01:20:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-21 15:06:07.317932
- Title: Generalized Sum Pooling for Metric Learning
- Title(参考訳): 計量学習のための一般化サムプーリング
- Authors: Yeti Z. Gurbuz, Ozan Sener and A. Ayd{\i}n Alatan
- Abstract要約: ディープラーニングのための学習可能な一般化和プーリング法(GSP)を提案する。
提案手法の有効性を4つの一般的なメトリクス学習ベンチマークで評価した。
- 参考スコア(独自算出の注目度): 21.45902496139412
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A common architectural choice for deep metric learning is a convolutional
neural network followed by global average pooling (GAP). Albeit simple, GAP is
a highly effective way to aggregate information. One possible explanation for
the effectiveness of GAP is considering each feature vector as representing a
different semantic entity and GAP as a convex combination of them. Following
this perspective, we generalize GAP and propose a learnable generalized sum
pooling method (GSP). GSP improves GAP with two distinct abilities: i) the
ability to choose a subset of semantic entities, effectively learning to ignore
nuisance information, and ii) learning the weights corresponding to the
importance of each entity. Formally, we propose an entropy-smoothed optimal
transport problem and show that it is a strict generalization of GAP, i.e., a
specific realization of the problem gives back GAP. We show that this
optimization problem enjoys analytical gradients enabling us to use it as a
direct learnable replacement for GAP. We further propose a zero-shot loss to
ease the learning of GSP. We show the effectiveness of our method with
extensive evaluations on 4 popular metric learning benchmarks. Code is
available at: GSP-DML Framework
- Abstract(参考訳): ディープメトリック学習の一般的なアーキテクチャ選択は、畳み込みニューラルネットワークとグローバル平均プーリング(GAP)である。
簡単に言えば、GAPは情報を集約する非常に効果的な方法です。
GAPの有効性の1つの可能な説明は、各特徴ベクトルを異なる意味的実体を表すものとして、GAPを凸結合として考えることである。
この観点から、GAPを一般化し、学習可能な一般化和プーリング法(GSP)を提案する。
GSPは2つの異なる能力でGAPを改善します。
一 意味的実体のサブセットを選択し、迷惑情報を無視して効果的に学習する能力
二 各団体の重要度に対応する重みを学習すること。
形式的には、エントロピー・スムースド最適輸送問題(entropy-smoothed optimal transport problem)を提案し、それがギャップの厳密な一般化であることを示す。
この最適化問題は,GAPの直接学習可能な代替品として利用することができる解析的勾配を満足することを示す。
また,GSPの学習を容易にするため,ゼロショットロスを提案する。
提案手法の有効性を4つの一般的なメトリクス学習ベンチマークで評価した。
GSP-DML Frameworkのコードは以下の通り。
関連論文リスト
- Semantic Information G Theory for Range Control with Tradeoff between Purposiveness and Efficiency [0.7252027234425334]
本稿では,意味情報G測度とR(G)関数のパラメトリック解を紹介する。
R(G)関数はIMM法の理論的基礎として機能するが、深層学習、強化学習、制約制御と組み合わせてさらなる研究が必要である。
論文 参考訳(メタデータ) (2024-10-19T08:43:49Z) - GAMformer: In-Context Learning for Generalized Additive Models [53.08263343627232]
本稿では,1つの前方パスにおけるGAMの形状関数を推定するために,文脈内学習を利用した最初の手法であるGAMformerを紹介する。
実験の結果,GAMformerは様々な分類ベンチマークにおいて,他の主要なGAMと同等に動作することがわかった。
論文 参考訳(メタデータ) (2024-10-06T17:28:20Z) - Domain Invariant Learning for Gaussian Processes and Bayesian
Exploration [39.83530605880014]
そこで本研究では,確率を最小限に最適化したガウス過程(DIL-GP)の領域不変学習アルゴリズムを提案する。
数値実験により、複数の合成および実世界のデータセットの予測におけるDIL-GPの優位性を示す。
論文 参考訳(メタデータ) (2023-12-18T16:13:34Z) - MADG: Margin-based Adversarial Learning for Domain Generalization [25.45950080930517]
そこで本稿では,差分損失に基づく離散性尺度に基づく新しい逆学習DGアルゴリズムMADGを提案する。
提案したMADGモデルは,すべてのソースドメインにまたがるドメイン不変の特徴を学習し,敵対的トレーニングを用いて,未知のターゲットドメインによく適応する。
我々は、人気のある実世界のDGデータセット上でMADGモデルを広範囲に実験した。
論文 参考訳(メタデータ) (2023-11-14T19:53:09Z) - Interactive Segmentation as Gaussian Process Classification [58.44673380545409]
クリックベースのインタラクティブセグメンテーション(IS)は、ユーザインタラクション下で対象オブジェクトを抽出することを目的としている。
現在のディープラーニング(DL)ベースの手法のほとんどは、主にセマンティックセグメンテーションの一般的なパイプラインに従っている。
本稿では,各画像上でガウス過程(GP)に基づく画素単位のバイナリ分類モデルとしてISタスクを定式化することを提案する。
論文 参考訳(メタデータ) (2023-02-28T14:01:01Z) - A Generalized EigenGame with Extensions to Multiview Representation
Learning [0.28647133890966997]
一般化固有値問題(GEPs)は、様々な興味深い次元減少法を含んでいる。
我々は、ラグランジュ乗算器によって全ての制約がソフトに強制されるGEPの解法を開発する。
線形の場合、我々のアプローチは、以前のヘビアンとゲーム理論のアプローチの理論的根拠の多くを共有していることを示す。
標準マルチビューデータセットの設定におけるGEPの解法の有効性を実証する。
論文 参考訳(メタデータ) (2022-11-21T10:11:13Z) - Understanding the Generalization of Adam in Learning Neural Networks
with Proper Regularization [118.50301177912381]
我々は,重力減衰グローバリゼーションにおいても,目的の異なる解に確実に異なる誤差で収束できることを示す。
凸と重み減衰正則化を用いると、Adamを含む任意の最適化アルゴリズムは同じ解に収束することを示す。
論文 参考訳(メタデータ) (2021-08-25T17:58:21Z) - Semi-Supervised Domain Generalization with Stochastic StyleMatch [90.98288822165482]
実世界のアプリケーションでは、アノテーションのコストが高いため、各ソースドメインから利用可能なラベルはわずかです。
本研究では,より現実的で実践的な半教師付き領域一般化について検討する。
提案手法であるStyleMatchは,擬似ラベルに基づく最先端の半教師付き学習手法であるFixMatchに着想を得たものである。
論文 参考訳(メタデータ) (2021-06-01T16:00:08Z) - Generalized Few-shot Semantic Segmentation [68.69434831359669]
本稿では,GFS-Seg(Generalized Few-Shot Semantic)と呼ばれる新しいベンチマークを導入する。
GFS-セグにおいて、先行する最先端の一般化が不足していることを示す最初の研究である。
本研究では,1)支援サンプルから共起前の知識を活用すること,2)各クエリ画像の内容に基づいて条件付き情報に動的に拡張することにより,性能を著しく向上するコンテキスト認識型プロトタイプ学習(CAPL)を提案する。
論文 参考訳(メタデータ) (2020-10-11T10:13:21Z) - Prior Guided Feature Enrichment Network for Few-Shot Segmentation [64.91560451900125]
最先端のセマンティックセグメンテーション手法は、良い結果を得るために十分なラベル付きデータを必要とする。
少数のラベル付きサポートサンプルを持つ新しいクラスに迅速に適応するモデルを学習することで,この問題に対処するためのショットセグメンテーションが提案されている。
これらのフレームワークは、高レベルのセマンティック情報の不適切な使用により、目に見えないクラスにおける一般化能力の低下という課題に直面している。
論文 参考訳(メタデータ) (2020-08-04T10:41:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。