論文の概要: ProxyNCA++: Revisiting and Revitalizing Proxy Neighborhood Component
Analysis
- arxiv url: http://arxiv.org/abs/2004.01113v2
- Date: Thu, 23 Jul 2020 14:21:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 12:57:12.241013
- Title: ProxyNCA++: Revisiting and Revitalizing Proxy Neighborhood Component
Analysis
- Title(参考訳): ProxyNCA++: Proxy近傍コンポーネント分析の再検討と再活性化
- Authors: Eu Wern Teh, Terrance DeVries, Graham W. Taylor
- Abstract要約: ProxyNCAを再検討し、いくつかの拡張を加えます。
私たちのモデルは、ProxyNCA++と呼ばれ、Recall@1の22.9%のポイント平均改善を実現しています。
CUB200、Cars196、Sop、InShopのデータセットで最先端の結果を得る。
- 参考スコア(独自算出の注目度): 22.231199011315063
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider the problem of distance metric learning (DML), where the task is
to learn an effective similarity measure between images. We revisit ProxyNCA
and incorporate several enhancements. We find that low temperature scaling is a
performance-critical component and explain why it works. Besides, we also
discover that Global Max Pooling works better in general when compared to
Global Average Pooling. Additionally, our proposed fast moving proxies also
addresses small gradient issue of proxies, and this component synergizes well
with low temperature scaling and Global Max Pooling. Our enhanced model, called
ProxyNCA++, achieves a 22.9 percentage point average improvement of Recall@1
across four different zero-shot retrieval datasets compared to the original
ProxyNCA algorithm. Furthermore, we achieve state-of-the-art results on the
CUB200, Cars196, Sop, and InShop datasets, achieving Recall@1 scores of 72.2,
90.1, 81.4, and 90.9, respectively.
- Abstract(参考訳): 画像間の効果的な類似度尺度を学習することが課題である距離距離学習(dml)の問題を考える。
ProxyNCAを再検討し、いくつかの拡張を加えます。
低温スケーリングはパフォーマンスクリティカルなコンポーネントであり、その理由を説明しています。
さらに、Global Average Poolingと比較して、Global Max Poolingが一般的に有効であることも分かりました。
さらに,提案する高速移動プロキシは,小さな勾配問題にも対処し,このコンポーネントは低温スケーリングやグローバルマックスプーリングと相乗効果がある。
proxynca++と呼ばれる拡張モデルにより、4つの異なるゼロショット検索データセットにおけるrecall@1の平均値が22.9ポイント向上した。
さらに, CUB200, Cars196, Sop, InShopの各データセットに対して, Recall@1スコア72.2, 90.1, 81.4, 90.9をそれぞれ達成した。
関連論文リスト
- Robust Calibrate Proxy Loss for Deep Metric Learning [6.784952050036532]
本稿では、実際のサンプル情報を用いて、プロキシベースの損失の類似性計算を改善するCalibrate Proxy構造を提案する。
提案手法は,正規データセットと雑音データセットの両方において,一般的に使用されるプロキシベース損失の性能を効果的に向上できることを示す。
論文 参考訳(メタデータ) (2023-04-06T02:43:10Z) - Two Losses Are Better Than One: Faster Optimization Using a Cheaper
Proxy [6.170898159041277]
本稿では,関連関数をプロキシとして利用することにより,目的物を計算困難勾配で最小化するアルゴリズムを提案する。
我々のアルゴリズムは、$delta$-smooth目的の勾配降下に一致する速度で収束を保証する。
我々のアルゴリズムは機械学習に多くの可能性があり、合成データ、物理シミュレータ、混合公開データ、プライベートデータなどを活用するための原則化された手段を提供する。
論文 参考訳(メタデータ) (2023-02-07T15:50:49Z) - Non-isotropy Regularization for Proxy-based Deep Metric Learning [78.18860829585182]
本稿では,プロキシに基づくDeep Metric Learningのための非等方正則化(mathbbNIR$)を提案する。
これにより、プロキシの周囲のサンプルの非等方分布を明示的に誘導して最適化することが可能になる。
実験では、競争力と最先端のパフォーマンスを達成しながら、$mathbbNIR$の一貫性のある一般化の利点を強調している。
論文 参考訳(メタデータ) (2022-03-16T11:13:20Z) - Fast and Data Efficient Reinforcement Learning from Pixels via
Non-Parametric Value Approximation [90.78178803486746]
離散動作,画素ベース環境のための強化学習アルゴリズムであるNonparametric Approximation of Inter-Trace Return (NAIT)を提案する。
ATARI100kの26ゲーム版と57ゲーム版の両方においてNAITを実証的に評価した。
論文 参考訳(メタデータ) (2022-03-07T00:31:31Z) - Provable Stochastic Optimization for Global Contrastive Learning: Small
Batch Does Not Harm Performance [53.49803579981569]
各正の対と全ての負の対をアンカーポイントで対比する、コントラスト学習のグローバルな目的を考える。
SimCLRのような既存のメソッドは、十分な結果を得るために大きなバッチサイズを必要とする。
本稿では,SogCLRという表現のグローバルコントラスト学習を解くためのメモリ効率の最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-02-24T22:16:53Z) - AdaPool: Exponential Adaptive Pooling for Information-Retaining
Downsampling [82.08631594071656]
畳み込み層は畳み込みニューラルネットワーク(CNN)の重要な構成要素である
適応的で指数関数的に重み付けされたアダプール法を提案する。
adaPoolは画像やビデオの分類やオブジェクト検出など,さまざまなタスクを通じて,ディテールの保存性の向上を実証する。
論文 参考訳(メタデータ) (2021-11-01T08:50:37Z) - Efficient Algorithms for Federated Saddle Point Optimization [32.060759921090856]
我々は,通信制約が主なボトルネックとなるフェデレーション設定において,凸凹型ミニマックス問題を考える。
我々のゴールは、任意の異種性の下でMinibatch Mirror-prox性能を回復しながら、クライアントの類似性の利点を活用できるアルゴリズムを設計することである。
論文 参考訳(メタデータ) (2021-02-12T02:55:36Z) - Refining activation downsampling with SoftPool [74.1840492087968]
畳み込みニューラルネットワーク(cnns)は、アクティベーションマップのサイズを減らすためにプールを使用する。
指数重化アクティベーションダウンサンプリングの高速かつ効率的な方法であるSoftPoolを提案します。
SoftPoolは、アクティベーションマップの縮小でより多くの情報を保持できることを示します。
論文 参考訳(メタデータ) (2021-01-02T12:09:49Z) - Fewer is More: A Deep Graph Metric Learning Perspective Using Fewer
Proxies [65.92826041406802]
本稿では,グラフ分類の観点から,プロキシベースのディープグラフメトリックラーニング手法を提案する。
複数のグローバルプロキシを利用して、各クラスの元のデータポイントを総括的に近似する。
本研究では, 近接関係を接地トラス・ラベルに従って調整する, 新たな逆ラベル伝搬アルゴリズムを設計する。
論文 参考訳(メタデータ) (2020-10-26T14:52:42Z) - Generalized Reinforcement Meta Learning for Few-Shot Optimization [3.7675996866306845]
本稿では, 汎用的かつ柔軟な強化学習(RL)に基づくメタラーニングフレームワークを提案する。
我々のフレームワークは簡単にネットワークアーキテクチャ検索に拡張できる。
論文 参考訳(メタデータ) (2020-05-04T03:21:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。