論文の概要: Spherical Feature Transform for Deep Metric Learning
- arxiv url: http://arxiv.org/abs/2008.01469v1
- Date: Tue, 4 Aug 2020 11:32:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 00:31:03.202483
- Title: Spherical Feature Transform for Deep Metric Learning
- Title(参考訳): 深層学習のための球形特徴変換
- Authors: Yuke Zhu, Yan Bai, Yichen Wei
- Abstract要約: 本研究は,新しい球面特徴変換手法を提案する。
これは、クラス間の同一共分散の仮定を、超球面上の異なるクラスの類似共分散の仮定に緩和する。
本研究では,2つの異なる変換間の関係について,簡便かつ効果的な学習法と深度解析を行う。
- 参考スコア(独自算出の注目度): 58.35971328774927
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data augmentation in feature space is effective to increase data diversity.
Previous methods assume that different classes have the same covariance in
their feature distributions. Thus, feature transform between different classes
is performed via translation. However, this approach is no longer valid for
recent deep metric learning scenarios, where feature normalization is widely
adopted and all features lie on a hypersphere.
This work proposes a novel spherical feature transform approach. It relaxes
the assumption of identical covariance between classes to an assumption of
similar covariances of different classes on a hypersphere. Consequently, the
feature transform is performed by a rotation that respects the spherical data
distributions. We provide a simple and effective training method, and in depth
analysis on the relation between the two different transforms. Comprehensive
experiments on various deep metric learning benchmarks and different baselines
verify that our method achieves consistent performance improvement and
state-of-the-art results.
- Abstract(参考訳): 機能空間におけるデータ拡張は、データの多様性を高めるのに有効である。
以前の手法では、異なるクラスは特徴分布において同じ共変性を持つと仮定している。
これにより、異なるクラス間の特徴変換が翻訳によって実行される。
しかし、このアプローチは、機能正規化が広く採用され、すべての機能が超球面上にある最近のディープメトリック学習シナリオではもはや有効ではない。
本研究は,新しい球面特徴変換手法を提案する。
これはクラス間の同一共分散の仮定を、超球面上の異なるクラスの類似共分散の仮定に緩和する。
これにより、特徴変換は、球面データ分布を対象とする回転によって行われる。
本研究では,2つの異なる変換の関係について,簡便かつ効果的な学習法と深度解析を行う。
各種ディープメトリック学習ベンチマークと異なるベースラインに関する総合的な実験により,本手法が一貫した性能向上と最先端結果を実現することを確認した。
関連論文リスト
- Equivariant Spatio-Temporal Self-Supervision for LiDAR Object Detection [37.142470149311904]
本研究では,空間的および時間的拡張を両立させることにより,時間的同変学習の枠組みを提案する。
既存の等変および不変のアプローチを多くの設定で上回る3次元物体検出のための事前学習法を示す。
論文 参考訳(メタデータ) (2024-04-17T20:41:49Z) - Information Geometrically Generalized Covariate Shift Adaptation [5.990174495635326]
多くの機械学習手法は、トレーニングとテストデータが同じ分布に従うと仮定する。
共変量シフト適応手法の有名なファミリーは情報幾何学の枠組みで統一されていることを示す。
数値実験により、我々の一般化は既存の手法よりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2023-04-19T02:52:54Z) - Equivariance Discovery by Learned Parameter-Sharing [153.41877129746223]
データから解釈可能な等価性を発見する方法について検討する。
具体的には、モデルのパラメータ共有方式に対する最適化問題として、この発見プロセスを定式化する。
また,ガウスデータの手法を理論的に解析し,研究された発見スキームとオラクルスキームの間の平均2乗ギャップを限定する。
論文 参考訳(メタデータ) (2022-04-07T17:59:19Z) - Measuring dissimilarity with diffeomorphism invariance [94.02751799024684]
DID(DID)は、幅広いデータ空間に適用可能なペアワイズな相似性尺度である。
我々は、DIDが理論的研究と実用に関係のある特性を享受していることを証明する。
論文 参考訳(メタデータ) (2022-02-11T13:51:30Z) - Revisiting Consistency Regularization for Semi-Supervised Learning [80.28461584135967]
そこで我々は,FeatDistLossというシンプルな手法により,一貫性の規則化を改良したフレームワークを提案する。
実験結果から,本モデルは様々なデータセットや設定のための新しい技術状態を定義する。
論文 参考訳(メタデータ) (2021-12-10T20:46:13Z) - Towards Improved and Interpretable Deep Metric Learning via Attentive
Grouping [103.71992720794421]
グループ化は、様々な特徴の計算にディープ・メトリック・ラーニングでよく用いられてきた。
本稿では,任意のメトリクス学習フレームワークと柔軟に統合可能な,改良された解釈可能なグループ化手法を提案する。
論文 参考訳(メタデータ) (2020-11-17T19:08:24Z) - What causes the test error? Going beyond bias-variance via ANOVA [21.359033212191218]
現代の機械学習手法は、しばしば過度にパラメータ化され、細かいレベルでのデータへの適応を可能にする。
最近の研究は、なぜ過度なパラメータ化が一般化に役立つのかをより深く理解することを目的としている。
本研究では, 差分解析(ANOVA)を用いて, テスト誤差の分散を対称的に分解する手法を提案する。
論文 参考訳(メタデータ) (2020-10-11T05:21:13Z) - Invariant Integration in Deep Convolutional Feature Space [77.99182201815763]
より深いニューラルネットワークアーキテクチャに事前知識を原則的に組み込む方法を示す。
本稿では,Rotated-MNISTデータセットの最先端性能について報告する。
論文 参考訳(メタデータ) (2020-04-20T09:45:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。