論文の概要: SDGMNet: Statistic-based Dynamic Gradient Modulation for Local
Descriptor Learning
- arxiv url: http://arxiv.org/abs/2106.04434v2
- Date: Wed, 9 Jun 2021 12:45:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-10 10:51:00.297600
- Title: SDGMNet: Statistic-based Dynamic Gradient Modulation for Local
Descriptor Learning
- Title(参考訳): sdgmnet:局所ディスクリプタ学習のための統計に基づく動的勾配変調
- Authors: Jiayi Ma and Yuxin Deng
- Abstract要約: 本稿では,局所記述子学習における三重項損失を改善するためにSDGMNetという動的勾配変調を提案する。
本稿では,一般的な三重項に基づく損失のバック伝播に関する深い解析を行い,距離測定のための包含角度を導入する。
我々の新しい記述子は、パッチ検証、マッチング、検索タスクを含む標準ベンチマークにおける過去の最先端技術を上回っている。
- 参考スコア(独自算出の注目度): 44.69439245287881
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modifications on triplet loss that rescale the back-propagated gradients of
special pairs have made significant progress on local descriptor learning.
However, current gradient modulation strategies are mainly static so that they
would suffer from changes of training phases or datasets. In this paper, we
propose a dynamic gradient modulation, named SDGMNet, to improve triplet loss
for local descriptor learning. The core of our method is formulating modulation
functions with statistical characteristics which are estimated dynamically.
Firstly, we perform deep analysis on back propagation of general triplet-based
loss and introduce included angle for distance measure. On this basis,
auto-focus modulation is employed to moderate the impact of statistically
uncommon individual pairs in stochastic gradient descent optimization;
probabilistic margin cuts off the gradients of proportional Siamese pairs that
are believed to reach the optimum; power adjustment balances the total weights
of negative pairs and positive pairs. Extensive experiments demonstrate that
our novel descriptor surpasses previous state-of-the-arts on standard
benchmarks including patch verification, matching and retrieval tasks.
- Abstract(参考訳): 特殊ペアのバックプロパゲーション勾配をリスケールする三重項損失の修正は、局所ディスクリプタ学習において大きな進歩を遂げている。
しかし、現在の勾配変調戦略は主に静的であるため、トレーニングフェーズやデータセットの変更に悩まされる。
本稿では,局所記述子学習における三重項損失を改善するためにSDGMNetという動的勾配変調を提案する。
本手法のコアは,動的に推定される統計特性を持つ変調関数の定式化である。
まず,一般トリプレットベース損失の後方伝播に関する深い解析を行い,距離測定のための包含角度を導入する。
この基礎から、確率的勾配勾配勾配最適化における統計的に稀な個々の対の影響を緩和するためにオートフォーカス変調を用いており、確率的マージンは最適に到達すると考えられるシームズ対の勾配を減らし、パワー調整は負の対と正の対の総重量を均衡させる。
広範な実験により,新しいディスクリプタは,パッチ検証やマッチング,検索タスクなど,標準ベンチマークの以前の状態を超えることを実証した。
関連論文リスト
- Domain Generalization Guided by Gradient Signal to Noise Ratio of
Parameters [69.24377241408851]
ソースドメインへのオーバーフィッティングは、ディープニューラルネットワークの勾配に基づくトレーニングにおいて一般的な問題である。
本稿では,ネットワークパラメータの勾配-信号-雑音比(GSNR)を選択することを提案する。
論文 参考訳(メタデータ) (2023-10-11T10:21:34Z) - Understanding the robustness difference between stochastic gradient
descent and adaptive gradient methods [11.895321856533934]
勾配降下法(SGD)と適応勾配法はディープニューラルネットワークの訓練に広く用いられている。
これらの手法を用いて訓練したモデルの標準一般化性能の差は小さいが、SGDを用いて訓練したモデルは入力摂動下でははるかに頑健であることを示す。
論文 参考訳(メタデータ) (2023-08-13T07:03:22Z) - Scaling Forward Gradient With Local Losses [117.22685584919756]
フォワード学習は、ディープニューラルネットワークを学ぶためのバックプロップに代わる生物学的に妥当な代替手段である。
重みよりも活性化に摂動を適用することにより、前方勾配のばらつきを著しく低減できることを示す。
提案手法はMNIST と CIFAR-10 のバックプロップと一致し,ImageNet 上で提案したバックプロップフリーアルゴリズムよりも大幅に優れていた。
論文 参考訳(メタデータ) (2022-10-07T03:52:27Z) - Robust Learning via Persistency of Excitation [4.674053902991301]
勾配勾配勾配を用いたネットワークトレーニングは力学系パラメータ推定問題と等価であることを示す。
極値理論を用いて対応するリプシッツ定数を推定する効率的な手法を提案する。
我々の手法は、様々な最先端の対数訓練モデルにおいて、対数精度を0.1%から0.3%に普遍的に向上させる。
論文 参考訳(メタデータ) (2021-06-03T18:49:05Z) - A Random Matrix Theory Approach to Damping in Deep Learning [0.7614628596146599]
深層学習における適応的勾配法と非適応的勾配法との違いは推定ノイズの増加に起因すると推測する。
線形縮退推定にインスパイアされた2次オプティマイザのためのランダム行列理論に基づくダンピング学習器を開発した。
論文 参考訳(メタデータ) (2020-11-15T18:19:42Z) - Channel-Directed Gradients for Optimization of Convolutional Neural
Networks [50.34913837546743]
本稿では,畳み込みニューラルネットワークの最適化手法を提案する。
出力チャネル方向に沿って勾配を定義することで性能が向上し,他の方向が有害となることを示す。
論文 参考訳(メタデータ) (2020-08-25T00:44:09Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z) - Adaptive Correlated Monte Carlo for Contextual Categorical Sequence
Generation [77.7420231319632]
我々は,モンテカルロ (MC) ロールアウトの集合を分散制御のために評価する政策勾配推定器に,カテゴリー列の文脈的生成を適用する。
また,二分木ソフトマックスモデルに相関したMCロールアウトを用いることで,大語彙シナリオにおける高生成コストを低減できることを示す。
論文 参考訳(メタデータ) (2019-12-31T03:01:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。