論文の概要: Learning Surrogates via Deep Embedding
- arxiv url: http://arxiv.org/abs/2007.00799v2
- Date: Fri, 17 Jul 2020 12:39:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 23:19:16.043173
- Title: Learning Surrogates via Deep Embedding
- Title(参考訳): 深層埋め込みによる学習サーロゲート
- Authors: Yash Patel, Tomas Hodan, Jiri Matas
- Abstract要約: 本稿では,目標評価基準を近似した代理損失を最小限に抑え,ニューラルネットワークのトレーニング手法を提案する。
認識タスクでは、編集距離メートル法を近似したサロゲートを用いてモデルを調整し、編集距離の相対的な改善を39%以上達成する。
検出タスクでは、サロゲートは回転した有界箱のユニオン計量の交叉を近似し、F_1$スコアにおいて最大4.25%の相対的な改善をもたらす。
- 参考スコア(独自算出の注目度): 35.09342657626646
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a technique for training a neural network by minimizing a
surrogate loss that approximates the target evaluation metric, which may be
non-differentiable. The surrogate is learned via a deep embedding where the
Euclidean distance between the prediction and the ground truth corresponds to
the value of the evaluation metric. The effectiveness of the proposed technique
is demonstrated in a post-tuning setup, where a trained model is tuned using
the learned surrogate. Without a significant computational overhead and any
bells and whistles, improvements are demonstrated on challenging and practical
tasks of scene-text recognition and detection. In the recognition task, the
model is tuned using a surrogate approximating the edit distance metric and
achieves up to $39\%$ relative improvement in the total edit distance. In the
detection task, the surrogate approximates the intersection over union metric
for rotated bounding boxes and yields up to $4.25\%$ relative improvement in
the $F_{1}$ score.
- Abstract(参考訳): 本稿では,ターゲット評価指標に近似するサーロゲート損失を最小化することでニューラルネットワークを訓練する手法を提案する。
シュロゲートは、予測と基底真実の間のユークリッド距離が評価指標の値に対応するような深い埋め込みを通して学習される。
提案手法の有効性は、学習したサロゲートを用いて訓練されたモデルを調整した後設定で示される。
重要な計算オーバーヘッドやベルやホイッスルがなければ、シーンテキスト認識と検出の挑戦的で実用的なタスクで改善が実証される。
認識タスクでは、編集距離メトリックを近似するサロゲートを用いてモデルをチューニングし、編集距離の総和で最大39セントの相対的改善を達成する。
検出タスクでは、サロゲートは回転した有界箱のユニオン計量の交叉を近似し、F_{1}$スコアにおいて最大4.25\%の相対的な改善をもたらす。
関連論文リスト
- Efficient Transferability Assessment for Selection of Pre-trained Detectors [63.21514888618542]
本稿では,事前学習対象検出器の効率的な伝達性評価について検討する。
我々は、事前訓練された検出器の大規模で多様な動物園を含む検出器転送性ベンチマークを構築した。
実験により,本手法は伝達性の評価において,他の最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-03-14T14:23:23Z) - Relational Surrogate Loss Learning [41.61184221367546]
本稿では、評価指標を近似するためにディープニューラルネットワークを用いる代理損失学習を再考する。
本稿では,サロゲート損失と測定値の関係を直接的に維持することを示す。
私たちの方法は最適化がずっと簡単で、大幅な効率と性能向上を享受しています。
論文 参考訳(メタデータ) (2022-02-26T17:32:57Z) - Ranking Distance Calibration for Cross-Domain Few-Shot Learning [91.22458739205766]
数ショット学習の最近の進歩は、より現実的なクロスドメイン設定を促進する。
ドメインギャップとソースとターゲットデータセット間のラベル空間の相違により、共有される知識は極めて限られている。
我々は,タスク内の相互k-アネレスト近傍を発見することで,目標距離行列の校正を行う。
論文 参考訳(メタデータ) (2021-12-01T03:36:58Z) - UDALM: Unsupervised Domain Adaptation through Language Modeling [79.73916345178415]
複合分類とマスキング言語モデル損失を用いた微調整手順であるUDALMについて紹介します。
本実験では, 混合損失スケールと利用可能な目標データの量で訓練されたモデルの性能を, 停止基準として有効に用いることを示した。
この方法は、amazon reviewsセンチメントデータセットの12のドメインペアで評価され、9.1.74%の精度が得られ、最先端よりも1.11%の絶対的な改善が得られます。
論文 参考訳(メタデータ) (2021-04-14T19:05:01Z) - SIMPLE: SIngle-network with Mimicking and Point Learning for Bottom-up
Human Pose Estimation [81.03485688525133]
Single-network with Mimicking and Point Learning for Bottom-up Human Pose Estimation (SIMPLE) を提案する。
具体的には、トレーニングプロセスにおいて、SIMPLEが高性能なトップダウンパイプラインからのポーズ知識を模倣できるようにする。
さらに、SIMPLEは人間検出とポーズ推定を統一的なポイントラーニングフレームワークとして定式化し、単一ネットワークで相互に補完する。
論文 参考訳(メタデータ) (2021-04-06T13:12:51Z) - FEDS -- Filtered Edit Distance Surrogate [52.85781717058057]
本稿では,編集距離の学習サーロゲートを用いて,シーンテキスト認識モデルを頑健に学習する手法を提案する。
提案手法は,自己評価学習から借用し,サロゲートに難易度の高いトレーニング例をフィルタリングする。
有効性は、様々な挑戦的なシーンテキストデータセットの改善によって示される。
論文 参考訳(メタデータ) (2021-03-08T09:47:51Z) - Bridging the Gap: Unifying the Training and Evaluation of Neural Network
Binary Classifiers [0.4893345190925178]
本論文では,Heaviside関数の微分可能な近似と,ソフトセットを用いた典型的な混乱行列値の確率的ビューを組み合わせたニューラルネットワークバイナリ分類器の訓練手法を提案する。
我々の理論解析は,ソフトセットを用いた$F_$-Scoreなどの評価基準を最適化する手法の利点を示している。
論文 参考訳(メタデータ) (2020-09-02T22:13:26Z) - On the Outsized Importance of Learning Rates in Local Update Methods [2.094022863940315]
我々は,多くのフェデレーション学習とメタ学習アルゴリズムを一般化する,局所的な更新手法と呼ばれるアルゴリズム群について検討する。
2次目的に対して、局所更新法は、正に特徴付けられる代理損失関数の勾配降下を実行することを証明した。
クライアント学習率の選択は、サロゲート損失の条件数と、サロゲート最小化関数と真の損失関数との距離を制御していることを示す。
論文 参考訳(メタデータ) (2020-07-02T04:45:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。