論文の概要: A Unified Framework of Surrogate Loss by Refactoring and Interpolation
- arxiv url: http://arxiv.org/abs/2007.13870v1
- Date: Mon, 27 Jul 2020 21:16:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-06 08:02:34.739144
- Title: A Unified Framework of Surrogate Loss by Refactoring and Interpolation
- Title(参考訳): リファクタリングと補間による代理損失の統一的枠組み
- Authors: Lanlan Liu, Mingzhe Wang, Jia Deng
- Abstract要約: 勾配勾配を有する深層ネットワークのトレーニングにおいて,サロゲート損失を発生させる統一フレームワークUniLossを導入する。
3つのタスクと4つのデータセットに対するUniLossの有効性を検証する。
- 参考スコア(独自算出の注目度): 65.60014616444623
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce UniLoss, a unified framework to generate surrogate losses for
training deep networks with gradient descent, reducing the amount of manual
design of task-specific surrogate losses. Our key observation is that in many
cases, evaluating a model with a performance metric on a batch of examples can
be refactored into four steps: from input to real-valued scores, from scores to
comparisons of pairs of scores, from comparisons to binary variables, and from
binary variables to the final performance metric. Using this refactoring we
generate differentiable approximations for each non-differentiable step through
interpolation. Using UniLoss, we can optimize for different tasks and metrics
using one unified framework, achieving comparable performance compared with
task-specific losses. We validate the effectiveness of UniLoss on three tasks
and four datasets. Code is available at
https://github.com/princeton-vl/uniloss.
- Abstract(参考訳): unilossは,勾配降下を伴う深層ネットワークを訓練するためのサブロゲート損失を生成する統一フレームワークであり,タスク固有のサブロゲート損失の手動設計量を削減する。
我々のキーとなる観察は、多くの場合、実測値の入力から実測値まで、スコアからスコアのペア比較、バイナリ変数の比較、バイナリ変数から最終測値までの4つのステップにリファクタリングできるということです。
このリファクタリングを使用することで、補間を通じて微分不能なステップごとに微分可能近似を生成する。
unilossを使うことで、1つの統一フレームワークを使って異なるタスクとメトリクスを最適化し、タスク固有の損失と同等のパフォーマンスを実現します。
3つのタスクと4つのデータセットに対するUniLossの有効性を検証する。
コードはhttps://github.com/princeton-vl/unilossで入手できる。
関連論文リスト
- SuSana Distancia is all you need: Enforcing class separability in metric
learning via two novel distance-based loss functions for few-shot image
classification [0.9236074230806579]
本稿では,少数のデータ間のクラス内距離とクラス間距離を調べることで,埋め込みベクトルの重要性を考慮に入れた2つの損失関数を提案する。
以上の結果から,miniImagenNetベンチマークの精度は,他のメトリクスベースの数ショット学習手法に比べて2%向上した。
論文 参考訳(メタデータ) (2023-05-15T23:12:09Z) - Positive-Negative Equal Contrastive Loss for Semantic Segmentation [8.664491798389662]
従来の作業では、グローバルコンテキストを効果的に抽出し集約するために、プラグアンドプレイモジュールと構造的損失を設計するのが一般的だった。
そこで我々は, 正負の負の正の負の負の正の負の正の負の正の負の負の負の正の負の負の正の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の負の
総合的な実験を行い、2つのベンチマークデータセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-07-04T13:51:29Z) - Relational Surrogate Loss Learning [41.61184221367546]
本稿では、評価指標を近似するためにディープニューラルネットワークを用いる代理損失学習を再考する。
本稿では,サロゲート損失と測定値の関係を直接的に維持することを示す。
私たちの方法は最適化がずっと簡単で、大幅な効率と性能向上を享受しています。
論文 参考訳(メタデータ) (2022-02-26T17:32:57Z) - A Decidability-Based Loss Function [2.5919311269669003]
生体認証問題は、ディープラーニングモデルを使用して画像から特徴を抽出する。
本研究では,検証ルーチンの埋め込み品質を向上させるために,決定可能性指数に基づく損失関数を提案する。
提案手法は,4つのベンチマークにおいて,ソフトマックス(クロスエントロピー),トリプレットソフトハード,マルチ類似性損失に対して比較される。
論文 参考訳(メタデータ) (2021-09-12T14:26:27Z) - Auto Seg-Loss: Searching Metric Surrogates for Semantic Segmentation [56.343646789922545]
そこで本研究では,各計量に対する相異なるサロゲート損失を探索することにより,計量固有損失関数の設計を自動化することを提案する。
PASCAL VOCとCityscapesの実験では、探索されたサロゲート損失は手動で設計した損失関数よりも優れていた。
論文 参考訳(メタデータ) (2020-10-15T17:59:08Z) - Learning by Minimizing the Sum of Ranked Range [58.24935359348289]
本稿では,学習目標を定式化するための一般的なアプローチとして,ランキング範囲(SoRR)の和を紹介した。
ランク付き範囲は、実数の集合のソートされた値の連続的なシーケンスである。
我々は,SoRRフレームワークの最小化のための機械学習における2つの応用,すなわち,バイナリ分類のためのAoRR集約損失とマルチラベル/マルチクラス分類のためのTKML個人損失について検討する。
論文 参考訳(メタデータ) (2020-10-05T01:58:32Z) - Beyond Triplet Loss: Meta Prototypical N-tuple Loss for Person
Re-identification [118.72423376789062]
マルチクラス分類損失(N-tuple loss)を導入し、クエリごとの最適化のために複数の(N)インスタンスを共同で検討する。
マルチクラス分類を組み込んだモデルにより,ベンチマーク対象のReIDデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2020-06-08T23:34:08Z) - Pairwise Supervised Hashing with Bernoulli Variational Auto-Encoder and
Self-Control Gradient Estimator [62.26981903551382]
バイナリ潜在変数を持つ変分自動エンコーダ(VAE)は、文書検索の精度の観点から最先端のパフォーマンスを提供する。
本稿では、クラス内類似度とクラス間類似度に報いるために、個別潜伏型VAEを用いたペアワイズ損失関数を提案する。
この新しいセマンティックハッシュフレームワークは、最先端技術よりも優れたパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-05-21T06:11:33Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。