論文の概要: Auto Seg-Loss: Searching Metric Surrogates for Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2010.07930v2
- Date: Thu, 3 Dec 2020 05:05:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 04:28:34.243465
- Title: Auto Seg-Loss: Searching Metric Surrogates for Semantic Segmentation
- Title(参考訳): auto seg-loss: 意味セグメンテーションのためのメトリックサーロゲートの探索
- Authors: Hao Li, Chenxin Tao, Xizhou Zhu, Xiaogang Wang, Gao Huang, Jifeng Dai
- Abstract要約: そこで本研究では,各計量に対する相異なるサロゲート損失を探索することにより,計量固有損失関数の設計を自動化することを提案する。
PASCAL VOCとCityscapesの実験では、探索されたサロゲート損失は手動で設計した損失関数よりも優れていた。
- 参考スコア(独自算出の注目度): 56.343646789922545
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Designing proper loss functions is essential in training deep networks.
Especially in the field of semantic segmentation, various evaluation metrics
have been proposed for diverse scenarios. Despite the success of the widely
adopted cross-entropy loss and its variants, the mis-alignment between the loss
functions and evaluation metrics degrades the network performance. Meanwhile,
manually designing loss functions for each specific metric requires expertise
and significant manpower. In this paper, we propose to automate the design of
metric-specific loss functions by searching differentiable surrogate losses for
each metric. We substitute the non-differentiable operations in the metrics
with parameterized functions, and conduct parameter search to optimize the
shape of loss surfaces. Two constraints are introduced to regularize the search
space and make the search efficient. Extensive experiments on PASCAL VOC and
Cityscapes demonstrate that the searched surrogate losses outperform the
manually designed loss functions consistently. The searched losses can
generalize well to other datasets and networks. Code shall be released.
- Abstract(参考訳): ディープネットワークのトレーニングには,適切な損失関数の設計が不可欠である。
特にセマンティクスセグメンテーションの分野では、様々なシナリオで様々な評価指標が提案されている。
広く採用されているクロスエントロピー損失とその変種の成功にもかかわらず、損失関数と評価指標のミスアライメントはネットワーク性能を低下させる。
一方、特定のメトリクスごとに損失関数を手動で設計するには、専門知識と重要なマンパワーが必要です。
本稿では,各計量に対する異なる代理損失を探索することにより,計量固有損失関数の設計を自動化することを提案する。
パラメータ化関数でメトリクスの微分不可能な操作を代用し、パラメータ探索を行い、損失面の形状を最適化する。
探索空間を規則化し、探索を効率化するために2つの制約を導入する。
PASCAL VOCとCityscapesの大規模な実験により、探索されたサロゲート損失は手動で設計した損失関数よりも優れていた。
検索された損失は他のデータセットやネットワークによく当てはまる。
コードは解放される。
関連論文リスト
- AnyLoss: Transforming Classification Metrics into Loss Functions [21.34290540936501]
評価指標は、バイナリ分類タスクにおけるモデルの性能を評価するために使用することができる。
ほとんどのメトリクスは、非微分可能形式の混乱行列から派生しており、直接最適化できる微分可能損失関数を生成することは困難である。
本稿では,任意の混乱行列に基づく計量を,最適化プロセスで利用可能な損失関数 textitAnyLoss に変換する汎用的アプローチを提案する。
論文 参考訳(メタデータ) (2024-05-23T16:14:16Z) - A survey and taxonomy of loss functions in machine learning [60.41650195728953]
ほとんどの最先端の機械学習技術は、損失関数の最適化を中心に進化している。
この調査は、初心者と高度な機械学習実践者の両方にとって最も重要な損失関数の参照を提供することを目的としている。
論文 参考訳(メタデータ) (2023-01-13T14:38:24Z) - Searching Parameterized AP Loss for Object Detection [36.3603004789312]
ロス関数はディープネットワークベースの物体検出器の訓練において重要な役割を果たす。
AP計量の微分不可能な性質のため、従来の物体検出器は2つのサブタスクに対して別々の微分可能な損失を課す。
そこで,パラメータ化関数を導入して,AP計算における非微分可能成分を代用するパラメータ化APロスを提案する。
論文 参考訳(メタデータ) (2021-12-09T18:59:54Z) - AutoLoss: Automated Loss Function Search in Recommendations [34.27873944762912]
候補集合から適切な損失関数を自動かつ適応的に検索できるAutoLossフレームワークを提案する。
既存のアルゴリズムとは異なり、提案したコントローラは、様々な収束挙動に応じて、異なるデータ例に対する損失確率を適応的に生成することができる。
論文 参考訳(メタデータ) (2021-06-12T08:15:00Z) - InverseForm: A Loss Function for Structured Boundary-Aware Segmentation [80.39674800972182]
逆変換ネットワークを用いたセマンティックセグメンテーションのための新しい境界認識損失項を提案する。
このプラグイン損失項は境界変換の捕捉におけるクロスエントロピー損失を補完する。
室内および屋外のセグメンテーションベンチマークにおける損失関数の定量的および定性的効果を解析した。
論文 参考訳(メタデータ) (2021-04-06T18:52:45Z) - AutoLoss-Zero: Searching Loss Functions from Scratch for Generic Tasks [78.27036391638802]
AutoLoss-Zeroは、ジェネリックタスクのスクラッチから損失関数を検索する最初のフレームワークである。
探索効率を向上させるために、損失低減プロトコルと勾配等価性チェック戦略を開発する。
様々なコンピュータビジョンタスクにおける実験により、検索損失関数は既存の損失関数と同等かそれ以上かが示されている。
論文 参考訳(メタデータ) (2021-03-25T17:59:09Z) - Loss Function Discovery for Object Detection via Convergence-Simulation
Driven Search [101.73248560009124]
本稿では,効率的な収束シミュレーションによる進化的探索アルゴリズムCSE-Autolossを提案する。
一般的な検出器上での損失関数探索の広範囲な評価を行い、探索された損失の優れた一般化能力を検証した。
実験の結果, 2段検出器と1段検出器のmAPでは, 最適損失関数の組み合わせが1.1%と0.8%を上回っていることがわかった。
論文 参考訳(メタデータ) (2021-02-09T08:34:52Z) - A Unified Framework of Surrogate Loss by Refactoring and Interpolation [65.60014616444623]
勾配勾配を有する深層ネットワークのトレーニングにおいて,サロゲート損失を発生させる統一フレームワークUniLossを導入する。
3つのタスクと4つのデータセットに対するUniLossの有効性を検証する。
論文 参考訳(メタデータ) (2020-07-27T21:16:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。