論文の概要: Revisiting the Loss Weight Adjustment in Object Detection
- arxiv url: http://arxiv.org/abs/2103.09488v2
- Date: Thu, 18 Mar 2021 05:48:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-19 12:11:28.571800
- Title: Revisiting the Loss Weight Adjustment in Object Detection
- Title(参考訳): 物体検出における損失重量調整の再検討
- Authors: Wenxin Yu, Bin Hu, Yucheng Hu, Tianxiang Lan, Yuanfan You, Dong Yin
- Abstract要約: そこで本研究では,電流損失関数に適合する損失重みを求めるための適応損失重み調整(alwa)を提案する。
L1, SmoothL1, CIoU損失を用いて, 連続的な性能向上を示す。
- 参考スコア(独自算出の注目度): 13.391619725808583
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: By definition, object detection requires a multi-task loss in order to solve
classification and regression tasks simultaneously. However, loss weight tends
to be set manually in actuality. Therefore, a very practical problem that has
not been studied so far arises: how to quickly find the loss weight that fits
the current loss functions. In addition, when we choose different regression
loss functions, whether the loss weight need to be adjusted and if so, how
should it be adjusted still is a problem demanding prompt solution. In this
paper, through experiments and theoretical analysis of prediction box shifting,
we firstly find out three important conclusions about optimal loss weight
allocation strategy, including (1) the classification loss curve decays faster
than regression loss curve; (2) loss weight is less than 1; (3) the gap between
classification and regression loss weight should not be too large. Then, based
on the above conclusions, we propose an Adaptive Loss Weight Adjustment(ALWA)
to solve the above two problems by dynamically adjusting the loss weight in the
training process, according to statistical characteristics of loss values. By
incorporating ALWA into both one-stage and two-stage object detectors, we show
a consistent improvement on their performance using L1, SmoothL1 and CIoU loss,
performance measures on popular object detection benchmarks including PASCAL
VOC and MS COCO. The code is available at https://github.com/ywx-hub/ALWA.
- Abstract(参考訳): 定義上、オブジェクト検出は分類と回帰タスクを同時に解決するためにマルチタスクの損失を必要とする。
しかし、損失重量は実際に手動で設定される傾向がある。
したがって、これまで研究されていない非常に実践的な問題は、現在の損失関数に適合する損失重みを素早く見つける方法である。
さらに、異なる回帰損失関数を選択する場合、損失の重みを調整する必要があるかどうか、もしそうであれば、どのように調整すべきかが課題となる。
本稿では,予測ボックスシフトに関する実験と理論的解析を通じて,(1)回帰損失曲線が回帰損失曲線よりも早く減衰する,(2)損失重量が1未満である、(3)分類と回帰損失重量の差が大きすぎるべきではない、という3つの重要な結論を見出す。
そこで, 上記の結論に基づいて, 損失値の統計的特性に応じて, トレーニング過程における損失重みを動的に調整することにより, 上記の2つの問題を解決する適応的損失重み調整(ALWA)を提案する。
ALWAを1段および2段のオブジェクト検出器に組み込むことで,L1,SmoothL1,CIoU損失,PASCALVOC,MS COCOなどの一般的なオブジェクト検出ベンチマークの性能評価などを用いて,それらの性能を一貫した改善を示す。
コードはhttps://github.com/ywx-hub/ALWAで公開されている。
関連論文リスト
- Adaptive Self-supervision Algorithms for Physics-informed Neural
Networks [59.822151945132525]
物理情報ニューラルネットワーク(PINN)は、損失関数のソフト制約として問題領域からの物理的知識を取り入れている。
これらのモデルの訓練性に及ぼす座標点の位置の影響について検討した。
モデルがより高い誤りを犯している領域に対して、より多くのコロケーションポイントを段階的に割り当てる適応的コロケーション方式を提案する。
論文 参考訳(メタデータ) (2022-07-08T18:17:06Z) - Benchmarking Deep AUROC Optimization: Loss Functions and Algorithmic
Choices [37.559461866831754]
我々は、深いAUROC最適化問題に対するアルゴリズム選択の異なる様々な損失関数をベンチマークする。
正のサンプリング率、正規化、正規化/アクティベーション、重みなどの重要な選択を強調した。
以上の結果から,Adam-type法はトレーニングの面では競争力が高いが,テストの面では他よりも優れていないことが示唆された。
論文 参考訳(メタデータ) (2022-03-27T00:47:00Z) - The KFIoU Loss for Rotated Object Detection [115.334070064346]
本稿では,SkewIoU損失とトレンドレベルアライメントを両立できる近似的損失を考案する上で,有効な方法の1つとして論じる。
具体的には、対象をガウス分布としてモデル化し、SkewIoUのメカニズムを本質的に模倣するためにカルマンフィルタを採用する。
KFIoUと呼ばれる新たな損失は実装が容易で、正確なSkewIoUよりもうまく動作する。
論文 参考訳(メタデータ) (2022-01-29T10:54:57Z) - Label Distributionally Robust Losses for Multi-class Classification:
Consistency, Robustness and Adaptivity [55.29408396918968]
多クラス分類のためのラベル分布ロバスト(LDR)損失という損失関数群について検討した。
我々の貢献は、多クラス分類のためのLDR損失のトップ$kの一貫性を確立することによって、一貫性と堅牢性の両方を含んでいる。
本稿では,各インスタンスのクラスラベルの雑音度に個別化温度パラメータを自動的に適応させる適応型LDR損失を提案する。
論文 参考訳(メタデータ) (2021-12-30T00:27:30Z) - Is Importance Weighting Incompatible with Interpolating Classifiers? [13.449501940517699]
重み付けは,ロジスティック損失やクロスエントロピー損失などの指数関数的な損失によって失敗することを示す。
治療として,重み付けされた損失が重み付けの効果を回復することを示す。
驚くべきことに、我々の理論は、古典的不偏重を指数化することによって得られる重みを用いることで、性能が向上することを示している。
論文 参考訳(メタデータ) (2021-12-24T08:06:57Z) - Focal and Efficient IOU Loss for Accurate Bounding Box Regression [63.14659624634066]
オブジェクト検出では、境界ボックス回帰(BBR)はオブジェクトローカリゼーションのパフォーマンスを決定する重要なステップです。
i) $ell_n$-norm と IOU ベースのロス関数はどちらも BBR の目的を描くのに非効率的であり、これは遅い収束と不正確な回帰結果をもたらす。
論文 参考訳(メタデータ) (2021-01-20T14:33:58Z) - Normalized Loss Functions for Deep Learning with Noisy Labels [39.32101898670049]
一般的に使用されているCross Entropy(CE)損失は,ノイズラベルに対して堅牢ではないことを示す。
アクティブ・パッシブ・ロス(APL)と呼ばれるロバストな損失関数を構築するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-24T08:25:46Z) - Learning a Unified Sample Weighting Network for Object Detection [113.98404690619982]
地域サンプリングや重み付けは、現代の地域ベースの物体検出器の成功に極めて重要である。
サンプル重み付けはデータ依存でタスク依存であるべきだと我々は主張する。
サンプルのタスク重みを予測するための統一的なサンプル重み付けネットワークを提案する。
論文 参考訳(メタデータ) (2020-06-11T16:19:16Z) - The Golden Ratio of Learning and Momentum [0.5076419064097732]
本稿では,シナプスにおけるニューラル信号処理による情報理論的損失関数を提案する。
すべての結果は、損失、学習率、モーメントが密接に関連していることを示している。
論文 参考訳(メタデータ) (2020-06-08T17:08:13Z) - Revisiting Initialization of Neural Networks [72.24615341588846]
ヘッセン行列のノルムを近似し, 制御することにより, 層間における重みのグローバルな曲率を厳密に推定する。
Word2Vec と MNIST/CIFAR 画像分類タスクの実験により,Hessian ノルムの追跡が診断ツールとして有用であることが確認された。
論文 参考訳(メタデータ) (2020-04-20T18:12:56Z) - SoftAdapt: Techniques for Adaptive Loss Weighting of Neural Networks
with Multi-Part Loss Functions [1.2891210250935146]
我々は,多部損失関数に対する関数重みを動的に変化させる,SoftAdaptと呼ばれる手法群を提案する。
SoftAdaptは数学的に直感的で、計算効率が良く、実装も簡単です。
論文 参考訳(メタデータ) (2019-12-27T22:23:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。