論文の概要: DropLoss for Long-Tail Instance Segmentation
- arxiv url: http://arxiv.org/abs/2104.06402v1
- Date: Tue, 13 Apr 2021 17:59:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-14 13:25:35.795012
- Title: DropLoss for Long-Tail Instance Segmentation
- Title(参考訳): 長距離インスタンスセグメンテーションのためのDropLoss
- Authors: Ting-I Hsieh, Esther Robb, Hwann-Tzong Chen, Jia-Bin Huang
- Abstract要約: 珍しいカテゴリーと頻繁なカテゴリーのアンバランスを補う新しい適応損失であるDropLossを開発しています。
LVISデータセットでは,レア,一般的,頻繁なカテゴリにまたがる最先端のmAPを示す。
- 参考スコア(独自算出の注目度): 56.162929199998075
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Long-tailed class distributions are prevalent among the practical
applications of object detection and instance segmentation. Prior work in
long-tail instance segmentation addresses the imbalance of losses between rare
and frequent categories by reducing the penalty for a model incorrectly
predicting a rare class label. We demonstrate that the rare categories are
heavily suppressed by correct background predictions, which reduces the
probability for all foreground categories with equal weight. Due to the
relative infrequency of rare categories, this leads to an imbalance that biases
towards predicting more frequent categories. Based on this insight, we develop
DropLoss -- a novel adaptive loss to compensate for this imbalance without a
trade-off between rare and frequent categories. With this loss, we show
state-of-the-art mAP across rare, common, and frequent categories on the LVIS
dataset.
- Abstract(参考訳): 長い尾のクラス分布は、オブジェクト検出とインスタンスセグメンテーションの実践的応用で広く使われている。
ロングテールインスタンスセグメンテーションでの先行作業は、レアクラスラベルを誤って予測するモデルに対するペナルティを低減し、レアクラスとレアカテゴリ間の損失の不均衡に対処する。
背景予測の正確さによって希少なカテゴリが強く抑制され,全フォアグラウンドカテゴリの確率が同じ重みで減少することを示した。
稀なカテゴリの相対的不頻度のため、これはより頻繁なカテゴリの予測に偏る不均衡につながる。
この知見に基づいて、稀なカテゴリと頻繁なカテゴリ間のトレードオフなしにこの不均衡を補償する、新しい適応的損失であるdroplossを開発した。
この損失により、LVISデータセット上で、まれ、一般的、頻繁なカテゴリにまたがる最先端のmAPを示す。
関連論文リスト
- Balanced Classification: A Unified Framework for Long-Tailed Object
Detection [74.94216414011326]
従来の検出器は、分類バイアスによる長期データを扱う際の性能劣化に悩まされる。
本稿では,カテゴリ分布の格差に起因する不平等の適応的是正を可能にする,BAlanced CLassification (BACL) と呼ばれる統一フレームワークを提案する。
BACLは、さまざまなバックボーンとアーキテクチャを持つさまざまなデータセット間で、一貫してパフォーマンス改善を実現している。
論文 参考訳(メタデータ) (2023-08-04T09:11:07Z) - Shift Happens: Adjusting Classifiers [2.8682942808330703]
ブレアスコアやログロス(クロスエントロピー)のような適切なスコアリングルールによって測定される期待損失を最小限に抑えることは、確率的分類器を訓練する際の共通の目的である。
本稿では,全ての予測を平均予測とクラス分布に等化させる手法を提案する。
実際に、クラス分布が概ね知られている場合、シフトの量やクラス分布が知られている精度に応じて、損失が減少することがしばしばあることを実験によって実証した。
論文 参考訳(メタデータ) (2021-11-03T21:27:27Z) - On Clustering Categories of Categorical Predictors in Generalized Linear
Models [0.0]
本稿では,分類予測器の存在下での一般化線形モデルの複雑性を低減する手法を提案する。
各カテゴリがダミー変数で表される従来のワンホット符号化は、無駄で解釈が難しく、過度に適合する傾向がある。
本稿では,カテゴリをクラスタリングすることでカテゴリ予測器の表現を小さくすることで,これらの課題に対処する。
論文 参考訳(メタデータ) (2021-10-19T15:36:35Z) - Investigate the Essence of Long-Tailed Recognition from a Unified
Perspective [11.080317683184363]
深層認識モデルは、カテゴリ間の重い不均衡なサンプル数のために、長い尾のデータ分布に悩まされることが多い。
本研究では,長い尾の認識が標本数とカテゴリの類似性の両方に悩まされていることを示す。
論文 参考訳(メタデータ) (2021-07-08T11:08:40Z) - Adaptive Class Suppression Loss for Long-Tail Object Detection [49.7273558444966]
アダプティブクラス抑圧損失(ACSL:Adaptive Class Suppression Loss)を考案し,尾部カテゴリの検出性能を改善する。
当社のACSLはResNet50-FPNで5.18%と5.2%の改善を実現し,新たな最先端技術を実現した。
論文 参考訳(メタデータ) (2021-04-02T05:12:31Z) - Seesaw Loss for Long-Tailed Instance Segmentation [131.86306953253816]
本稿では,各カテゴリの正試料と負試料の動的再バランス勾配を求めるシーソー損失を提案する。
緩和因子は、異なるカテゴリ間の累積トレーニングインスタンスの比率に比例して、罰を尾のカテゴリに還元する。
補償係数は、末尾カテゴリーの偽陽性を避けるために、誤分類されたインスタンスのペナルティを増加させる。
論文 参考訳(メタデータ) (2020-08-23T12:44:45Z) - Distribution-Balanced Loss for Multi-Label Classification in Long-Tailed
Datasets [98.74153364118898]
本稿では,長距離クラス分布を示す多ラベル認識問題に対して,分散ベース損失と呼ばれる新たな損失関数を提案する。
Distribution-Balanced Lossは、標準的なバイナリのクロスエントロピー損失に対する2つの重要な修正を通じて、これらの問題に取り組む。
パスカルVOCとCOCOの両方の実験により、この新しい損失関数で訓練されたモデルは、大幅な性能向上を達成できた。
論文 参考訳(メタデータ) (2020-07-19T11:50:10Z) - Equalization Loss for Long-Tailed Object Recognition [109.91045951333835]
最先端のオブジェクト検出手法は、大きな語彙と長い尾を持つデータセットでは依然として不十分である。
そこで本稿では,長期的希少なカテゴリーの課題に対処するために,同化損失という,シンプルだが効果的な損失を提案する。
LVISベンチマークでは,レアおよび共通カテゴリのAP利得が4.1%,レアおよび共通カテゴリが4.8%である。
論文 参考訳(メタデータ) (2020-03-11T09:14:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。