論文の概要: Adversarial Focal Loss: Asking Your Discriminator for Hard Examples
- arxiv url: http://arxiv.org/abs/2207.07739v1
- Date: Fri, 15 Jul 2022 20:26:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-20 07:19:49.651079
- Title: Adversarial Focal Loss: Asking Your Discriminator for Hard Examples
- Title(参考訳): 相手の頭蓋骨の喪失:識別器に難しい例を尋ねる
- Authors: Chen Liu, Xiaomeng Dong, Michael Potter, Hsi-Ming Chang, Ravi Soni
- Abstract要約: 本稿では,AFL(Adversarial Focal Loss)と呼ばれるキーポイント検出タスクのための新しいFocal Lossを提案する。
AFLは、意味的にFocal Losと類似しているだけでなく、任意の損失関数のプラグイン・アンド・チャグアップグレードとしても機能する。
- 参考スコア(独自算出の注目度): 2.2898280822954686
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Focal Loss has reached incredible popularity as it uses a simple technique to
identify and utilize hard examples to achieve better performance on
classification. However, this method does not easily generalize outside of
classification tasks, such as in keypoint detection. In this paper, we propose
a novel adaptation of Focal Loss for keypoint detection tasks, called
Adversarial Focal Loss (AFL). AFL not only is semantically analogous to Focal
loss, but also works as a plug-and-chug upgrade for arbitrary loss functions.
While Focal Loss requires output from a classifier, AFL leverages a separate
adversarial network to produce a difficulty score for each input. This
difficulty score can then be used to dynamically prioritize learning on hard
examples, even in absence of a classifier. In this work, we show AFL's
effectiveness in enhancing existing methods in keypoint detection and verify
its capability to re-weigh examples based on difficulty.
- Abstract(参考訳): Focal Lossは、単純なテクニックを使って、難しい例を特定し、利用して、分類におけるより良いパフォーマンスを実現しているため、驚くほど人気がある。
しかし,この手法はキーポイント検出などの分類タスク以外では容易に一般化できない。
本稿では,AFL(Adversarial Focal Loss)と呼ばれるキーポイント検出タスクに対して,新しいFocal Lossを提案する。
AFLは、意味的にFocal Losと類似しているだけでなく、任意の損失関数のプラグイン・アンド・チャグアップグレードとしても機能する。
Focal Lossは分類器からの出力を必要とするが、AFLは個別の敵ネットワークを活用して各入力の難易度スコアを生成する。
この難易度スコアは、たとえ分類器がなくても、ハードサンプルの学習を動的に優先順位付けするために使うことができる。
そこで本研究では,キーポイント検出における既存手法の強化にaflの有効性を示し,難易度を基準として実例の再現性を検証する。
関連論文リスト
- Regularizing Neural Network Training via Identity-wise Discriminative
Feature Suppression [20.89979858757123]
トレーニングサンプルの数が少ない場合、あるいはクラスラベルがうるさい場合、ネットワークはトレーニングエラーを最小限に抑えるために個々のインスタンス固有のパターンを記憶する傾向がある。
本稿では、経験的エラー最小化のために、インスタンス固有のパターンに依存するネットワークの傾向を抑えることで、改善策を検討する。
論文 参考訳(メタデータ) (2022-09-29T05:14:56Z) - Weakly Supervised Semantic Segmentation using Out-of-Distribution Data [50.45689349004041]
弱教師付きセマンティックセグメンテーション(WSSS)法は、しばしばピクセルレベルのローカライゼーションマップ上に構築される。
本稿では,背景と背景を区別する新たな情報源を提案する。
論文 参考訳(メタデータ) (2022-03-08T05:33:35Z) - Learning with Noisy Labels via Sparse Regularization [76.31104997491695]
ノイズの多いラベルで学習することは、正確なディープニューラルネットワークをトレーニングするための重要なタスクである。
クロスエントロピー(Cross Entropy, CE)など、一般的に使われている損失関数は、ノイズラベルへの過度なオーバーフィットに悩まされている。
我々は, スパース正規化戦略を導入し, ワンホット制約を近似する。
論文 参考訳(メタデータ) (2021-07-31T09:40:23Z) - Searching for Robustness: Loss Learning for Noisy Classification Tasks [81.70914107917551]
テイラーを用いたフレキシブルな損失関数群をパラメタライズし、この空間におけるノイズロスの探索に進化的戦略を適用する。
その結果、ホワイトボックスの損失は、さまざまな下流タスクで効果的なノイズロバスト学習を可能にするシンプルで高速な「プラグアンドプレイ」モジュールを提供します。
論文 参考訳(メタデータ) (2021-02-27T15:27:22Z) - LLA: Loss-aware Label Assignment for Dense Pedestrian Detection [21.803748552149635]
群集シナリオにおける歩行者検知器の性能向上を図るため,ロス対応ラベル割り当てを提案する。
CrowdHumanとCityPersonsの実験では、2つの有名な1段検出器でMRを9.53%、5.47%向上させることができる。
論文 参考訳(メタデータ) (2021-01-12T05:51:32Z) - A Weakly-Supervised Semantic Segmentation Approach based on the Centroid
Loss: Application to Quality Control and Inspection [6.101839518775968]
本稿では,新しい損失関数を用いた弱教師付きセマンティックセマンティックセマンティクス手法の提案と評価を行う。
アプローチのパフォーマンスは,2つの業界関連ケーススタディのデータセットに対して評価される。
論文 参考訳(メタデータ) (2020-10-26T09:08:21Z) - ATRO: Adversarial Training with a Rejection Option [10.36668157679368]
本稿では, 逆例による性能劣化を軽減するために, 拒否オプション付き分類フレームワークを提案する。
分類器と拒否関数を同時に適用することにより、テストデータポイントの分類に自信が不十分な場合に分類を控えることができる。
論文 参考訳(メタデータ) (2020-10-24T14:05:03Z) - Few-Shot Open-Set Recognition using Meta-Learning [72.15940446408824]
オープンセット認識の問題点を考察する。
新しいoPen sEt mEta LEaRning (PEELER)アルゴリズムが導入された。
論文 参考訳(メタデータ) (2020-05-27T23:49:26Z) - Equalization Loss for Long-Tailed Object Recognition [109.91045951333835]
最先端のオブジェクト検出手法は、大きな語彙と長い尾を持つデータセットでは依然として不十分である。
そこで本稿では,長期的希少なカテゴリーの課題に対処するために,同化損失という,シンプルだが効果的な損失を提案する。
LVISベンチマークでは,レアおよび共通カテゴリのAP利得が4.1%,レアおよび共通カテゴリが4.8%である。
論文 参考訳(メタデータ) (2020-03-11T09:14:53Z) - Solving Missing-Annotation Object Detection with Background
Recalibration Loss [49.42997894751021]
本稿では,新しい,かつ困難な検出シナリオに焦点を当てる。 真のオブジェクト/インスタンスの大部分は,データセットにラベル付けされていない。
従来, ソフトサンプリングを用いて, 正の例と重なり合うRoIsの勾配を再重み付けする手法が提案されてきた。
本稿では、予め定義されたIoU閾値と入力画像に基づいて損失信号を自動的に校正できる、バックグラウンド校正損失(BRL)と呼ばれる優れた解を提案する。
論文 参考訳(メタデータ) (2020-02-12T23:11:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。