論文の概要: Class-Agnostic Segmentation Loss and Its Application to Salient Object
Detection and Segmentation
- arxiv url: http://arxiv.org/abs/2108.04226v1
- Date: Fri, 16 Jul 2021 12:26:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-15 11:27:56.574270
- Title: Class-Agnostic Segmentation Loss and Its Application to Salient Object
Detection and Segmentation
- Title(参考訳): クラス非依存セグメンテーション損失とその有能物体検出・セグメンテーションへの応用
- Authors: Angira Sharma, Naeemullah Khan, Muhammad Mubashar, Ganesh
Sundaramoorthi, Philip Torr
- Abstract要約: そこで我々はCAS(class-agnostic segmentation)ロスと呼ばれる新しい損失関数を提案する。
CAS損失関数はスパースであり, 有界であり, クラス不均衡に対して頑健であることを示す。
- 参考スコア(独自算出の注目度): 17.149364927872014
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we present a novel loss function, called class-agnostic
segmentation (CAS) loss. With CAS loss the class descriptors are learned during
training of the network. We don't require to define the label of a class
a-priori, rather the CAS loss clusters regions with similar appearance together
in a weakly-supervised manner. Furthermore, we show that the CAS loss function
is sparse, bounded, and robust to class-imbalance. We first apply our CAS loss
function with fully-convolutional ResNet101 and DeepLab-v3 architectures to the
binary segmentation problem of salient object detection. We investigate the
performance against the state-of-the-art methods in two settings of low and
high-fidelity training data on seven salient object detection datasets. For
low-fidelity training data (incorrect class label) class-agnostic segmentation
loss outperforms the state-of-the-art methods on salient object detection
datasets by staggering margins of around 50%. For high-fidelity training data
(correct class labels) class-agnostic segmentation models perform as good as
the state-of-the-art approaches while beating the state-of-the-art methods on
most datasets. In order to show the utility of the loss function across
different domains we then also test on general segmentation dataset, where
class-agnostic segmentation loss outperforms competing losses by huge margins.
- Abstract(参考訳): 本稿では,CAS損失(class-agnostic segmentation)と呼ばれる新しい損失関数を提案する。
cas損失により、クラス記述子はネットワークのトレーニング中に学習される。
クラス a-priori のラベルを定義する必要はないが、CAS の損失クラスタは、よく似た外観を、弱教師付きで一緒に定義する。
さらに,cas損失関数はクラス不均衡に弱く,有界であり,ロバストであることを示した。
最初にcas損失関数を完全畳み込みresnet101とdeeplab-v3アーキテクチャで適用し,salient object detectionのバイナリセグメンテーション問題に適用した。
本研究では,7つの有意な対象検出データセットに対する低・高忠実度トレーニングデータの2つの設定における最先端手法に対する性能について検討する。
低忠実度トレーニングデータ(不正確なクラスラベル)では、クラス非依存なセグメンテーション損失は、約50%のマージンを停滞させることで、サルエントオブジェクト検出データセットの最先端メソッドを上回っている。
高忠実性トレーニングデータ(正しいクラスラベル)では、クラスに依存しないセグメンテーションモデルは最先端のアプローチと同等に機能し、ほとんどのデータセットで最先端の手法を上回ります。
異なるドメインにまたがるロス関数の有用性を示すために、クラス非依存なセグメンテーションの損失が競合する損失を圧倒する一般的なセグメンテーションデータセットもテストします。
関連論文リスト
- Collaborative Feature-Logits Contrastive Learning for Open-Set Semi-Supervised Object Detection [75.02249869573994]
オープンセットのシナリオでは、ラベルなしデータセットには、イン・ディストリビューション(ID)クラスとアウト・オブ・ディストリビューション(OOD)クラスの両方が含まれている。
このような設定で半教師付き検出器を適用すると、OODクラスをIDクラスとして誤分類する可能性がある。
我々は、CFL-Detector(Collaborative Feature-Logits Detector)と呼ばれるシンプルで効果的な方法を提案する。
論文 参考訳(メタデータ) (2024-11-20T02:57:35Z) - SuSana Distancia is all you need: Enforcing class separability in metric
learning via two novel distance-based loss functions for few-shot image
classification [0.9236074230806579]
本稿では,少数のデータ間のクラス内距離とクラス間距離を調べることで,埋め込みベクトルの重要性を考慮に入れた2つの損失関数を提案する。
以上の結果から,miniImagenNetベンチマークの精度は,他のメトリクスベースの数ショット学習手法に比べて2%向上した。
論文 参考訳(メタデータ) (2023-05-15T23:12:09Z) - CAFS: Class Adaptive Framework for Semi-Supervised Semantic Segmentation [5.484296906525601]
半教師付きセマンティックセグメンテーションは、いくつかのラベル付きサンプルと多数のラベルなし画像を使用して、ピクセルを特定のクラスに分類するモデルを学ぶ。
半教師付きセマンティックセグメンテーション(CAFS)のためのクラス適応型セミスーパービジョンフレームワークを提案する。
CAFSはラベル付きデータセットに検証セットを構築し、各クラスの校正性能を活用する。
論文 参考訳(メタデータ) (2023-03-21T05:56:53Z) - Long-tail Detection with Effective Class-Margins [4.18804572788063]
本稿では, 未知のテストセットの平均精度評価基準が, マージンベースの二項分類誤差によってどのように制限されているかを示す。
テキスト・エフェクティブ・クラス・マージン・ロス(ECM)と呼ばれる新しいサロゲート目標を用いて、マージンベースの二項分類誤差を最適化する。
論文 参考訳(メタデータ) (2023-01-23T21:25:24Z) - Spacing Loss for Discovering Novel Categories [72.52222295216062]
新たなクラスディスカバリ(NCD)は、マシンラーニングモデルがラベルのないデータからインスタンスを意味的にグループ化する、学習パラダイムである。
まず,ラベル付きデータとラベルなしデータを併用する必要があるかどうかに基づいて,既存のNCD手法を1段階および2段階の手法に特徴付ける。
多次元スケーリングのキューを用いて、潜在空間における分離性を強制する単純で強力な損失関数を考案する。
論文 参考訳(メタデータ) (2022-04-22T09:37:11Z) - Self-Supervised Class Incremental Learning [51.62542103481908]
既存のクラスインクリメンタルラーニング(CIL)手法は、データラベルに敏感な教師付き分類フレームワークに基づいている。
新しいクラスデータに基づいて更新する場合、それらは破滅的な忘れがちである。
本稿では,SSCILにおける自己指導型表現学習のパフォーマンスを初めて考察する。
論文 参考訳(メタデータ) (2021-11-18T06:58:19Z) - Class-Agnostic Segmentation Loss and Its Application to Salient Object
Detection and Segmentation [17.532822703595766]
そこで我々はCAS(class-agnostic segmentation)ロスと呼ばれる新しい損失関数を提案する。
CAS損失関数はスパースであり, 有界であり, クラス不均衡に対して頑健であることを示す。
低忠実度および高忠実度トレーニングデータの2つの設定における最先端手法に対する性能について検討する。
論文 参考訳(メタデータ) (2020-10-28T07:11:15Z) - CC-Loss: Channel Correlation Loss For Image Classification [35.43152123975516]
チャネル相関損失(CC-Loss)は、クラスとチャネル間の特定の関係を制約することができる。
提案したCC-Lossでトレーニングされた2つの異なるバックボーンモデルは、3つの画像分類データセットにおける最先端の損失関数より優れている。
論文 参考訳(メタデータ) (2020-10-12T05:59:06Z) - Fine-Grained Visual Classification with Efficient End-to-end
Localization [49.9887676289364]
本稿では,エンド・ツー・エンドの設定において,分類ネットワークと融合可能な効率的なローカライゼーションモジュールを提案する。
我々は,CUB200-2011,Stanford Cars,FGVC-Aircraftの3つのベンチマークデータセット上で,新しいモデルを評価する。
論文 参考訳(メタデータ) (2020-05-11T14:07:06Z) - Equalization Loss for Long-Tailed Object Recognition [109.91045951333835]
最先端のオブジェクト検出手法は、大きな語彙と長い尾を持つデータセットでは依然として不十分である。
そこで本稿では,長期的希少なカテゴリーの課題に対処するために,同化損失という,シンプルだが効果的な損失を提案する。
LVISベンチマークでは,レアおよび共通カテゴリのAP利得が4.1%,レアおよび共通カテゴリが4.8%である。
論文 参考訳(メタデータ) (2020-03-11T09:14:53Z) - Identifying and Compensating for Feature Deviation in Imbalanced Deep
Learning [59.65752299209042]
このようなシナリオ下でのConvNetの学習について検討する。
私たちは、ConvNetがマイナーなクラスにかなり適合していることに気づきました。
クラス依存型温度トレーニング(CDT)のConvNetの導入を提案する。
論文 参考訳(メタデータ) (2020-01-06T03:52:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。