論文の概要: Self-Regulation for Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2108.09702v1
- Date: Sun, 22 Aug 2021 12:31:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-25 02:49:17.835409
- Title: Self-Regulation for Semantic Segmentation
- Title(参考訳): セマンティクスセグメンテーションにおける自己制御
- Authors: Zhang Dong, Zhang Hanwang, Tang Jinhui, Hua Xiansheng, Sun Qianru
- Abstract要約: フェール1は詳細な機能の不足によるものであり、フェール2は視覚的コンテキストの不足によるものである。
SSニューラルネットワークのトレーニングにいくつかの自己規制(SR)損失を導入する。
我々は,弱いタスクと完全に教師されたタスクの両方に対して広範な実験を行い,その結果,我々のアプローチがベースラインを一貫して超越していることが判明した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we seek reasons for the two major failure cases in Semantic
Segmentation (SS): 1) missing small objects or minor object parts, and 2)
mislabeling minor parts of large objects as wrong classes. We have an
interesting finding that Failure-1 is due to the underuse of detailed features
and Failure-2 is due to the underuse of visual contexts. To help the model
learn a better trade-off, we introduce several Self-Regulation (SR) losses for
training SS neural networks. By "self", we mean that the losses are from the
model per se without using any additional data or supervision. By applying the
SR losses, the deep layer features are regulated by the shallow ones to
preserve more details; meanwhile, shallow layer classification logits are
regulated by the deep ones to capture more semantics. We conduct extensive
experiments on both weakly and fully supervised SS tasks, and the results show
that our approach consistently surpasses the baselines. We also validate that
SR losses are easy to implement in various state-of-the-art SS models, e.g.,
SPGNet and OCRNet, incurring little computational overhead during training and
none for testing.
- Abstract(参考訳): 本稿では,セマンティックセグメンテーション(SS)における2つの主要な障害事例の理由を探る。1)小さなオブジェクトや小さなオブジェクトの部分の欠如,2)大きなオブジェクトの小さな部分を間違ったクラスと誤ラベルすること。
興味深い発見として、Failure-1は詳細な機能の不足によるものであり、Failure-2は視覚的コンテキストの不足によるものです。
モデルがよりよいトレードオフを学習するために、SSニューラルネットワークのトレーニングにいくつかの自己規制(SR)損失を導入する。
によって、損失は、追加のデータや監視を使わずに、それ自体がモデルから来ていることを意味する。
sr損失を適用することで、深い層の特徴はより詳細を保つために浅い層によって制御され、一方、浅い層分類ロジットは深い層によって制御され、より意味を捉える。
我々は,ssタスクとssタスクの両方について広範な実験を行い,本手法がベースラインを一貫して超越していることを示す。
また、SR損失はSPGNetやOCRNetなど、最先端のSSモデルで容易に実装でき、トレーニング中に計算オーバーヘッドがほとんどなく、テストに役立ちません。
関連論文リスト
- SINDER: Repairing the Singular Defects of DINOv2 [61.98878352956125]
大規模なデータセットでトレーニングされたビジョントランスフォーマーモデルは、抽出したパッチトークンにアーティファクトを表示することが多い。
本稿では,小さなデータセットのみを用いて構造欠陥を補正するスムーズなスムーズな正規化を提案する。
論文 参考訳(メタデータ) (2024-07-23T20:34:23Z) - Why Does Sharpness-Aware Minimization Generalize Better Than SGD? [102.40907275290891]
シャープネス・アウェアの最小化(SAM)がデータモデルや2層畳み込みReLUネットワークに対してグラディエントDescent(SGD)よりも優れていることを示す。
その結果,SAMの利点,特に早期の雑音学習を防止し,特徴のより効果的な学習を容易にする能力について解説した。
論文 参考訳(メタデータ) (2023-10-11T07:51:10Z) - SuSana Distancia is all you need: Enforcing class separability in metric
learning via two novel distance-based loss functions for few-shot image
classification [0.9236074230806579]
本稿では,少数のデータ間のクラス内距離とクラス間距離を調べることで,埋め込みベクトルの重要性を考慮に入れた2つの損失関数を提案する。
以上の結果から,miniImagenNetベンチマークの精度は,他のメトリクスベースの数ショット学習手法に比べて2%向上した。
論文 参考訳(メタデータ) (2023-05-15T23:12:09Z) - Training trajectories, mini-batch losses and the curious role of the
learning rate [13.848916053916618]
検証された勾配勾配勾配は、ディープラーニングのほぼすべての応用において、基本的な役割を担っていることを示す。
本稿では,ミニバッチの勾配と全バッチの関係を解析する簡単なモデルと幾何学的解釈を提案する。
特に、非常に低い損失値は、十分な学習率で1段階の降下に到達することができる。
論文 参考訳(メタデータ) (2023-01-05T21:58:46Z) - Learning Compact Features via In-Training Representation Alignment [19.273120635948363]
各エポックでは、トレーニングセットからサンプリングしたミニバッチを用いて損失関数の真の勾配を推定する。
In-Training Representation Alignment (ITRA) を提案する。
また,特徴表現学習における一致損失の望ましい影響を厳密に分析する。
論文 参考訳(メタデータ) (2022-11-23T22:23:22Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - Weakly Supervised Person Search with Region Siamese Networks [65.76237418040071]
教師付き学習は人検索において支配的であるが、境界ボックスとアイデンティティの詳細なラベル付けが必要である。
私たちは、バウンディングボックスアノテーションのみが利用できる弱い教師付き設定を提示します。
我々のモデルはCUHK-SYSUベンチマークで87.1%のランク1と86.0%のmAPを達成している。
論文 参考訳(メタデータ) (2021-09-13T16:33:27Z) - Equalization Loss for Long-Tailed Object Recognition [109.91045951333835]
最先端のオブジェクト検出手法は、大きな語彙と長い尾を持つデータセットでは依然として不十分である。
そこで本稿では,長期的希少なカテゴリーの課題に対処するために,同化損失という,シンプルだが効果的な損失を提案する。
LVISベンチマークでは,レアおよび共通カテゴリのAP利得が4.1%,レアおよび共通カテゴリが4.8%である。
論文 参考訳(メタデータ) (2020-03-11T09:14:53Z) - Simple and Effective Prevention of Mode Collapse in Deep One-Class
Classification [93.2334223970488]
深部SVDDにおける超球崩壊を防止するための2つの正則化器を提案する。
第1の正則化器は、標準のクロスエントロピー損失によるランダムノイズの注入に基づいている。
第2の正規化器は、小さすぎるとミニバッチ分散をペナライズする。
論文 参考訳(メタデータ) (2020-01-24T03:44:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。