論文の概要: AsyInst: Asymmetric Affinity with DepthGrad and Color for Box-Supervised
Instance Segmentation
- arxiv url: http://arxiv.org/abs/2212.03517v1
- Date: Wed, 7 Dec 2022 08:47:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 16:25:11.644553
- Title: AsyInst: Asymmetric Affinity with DepthGrad and Color for Box-Supervised
Instance Segmentation
- Title(参考訳): AsyInst: Box-Supervised Instance SegmentationのためのDepthGradとColorによる非対称親和性
- Authors: Siwei Yang, Longlong Jing, Junfei Xiao, Hang Zhao, Alan Yuille,
Yingwei Li
- Abstract要約: 本稿では, 自明な予測に対するペナルティを提供する新しい非対称アフィニティ損失を提案し, 異なるモダリティからのアフィニティ損失をうまく一般化する。
提案した非対称アフィニティ損失は,Cityscapesデータセットの最先端手法より優れ,ベースライン手法ではマスクAPが3.5%向上する。
- 参考スコア(独自算出の注目度): 27.202151967032442
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The weakly supervised instance segmentation is a challenging task. The
existing methods typically use bounding boxes as supervision and optimize the
network with a regularization loss term such as pairwise color affinity loss
for instance segmentation. Through systematic analysis, we found that the
commonly used pairwise affinity loss has two limitations: (1) it works with
color affinity but leads to inferior performance with other modalities such as
depth gradient, (2)the original affinity loss does not prevent trivial
predictions as intended but actually accelerates this process due to the
affinity loss term being symmetric. To overcome these two limitations, in this
paper, we propose a novel asymmetric affinity loss which provides the penalty
against the trivial prediction and generalizes well with affinity loss from
different modalities. With the proposed asymmetric affinity loss, our method
outperforms the state-of-the-art methods on the Cityscapes dataset and
outperforms our baseline method by 3.5% in mask AP.
- Abstract(参考訳): 弱教師付きインスタンスセグメンテーションは難しいタスクである。
既存の手法は通常、境界ボックスを監督として使用し、例えばセグメンテーションのペアワイズカラーアフィニティ損失のような正規化損失項でネットワークを最適化する。
系統的な分析により,(1)色親和性は機能するが,深度勾配などの他のモードに比べて性能は劣るが,(2)本来の親和性損失は意図したような自明な予測を妨げないが,実際には対称な親和性損失項のため,この過程を加速させる。
本稿では,この2つの制約を克服するために,自明な予測に対するペナルティを与え,異なるモダリティによる親和性損失を一般化する新しい非対称親和性損失を提案する。
提案する非対称アフィニティ損失により,cityscapesデータセットの最先端手法を上回り,マスクapのベースラインメソッドを3.5%上回った。
関連論文リスト
- Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - Learning Layer-wise Equivariances Automatically using Gradients [66.81218780702125]
畳み込みは等価対称性をニューラルネットワークにエンコードし、より優れた一般化性能をもたらす。
対称性は、ネットワークが表現できる機能、事前に指定する必要、適応できない機能に対して、固定されたハード制約を提供する。
私たちのゴールは、勾配を使ってデータから自動的に学習できるフレキシブル対称性の制約を可能にすることです。
論文 参考訳(メタデータ) (2023-10-09T20:22:43Z) - Expressive Losses for Verified Robustness via Convex Combinations [67.54357965665676]
本研究では, 過近似係数と異なる表現的損失に対する性能分布の関係について検討した。
表現性が不可欠である一方で、最悪の場合の損失のより良い近似は、必ずしも優れた堅牢性-正確性トレードオフに結びついていないことを示す。
論文 参考訳(メタデータ) (2023-05-23T12:20:29Z) - General Loss Functions Lead to (Approximate) Interpolation in High
Dimensions [6.738946307589741]
閉形式における勾配降下の暗黙バイアスを概ね特徴づける統一的な枠組みを提供する。
具体的には、暗黙バイアスが高次元の最小ノルムに近似されている(正確には同値ではない)ことを示す。
また,本フレームワークは,バイナリとマルチクラス設定間で指数関数的に制限された損失に対して,既存の正確な等価性を回復する。
論文 参考訳(メタデータ) (2023-03-13T21:23:12Z) - Critical Points and Convergence Analysis of Generative Deep Linear
Networks Trained with Bures-Wasserstein Loss [2.294014185517203]
本稿では,バーレス=ヴァッサーシュタイン距離で学習した共分散行列の行列分解モデルについて考察する。
階数有界行列の空間上のバーレス=ヴァッサーシュタイン距離の臨界点と最小化器を特徴づける。
有限段勾配勾配のスムーズな摂動バージョンを用いて勾配流の収束結果を確立する。
論文 参考訳(メタデータ) (2023-03-06T10:56:14Z) - Calibrating Segmentation Networks with Margin-based Label Smoothing [19.669173092632]
現状のキャリブレーション損失に対する統一的制約最適化の視点を提供する。
これらの損失は、ロジット距離に等しい制約を課す線形ペナルティの近似と見なすことができる。
我々は不等式制約に基づく単純で柔軟な一般化を提案し、ロジット距離に制御可能なマージンを課す。
論文 参考訳(メタデータ) (2022-09-09T20:21:03Z) - The Devil is in the Margin: Margin-based Label Smoothing for Network
Calibration [21.63888208442176]
ディープニューラルネットワークの優位な性能にもかかわらず、最近の研究では、それらが十分に校正されていないことが示されている。
現状のキャリブレーション損失に対する統一的制約最適化の視点を提供する。
我々は不等式制約に基づく単純で柔軟な一般化を提案し、ロジット距離に制御可能なマージンを課す。
論文 参考訳(メタデータ) (2021-11-30T14:21:47Z) - InverseForm: A Loss Function for Structured Boundary-Aware Segmentation [80.39674800972182]
逆変換ネットワークを用いたセマンティックセグメンテーションのための新しい境界認識損失項を提案する。
このプラグイン損失項は境界変換の捕捉におけるクロスエントロピー損失を補完する。
室内および屋外のセグメンテーションベンチマークにおける損失関数の定量的および定性的効果を解析した。
論文 参考訳(メタデータ) (2021-04-06T18:52:45Z) - A Symmetric Loss Perspective of Reliable Machine Learning [87.68601212686086]
平衡誤差率 (BER) の最小化において, 対称損失が破損ラベルからのロバストな分類をいかに生み出すかを検討する。
我々は、関連するキーワードからのみ学習したい問題において、AUC手法が自然言語処理にどのように役立つかを実証する。
論文 参考訳(メタデータ) (2021-01-05T06:25:47Z) - Edge-Preserving Guided Semantic Segmentation for VIPriors Challenge [3.435043566706133]
現在の最先端およびディープラーニングに基づくセマンティックセマンティックセグメンテーション技術は、よく訓練することは難しい。
付加的な事前情報を得るためのエッジ保存ガイダンスを提案する。
実験により,提案手法は小型のトレーニングセットで優れた性能が得られることを示した。
論文 参考訳(メタデータ) (2020-07-17T11:49:10Z) - Towards Certified Robustness of Distance Metric Learning [53.96113074344632]
我々は,距離学習アルゴリズムの一般化とロバスト性を改善するために,入力空間に逆のマージンを付与することを提唱する。
アルゴリズム的ロバスト性の理論手法を用いることにより,拡張マージンは一般化能力に有益であることを示す。
論文 参考訳(メタデータ) (2020-06-10T16:51:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。