論文の概要: Glass Segmentation with Multi Scales and Primary Prediction Guiding
- arxiv url: http://arxiv.org/abs/2402.08571v2
- Date: Wed, 14 Feb 2024 05:23:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-15 11:58:33.220592
- Title: Glass Segmentation with Multi Scales and Primary Prediction Guiding
- Title(参考訳): 多スケールガラスセグメンテーションと一次予測指針
- Authors: Zhiyu Xu and Qingliang Chen
- Abstract要約: ガラスのような物体は、日々の生活の中でどこにでも見えます。
本稿では,FineRescaling and Merging Module (FRM) から構成されるMGNetを提案する。
高信頼セグメンテーションマップを作成するために,不確実性を考慮した新たな損失関数を用いてモデルを監督する。
- 参考スコア(独自算出の注目度): 2.66512000865131
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Glass-like objects can be seen everywhere in our daily life which are very
hard for existing methods to segment them. The properties of transparencies
pose great challenges of detecting them from the chaotic background and the
vague separation boundaries further impede the acquisition of their exact
contours. Moving machines which ignore glasses have great risks of crashing
into transparent barriers or difficulties in analysing objects reflected in the
mirror, thus it is of substantial significance to accurately locate glass-like
objects and completely figure out their contours. In this paper, inspired by
the scale integration strategy and the refinement method, we proposed a
brand-new network, named as MGNet, which consists of a Fine-Rescaling and
Merging module (FRM) to improve the ability to extract spatially relationship
and a Primary Prediction Guiding module (PPG) to better mine the leftover
semantics from the fused features. Moreover, we supervise the model with a
novel loss function with the uncertainty-aware loss to produce high-confidence
segmentation maps. Unlike the existing glass segmentation models that must be
trained on different settings with respect to varied datasets, our model are
trained under consistent settings and has achieved superior performance on
three popular public datasets. Code is available at
- Abstract(参考訳): ガラスのような物体は、私たちの日常生活の至るところで見られ、既存の方法ではそれらを分割することが非常に難しい。
透明性の性質はカオス的背景からそれらを検出するという大きな課題を引き起こし、あいまいな分離境界はそれらの正確な輪郭の取得をさらに妨げている。
ガラスを無視する移動機械は、透明な障壁にぶつかる大きなリスクや鏡に映っている物体を分析するのが難しいため、ガラスのような物体を正確に見つけ、輪郭を完全に把握することは極めて重要である。
本稿では,スケール統合戦略と改良手法に触発されて,空間的関係を抽出する能力を向上させるための細かな再スケーリング・マージモジュール(frm)と,余剰セマンティクスをよりよく分離するプライマリ予測案内モジュール(ppg)からなるmgnetという新ネットワークを提案する。
さらに,不確実性を考慮した新しい損失関数を用いてモデルを監督し,高信頼セグメンテーションマップを作成する。
さまざまなデータセットに関して異なる設定でトレーニングする必要がある既存のガラスセグメンテーションモデルとは異なり、我々のモデルは一貫性のある設定でトレーニングされており、3つの人気のある公開データセットで優れたパフォーマンスを実現している。
コードは利用可能です。
関連論文リスト
- Fourier Boundary Features Network with Wider Catchers for Glass Segmentation [12.465008923418406]
反射面と透過ガラスのセグメンテーションを制約する新しい手法を提案する。
提案手法はガラス画像分割における最先端技術 (SOTA) 法と比較して, セグメンテーション性能が向上する。
論文 参考訳(メタデータ) (2024-05-15T15:52:27Z) - ZoomNeXt: A Unified Collaborative Pyramid Network for Camouflaged Object Detection [70.11264880907652]
最近のオブジェクト(COD)は、現実のシナリオでは極めて複雑で難しい、視覚的にブレンドされたオブジェクトを周囲に分割しようと試みている。
本研究では,不明瞭な画像を観察したり,ズームインしたりアウトしたりする際の人間の行動を模倣する,効果的な統合協調ピラミッドネットワークを提案する。
我々のフレームワークは、画像とビデオのCODベンチマークにおいて、既存の最先端の手法を一貫して上回っている。
論文 参考訳(メタデータ) (2023-10-31T06:11:23Z) - RFENet: Towards Reciprocal Feature Evolution for Glass Segmentation [44.45402982171703]
本稿では,ガラス状オブジェクトセグメンテーションのためのReciprocal Feature Evolution Network (RFENet)を提案する。
RFENetは3つの人気のあるパブリックデータセットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-07-12T11:45:22Z) - A bioinspired three-stage model for camouflaged object detection [8.11866601771984]
本稿では,1回の繰り返しで粗い部分分割を可能にする3段階モデルを提案する。
本モデルでは, 3つのデコーダを用いて, サブサンプル特徴, 収穫特徴, および高解像度のオリジナル特徴を逐次処理する。
我々のネットワークは、不要な複雑さを伴わずに最先端のCNNベースのネットワークを上回る。
論文 参考訳(メタデータ) (2023-05-22T02:01:48Z) - Rethinking Range View Representation for LiDAR Segmentation [66.73116059734788]
「多対一」マッピング、意味的不整合、形状変形は、射程射影からの効果的な学習に対する障害となる可能性がある。
RangeFormerは、ネットワークアーキテクチャ、データ拡張、後処理を含む新しい設計を含む、フルサイクルのフレームワークである。
比較対象のLiDARセマンティックスとパノプティックスセグメンテーションのベンチマークにおいて,初めてレンジビュー法が点,ボクセル,マルチビューフュージョンを越えられることを示す。
論文 参考訳(メタデータ) (2023-03-09T16:13:27Z) - High-resolution Iterative Feedback Network for Camouflaged Object
Detection [128.893782016078]
カモフラージュされたオブジェクトを背景に視覚的に同化させることは、オブジェクト検出アルゴリズムにとって難しい。
エッジやバウンダリのぼやけた視界を生じさせる細部劣化を避けるために,高分解能テクスチャの詳細を抽出することを目的としている。
我々は,高解像度特徴量による低解像度表現を反復的フィードバック方式で洗練する新しいHitNetを提案する。
論文 参考訳(メタデータ) (2022-03-22T11:20:21Z) - Zoom In and Out: A Mixed-scale Triplet Network for Camouflaged Object
Detection [0.0]
本稿では,不明瞭な画像を観察する際の人間の動作を模倣する混合スケール三重項ネットワークbf ZoomNetを提案する。
具体的には、ZoomNetは、ズーム戦略を用いて、設計されたスケール統合ユニットと階層的な混合スケールユニットによって、差別的な混合スケール意味学を学ぶ。
提案したタスクフレンドリなモデルは、4つの公開データセット上の既存の23の最先端手法を一貫して上回っている。
論文 参考訳(メタデータ) (2022-03-05T09:13:52Z) - Salient Objects in Clutter [130.63976772770368]
本稿では,既存の正当性オブジェクト検出(SOD)データセットの重大な設計バイアスを特定し,対処する。
この設計バイアスは、既存のデータセットで評価した場合、最先端のSODモデルのパフォーマンスの飽和につながった。
我々は,新しい高品質データセットを提案し,前回のsaliencyベンチマークを更新する。
論文 参考訳(メタデータ) (2021-05-07T03:49:26Z) - Enhanced Boundary Learning for Glass-like Object Segmentation [55.45473926510806]
本稿では,拡張境界学習によるガラス状物体分割問題を解くことを目的とする。
特に,より微細な境界キューを生成するための改良された微分モジュールを最初に提案する。
境界に沿った大域的な形状表現をモデル化するために,エッジ対応のグラフ畳み込みネットワークモジュールを提案する。
論文 参考訳(メタデータ) (2021-03-29T16:18:57Z) - Progressive Self-Guided Loss for Salient Object Detection [102.35488902433896]
画像中の深層学習に基づくサラエント物体検出を容易にするプログレッシブ自己誘導損失関数を提案する。
我々のフレームワークは適応的に集約されたマルチスケール機能を利用して、健全な物体の探索と検出を効果的に行う。
論文 参考訳(メタデータ) (2021-01-07T07:33:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。