論文の概要: Hole-robust Wireframe Detection
- arxiv url: http://arxiv.org/abs/2111.15064v1
- Date: Tue, 30 Nov 2021 02:04:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-01 15:11:33.907749
- Title: Hole-robust Wireframe Detection
- Title(参考訳): 穴ローバストワイヤフレーム検出
- Authors: Naejin Kong, Kiwoong Park, Harshith Goka
- Abstract要約: ワイヤーフレーム(Wireframe)は、周囲の通常の形状を捉えた人造表現である。
我々は、GANを使って、ホールによって示されるデータを組み合わせることで、ホールを超えて基盤となるシーン構造をより正確に予測できることを示す。
- 参考スコア(独自算出の注目度): 1.879968161594709
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: "Wireframe" is a line segment based representation designed to well capture
large-scale visual properties of regular, structural shaped man-made scenes
surrounding us. Unlike the wireframes, conventional edges or line segments
focus on all visible edges and lines without particularly distinguishing which
of them are more salient to man-made structural information. Existing wireframe
detection models rely on supervising the annotated data but do not explicitly
pay attention to understand how to compose the structural shapes of the scene.
In addition, we often face that many foreground objects occluding the
background scene interfere with proper inference of the full scene structure
behind them. To resolve these problems, we first time in the field, propose new
conditional data generation and training that help the model understand how to
ignore occlusion indicated by holes, such as foreground object regions masked
out on the image. In addition, we first time combine GAN in the model to let
the model better predict underlying scene structure even beyond large holes. We
also introduce pseudo labeling to further enlarge the model capacity to
overcome small-scale labeled data. We show qualitatively and quantitatively
that our approach significantly outperforms previous works unable to handle
holes, as well as improves ordinary detection without holes given.
- Abstract(参考訳): ワイヤーフレーム(Wireframe)は線分に基づく表現で、われわれを取り巻く規則的で構造的な人造シーンの大規模な視覚特性をうまく捉えている。
ワイヤーフレームとは異なり、従来のエッジやラインセグメントは、目に見えるすべてのエッジやラインに重点を置いている。
既存のワイヤフレーム検出モデルは注釈付きデータの監視に頼っているが、シーンの構造的形状を構成する方法を理解するために明示的に注意を払っていない。
さらに,背景のシーンを包含する多くの前景オブジェクトが,背後にあるシーン構造を適切に推測するのを妨げることもしばしばある。
これらの問題を解決するために,我々はまず,画像に隠された前景の物体領域など,穴によって示される閉塞を無視する方法についてモデルが理解するための新しい条件付きデータ生成とトレーニングを提案する。
さらに,GANをモデルに組み合わさることで,大穴を超えても基礎となるシーン構造をより正確に予測することができる。
また、擬似ラベリングを導入し、モデル容量をさらに拡大し、小さなラベル付きデータを克服する。
提案手法は, 従来の穴の扱いができない作業よりも大幅に優れており, また, 穴のない通常の検出精度も向上していることを示す。
関連論文リスト
- SINDER: Repairing the Singular Defects of DINOv2 [61.98878352956125]
大規模なデータセットでトレーニングされたビジョントランスフォーマーモデルは、抽出したパッチトークンにアーティファクトを表示することが多い。
本稿では,小さなデータセットのみを用いて構造欠陥を補正するスムーズなスムーズな正規化を提案する。
論文 参考訳(メタデータ) (2024-07-23T20:34:23Z) - Enhancing Polygonal Building Segmentation via Oriented Corners [0.3749861135832072]
本稿では,入力画像から直接ポリゴンを抽出する,OriCornerNetという新しいディープ畳み込みニューラルネットワークを提案する。
我々のアプローチは、隣接する角への方向を示すフットプリントマスク、コーナー、配向ベクトルを予測できる深いモデルを含む。
SpaceNet VegasとCrowdAIの小さなデータセットで行った性能評価は、我々のアプローチの競争力を示すものである。
論文 参考訳(メタデータ) (2024-07-17T01:59:06Z) - Guided Slot Attention for Unsupervised Video Object Segmentation [16.69412563413671]
本研究では,空間構造情報を強化し,より優れた前景分離を実現するためのガイド付きスロットアテンションネットワークを提案する。
提案モデルは,2つの一般的なデータセット上での最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-03-15T02:08:20Z) - Neural Intrinsic Embedding for Non-rigid Point Cloud Matching [0.7734726150561088]
非剛性クラウド登録のための弱教師付き学習フレームワークを提案する。
私たちは、我々のフレームワークが最先端のベースラインと同等かそれ以上にパフォーマンスを示していることを実証的に示します。
論文 参考訳(メタデータ) (2023-03-02T07:50:41Z) - Contour Completion using Deep Structural Priors [1.7399355670260819]
本稿では、不連結な輪郭を完備化し、断片化された線と曲線を接続するフレームワークを提案する。
本稿では,輪郭のどの領域が除去されているかを知る必要のないモデルを提案する。
我々の研究は、深い構造的前提を用いて輪郭完成を達成するための堅牢なフレームワークを構築し、そのようなモデルをどのように実装するかを広範囲に調査する。
論文 参考訳(メタデータ) (2023-02-09T05:45:33Z) - Sharp Eyes: A Salient Object Detector Working The Same Way as Human
Visual Characteristics [3.222802562733787]
本稿では,まず被写体をシーンから分離し,それを細分化するシャープアイネットワーク(SENet)を提案する。
提案手法は,拡張オブジェクトを用いてネットワークを誘導し,完全な予測を行う。
論文 参考訳(メタデータ) (2023-01-18T11:00:45Z) - Self-Supervised Video Object Segmentation via Cutout Prediction and
Tagging [117.73967303377381]
本稿では, 自己教師型ビデオオブジェクト(VOS)アプローチを提案する。
本手法は,対象情報と背景情報の両方を考慮した識別学習損失の定式化に基づく。
提案手法であるCT-VOSは, DAVIS-2017 と Youtube-VOS の2つの挑戦的なベンチマークにおいて,最先端の結果を達成している。
論文 参考訳(メタデータ) (2022-04-22T17:53:27Z) - Deep Rectangling for Image Stitching: A Learning Baseline [57.76737888499145]
我々は不規則な境界やシーンに大きな多様性を持つ最初の画像縫合整形データセットを構築した。
実験では、従来の方法よりも定量的にも質的にも優位性を示す。
論文 参考訳(メタデータ) (2022-03-08T03:34:10Z) - CutPaste: Self-Supervised Learning for Anomaly Detection and
Localization [59.719925639875036]
通常のトレーニングデータのみを用いて異常検知器を構築するためのフレームワークを提案する。
まず、自己教師付き深層表現を学習し、学習した表現の上に生成的1クラス分類器を構築する。
MVTec異常検出データセットに関する実証研究は,提案アルゴリズムが実世界の様々な欠陥を検出可能であることを実証している。
論文 参考訳(メタデータ) (2021-04-08T19:04:55Z) - Refined Plane Segmentation for Cuboid-Shaped Objects by Leveraging Edge
Detection [63.942632088208505]
本稿では,セグメント化された平面マスクを画像に検出されたエッジと整列するための後処理アルゴリズムを提案する。
これにより、立方体形状の物体に制限を加えながら、最先端のアプローチの精度を高めることができます。
論文 参考訳(メタデータ) (2020-03-28T18:51:43Z) - Weakly-Supervised Salient Object Detection via Scribble Annotations [54.40518383782725]
本稿では,スクリブルラベルからサリエンシを学習するための弱教師付きサリエント物体検出モデルを提案する。
そこで本研究では,予測されたサリエンシマップの構造アライメントを測定するために,新しい尺度であるサリエンシ構造尺度を提案する。
我々の手法は、既存の弱教師付き/非教師付き手法よりも優れているだけでなく、いくつかの完全教師付き最先端モデルと同等である。
論文 参考訳(メタデータ) (2020-03-17T12:59:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。