論文の概要: Weakly But Deeply Supervised Occlusion-Reasoned Parametric Layouts
- arxiv url: http://arxiv.org/abs/2104.06730v1
- Date: Wed, 14 Apr 2021 09:32:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-15 13:17:33.394055
- Title: Weakly But Deeply Supervised Occlusion-Reasoned Parametric Layouts
- Title(参考訳): 弱くも深く教師付きオクルージョン共鳴パラメトリックレイアウト
- Authors: Buyu Liu, Bingbing Zhuang, Manmohan Chandraker
- Abstract要約: 複雑な道路シーンのRGBイメージをインプットとして単一の視点で捉えたエンドツーエンドのネットワークを提案し、パースペクティブ空間における閉塞性のあるレイアウトを創出する。
私たちのメソッドで必要とされる唯一の人間のアノテーションは、より安価で入手しにくいパラメトリック属性です。
私たちは、KITTIとNuScenesという2つの公開データセットのアプローチを検証し、人間の監督を大幅に低下させることで、最先端の結果を実現します。
- 参考スコア(独自算出の注目度): 87.370534321618
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose an end-to-end network that takes a single perspective RGB image of
a complex road scene as input, to produce occlusion-reasoned layouts in
perspective space as well as a top-view parametric space. In contrast to prior
works that require dense supervision such as semantic labels in perspective
view, the only human annotations required by our method are for parametric
attributes that are cheaper and less ambiguous to obtain. To solve this
challenging task, our design is comprised of modules that incorporate inductive
biases to learn occlusion-reasoning, geometric transformation and semantic
abstraction, where each module may be supervised by appropriately transforming
the parametric annotations. We demonstrate how our design choices and proposed
deep supervision help achieve accurate predictions and meaningful
representations. We validate our approach on two public datasets, KITTI and
NuScenes, to achieve state-of-the-art results with considerably lower human
supervision.
- Abstract(参考訳): 本稿では,複雑な道路シーンの1つの視点rgb画像を入力として,視点空間におけるオクルージョン調整レイアウトとトップビューパラメトリック空間を生成するエンド・ツー・エンドネットワークを提案する。
パースペクティブ・ビューにおけるセマンティック・ラベルなどの厳密な監督を必要とする先行研究とは対照的に,本手法で必要とされる注釈は,より安価で不明瞭なパラメトリック属性のみである。
この課題を解決するため,本設計では,帰納的バイアスを取り入れたモジュールでオクルージョン推論,幾何学的変換,セマンティック抽象化を学習し,各モジュールをパラメトリックアノテーションを適切に変換して管理することができる。
設計選択と深い監督が正確な予測と有意義な表現を達成する上でどのように役立つかを実証する。
我々は,kitti と nuscenes という2つの公開データセット上で,人間の監督をかなり低くして最新の結果を達成するためのアプローチを検証する。
関連論文リスト
- Combining Optimal Transport and Embedding-Based Approaches for More Expressiveness in Unsupervised Graph Alignment [19.145556156889064]
教師なしグラフアライメントは、グラフ構造とノード特徴のみを利用して、属性グラフのペア間の1対1ノード対応を見つける。
モデル表現性の理論的解析によって動機付けられたそれらの利点を組み合わせるための原理的アプローチを提案する。
我々は,問題を最大重み付けに還元することで,一対一のマッチング制約を最初に保証する。
論文 参考訳(メタデータ) (2024-06-19T04:57:35Z) - 360 Layout Estimation via Orthogonal Planes Disentanglement and
Multi-view Geometric Consistency Perception [60.23832277827669]
既存のパノラマ配置推定ソリューションは、垂直圧縮されたシーケンスから部屋の境界を復元する傾向がある。
水平深度と比表現に適した教師なし適応手法を提案する。
また,決定レベルのレイアウト解析のための最適化手法と,特徴レベルのマルチビューアグリゲーションのための1次元コストボリューム構築手法も導入する。
論文 参考訳(メタデータ) (2023-12-26T12:16:03Z) - Improving Semantic Correspondence with Viewpoint-Guided Spherical Maps [39.00415825387414]
そこで本研究では, 識別的特徴を3次元的理解で補う意味対応推定手法を提案する。
より複雑な3Dパイプラインと比較して、我々のモデルは弱い視点情報しか必要とせず、球面表現の単純さにより、トレーニング中に情報的幾何学的先行情報をモデルに注入することができる。
本研究では,SPair-71kデータセットを用いて,複数のオブジェクトカテゴリにまたがる対称なビューと繰り返し部分の区別が可能であることを実証した。
論文 参考訳(メタデータ) (2023-12-20T17:35:24Z) - Multitask AET with Orthogonal Tangent Regularity for Dark Object
Detection [84.52197307286681]
暗黒環境下でのオブジェクト検出を強化するために,新しいマルチタスク自動符号化変換(MAET)モデルを提案する。
自己超越的な方法で、MAETは、現実的な照明劣化変換を符号化して復号することで、本質的な視覚構造を学習する。
我々は,合成および実世界のデータセットを用いて最先端のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2022-05-06T16:27:14Z) - Learning Oriented Remote Sensing Object Detection via Naive Geometric
Computing [38.508709334835316]
本稿では,水平提案の回帰,オブジェクト指向提案,物体の回転角を一貫した方法で学習する機構を提案する。
提案するアイデアはシンプルで直感的であり、容易に実装できる。
論文 参考訳(メタデータ) (2021-12-01T13:58:42Z) - An Adaptive Framework for Learning Unsupervised Depth Completion [59.17364202590475]
カラー画像から高密度深度マップとそれに伴うスパース深度測定を推定する手法を提案する。
正規化とコビジュアライゼーションは、モデルの適合度とデータによって関連付けられており、単一のフレームワークに統合可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T02:27:55Z) - Self-supervised Geometric Perception [96.89966337518854]
自己教師付き幾何知覚(self-supervised geometric perception)は、基底幾何モデルラベルなしで対応マッチングのための特徴記述子を学ぶためのフレームワークである。
また,SGPは,地上トラスラベルを用いて訓練した教師付きオークルよりも同等か優れる最先端性能を達成できることを示す。
論文 参考訳(メタデータ) (2021-03-04T15:34:43Z) - Example-Guided Image Synthesis across Arbitrary Scenes using Masked
Spatial-Channel Attention and Self-Supervision [83.33283892171562]
実例誘導画像合成は,最近セマンティックラベルマップと模範画像から画像を合成するために試みられている。
本稿では,ラベルマップと意味的に異なる任意のシーンイメージを例に,より困難で汎用的な課題に取り組む。
本稿では,グローバル・ローカルな特徴アライメントと合成のためのエンドツーエンドネットワークを提案する。
論文 参考訳(メタデータ) (2020-04-18T18:17:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。