論文の概要: D-VPnet: A Network for Real-time Dominant Vanishing Point Detection in
Natural Scenes
- arxiv url: http://arxiv.org/abs/2006.05407v1
- Date: Tue, 9 Jun 2020 17:12:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 15:29:20.077226
- Title: D-VPnet: A Network for Real-time Dominant Vanishing Point Detection in
Natural Scenes
- Title(参考訳): D-VPnet:自然シーンにおけるリアルタイム優位点検出ネットワーク
- Authors: Yin-Bo Liu, Ming Zeng, Qing-Hao Meng
- Abstract要約: バリシングポイント(VP)は、オブジェクトを2D写真から3D空間にマッピングするための有用なヒントを提供する。
自然界における支配的なVPを検出するために,新しい畳み込みニューラルネットワーク(CNN)を提案する。
- 参考スコア(独自算出の注目度): 3.8170259685864165
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As an important part of linear perspective, vanishing points (VPs) provide
useful clues for mapping objects from 2D photos to 3D space. Existing methods
are mainly focused on extracting structural features such as lines or contours
and then clustering these features to detect VPs. However, these techniques
suffer from ambiguous information due to the large number of line segments and
contours detected in outdoor environments. In this paper, we present a new
convolutional neural network (CNN) to detect dominant VPs in natural scenes,
i.e., the Dominant Vanishing Point detection Network (D-VPnet). The key
component of our method is the feature line-segment proposal unit (FLPU), which
can be directly utilized to predict the location of the dominant VP. Moreover,
the model also uses the two main parallel lines as an assistant to determine
the position of the dominant VP. The proposed method was tested using a public
dataset and a Parallel Line based Vanishing Point (PLVP) dataset. The
experimental results suggest that the detection accuracy of our approach
outperforms those of state-of-the-art methods under various conditions in
real-time, achieving rates of 115fps.
- Abstract(参考訳): 線形視点の重要な部分として、消滅点(VP)は2D写真から3D空間へのオブジェクトのマッピングに有用な手がかりを提供する。
既存の手法は主に線や輪郭などの構造的特徴を抽出し、それらの特徴をクラスタリングしてVPを検出する。
しかし,これらの手法は,屋外環境において検出される線分や輪郭の多さから,曖昧な情報に苦しむ。
本稿では,自然界における支配的なVP(Dominant Vanishing Point Detection Network, D-VPnet)を検出するために,新しい畳み込みニューラルネットワーク(CNN)を提案する。
提案手法の主な構成要素は特徴線分割提案部 (FLPU) であり, 支配的なVPの位置を予測するために直接利用することができる。
さらに、モデルは2つの主平行線をアシスタントとして使用し、支配的なvpの位置を決定する。
提案手法は,パブリックデータセットと並列ラインベースVanishing Point(PLVP)データセットを用いて検証した。
実験結果から,本手法の精度は, 各種条件下での最先端手法よりも優れ, 115fpsの速度が得られた。
関連論文リスト
- Boosting Cross-Domain Point Classification via Distilling Relational Priors from 2D Transformers [59.0181939916084]
従来の3Dネットワークは主に局所幾何学的詳細に焦点を当て、局所幾何学間の位相構造を無視する。
そこで本稿では,大規模画像上においてよく訓練されたトランスフォーマーから前駆体を抽出する,新しい先駆体蒸留法を提案する。
PointDA-10とSim-to-Realデータセットの実験は、提案手法が点クラウド分類におけるUDAの最先端性能を一貫して達成していることを検証する。
論文 参考訳(メタデータ) (2024-07-26T06:29:09Z) - PointOcc: Cylindrical Tri-Perspective View for Point-based 3D Semantic
Occupancy Prediction [72.75478398447396]
本稿では,点雲を効果的かつ包括的に表現する円筒型三重対視図を提案する。
また,LiDAR点雲の距離分布を考慮し,円筒座標系における三点ビューを構築した。
プロジェクション中に構造の詳細を維持するために空間群プーリングを使用し、各TPV平面を効率的に処理するために2次元バックボーンを採用する。
論文 参考訳(メタデータ) (2023-08-31T17:57:17Z) - DPA-P2PNet: Deformable Proposal-aware P2PNet for Accurate Point-based
Cell Detection [5.994317314012678]
ポイントベース細胞検出(PCD)は、計算病理学のコミュニティで注目を集めている。
中間密度マップ表現に依存する主流のPCD法とは異なり、P2PNet(Point-to-Point Network)は近年PCDのエンドツーエンドソリューションとして登場している。
P2PNetは、ポイント提案のスケールに依存しない性質のため、単一レベルの特徴マップからのデコードに制限されている。
提案手法は,階層的特徴写像上の点提案の座標に従って,復号化のためのマルチスケール特徴を直接抽出する。
論文 参考訳(メタデータ) (2023-03-05T08:02:42Z) - Flattening-Net: Deep Regular 2D Representation for 3D Point Cloud
Analysis [66.49788145564004]
我々は、任意の幾何学と位相の不規則な3次元点雲を表現するために、Flattning-Netと呼ばれる教師なしのディープニューラルネットワークを提案する。
我々の手法は、現在の最先端の競合相手に対して好意的に機能する。
論文 参考訳(メタデータ) (2022-12-17T15:05:25Z) - Learning point embedding for 3D data processing [2.12121796606941]
現在の点ベース法は本質的に空間関係処理ネットワークである。
PE-Netは高次元空間における点雲の表現を学習する。
実験によると、PE-Netは複数の挑戦的なデータセットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2021-07-19T00:25:28Z) - PV-RCNN++: Point-Voxel Feature Set Abstraction With Local Vector
Representation for 3D Object Detection [100.60209139039472]
点雲からの正確な3次元検出を行うために,PointVoxel Region based Convolution Neural Networks (PVRCNNs)を提案する。
提案するPV-RCNNは,Openデータセットと高競争性KITTIベンチマークの両方において,従来の最先端3D検出方法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2021-01-31T14:51:49Z) - ODFNet: Using orientation distribution functions to characterize 3D
point clouds [0.0]
点まわりの点配向分布を利用して、点群の表現力のある局所近傍表現を得ます。
新しい ODFNet モデルは ModelNet40 と ScanObjectNN データセットのオブジェクト分類における最先端の精度を実現する。
論文 参考訳(メタデータ) (2020-12-08T19:54:20Z) - Ventral-Dorsal Neural Networks: Object Detection via Selective Attention [51.79577908317031]
我々はVDNet(Ventral-Dorsal Networks)と呼ばれる新しいフレームワークを提案する。
人間の視覚システムの構造にインスパイアされた我々は「Ventral Network」と「Dorsal Network」の統合を提案する。
実験の結果,提案手法は最先端の物体検出手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-15T23:57:36Z) - Cylindrical Convolutional Networks for Joint Object Detection and
Viewpoint Estimation [76.21696417873311]
3次元空間で定義された畳み込みカーネルの円筒形表現を利用する学習可能なモジュールである円筒型畳み込みネットワーク(CCN)を導入する。
CCNはビュー固有の畳み込みカーネルを通してビュー固有の特徴を抽出し、各視点におけるオブジェクトカテゴリスコアを予測する。
本実験は,円柱状畳み込みネットワークが関節物体の検出と視点推定に与える影響を実証する。
論文 参考訳(メタデータ) (2020-03-25T10:24:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。