論文の概要: A Graph-Matching Approach for Cross-view Registration of Over-view 2 and
Street-view based Point Clouds
- arxiv url: http://arxiv.org/abs/2202.06857v1
- Date: Mon, 14 Feb 2022 16:43:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-15 17:18:13.890757
- Title: A Graph-Matching Approach for Cross-view Registration of Over-view 2 and
Street-view based Point Clouds
- Title(参考訳): オーバービュー2とストリートビューベースのポイントクラウドのクロスビュー登録のためのグラフマッチングアプローチ
- Authors: Xiao Ling, Rongjun Qin
- Abstract要約: 本稿では,ビュー不変の特徴として意味的セグメント化されたオブジェクト境界を利用する,クロスビューデータの完全自動ジオレジストリ手法を提案する。
提案手法は,衛星とストリートビューに基づく点群から検出されたグラフのノードとして建物セグメントをモデル化する。
一致したノードは、正確な登録を可能にするためにさらに最適化され、2D29 3Dのコンプリートを維持するために、ストリートビューイメージ上の束調整が制限される。
- 参考スコア(独自算出の注目度): 4.742825811314168
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, based on the assumption that the object boundaries (e.g.,
buildings) from the over-view data should coincide with footprints of
fa\c{c}ade 3D points generated from street-view photogrammetric images, we aim
to address this problem by proposing a fully automated geo-registration method
for cross-view data, which utilizes semantically segmented object boundaries as
view-invariant features under a global optimization framework through
graph-matching: taking the over-view point clouds generated from
stereo/multi-stereo satellite images and the street-view point clouds generated
from monocular video images as the inputs, the proposed method models segments
of buildings as nodes of graphs, both detected from the satellite-based and
street-view based point clouds, thus to form the registration as a
graph-matching problem to allow non-rigid matches; to enable a robust solution
and fully utilize the topological relations between these segments, we propose
to address the graph-matching problem on its conjugate graph solved through a
belief-propagation algorithm. The matched nodes will be subject to a further
optimization to allow precise-registration, followed by a constrained bundle
adjustment on the street-view image to keep 2D29 3D consistencies, which yields
well-registered street-view images and point clouds to the satellite point
clouds.
- Abstract(参考訳): In this paper, based on the assumption that the object boundaries (e.g., buildings) from the over-view data should coincide with footprints of fa\c{c}ade 3D points generated from street-view photogrammetric images, we aim to address this problem by proposing a fully automated geo-registration method for cross-view data, which utilizes semantically segmented object boundaries as view-invariant features under a global optimization framework through graph-matching: taking the over-view point clouds generated from stereo/multi-stereo satellite images and the street-view point clouds generated from monocular video images as the inputs, the proposed method models segments of buildings as nodes of graphs, both detected from the satellite-based and street-view based point clouds, thus to form the registration as a graph-matching problem to allow non-rigid matches; to enable a robust solution and fully utilize the topological relations between these segments, we propose to address the graph-matching problem on its conjugate graph solved through a belief-propagation algorithm.
一致したノードは、正確な登録を可能にするためにさらに最適化され、続いてストリートビューイメージ上の束調整が行われ、2D29 3Dコンピテンシーが保持される。
関連論文リスト
- CrossViewDiff: A Cross-View Diffusion Model for Satellite-to-Street View Synthesis [54.852701978617056]
CrossViewDiffは、衛星間ビュー合成のためのクロスビュー拡散モデルである。
ビュー間の大きな相違による課題に対処するため、衛星シーン構造推定とクロスプラットフォームテクスチャマッピングモジュールを設計する。
合成結果のより包括的な評価を実現するため,GPTに基づくスコアリング手法を設計する。
論文 参考訳(メタデータ) (2024-08-27T03:41:44Z) - Graph Transformer GANs with Graph Masked Modeling for Architectural
Layout Generation [153.92387500677023]
本稿では,グラフノード関係を効果的に学習するために,GTGAN(Graph Transformer Generative Adversarial Network)を提案する。
提案したグラフ変換器エンコーダは、局所的およびグローバルな相互作用をモデル化するために、Transformer内のグラフ畳み込みと自己アテンションを組み合わせる。
また,グラフ表現学習のための自己指導型事前学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-15T14:36:38Z) - Shape-Graph Matching Network (SGM-net): Registration for Statistical
Shape Analysis [20.58923754314197]
本稿では,形状グラフと呼ばれるデータオブジェクトの形状の統計的解析に着目する。
ここでの重要なニーズは、オブジェクト間のポイント(ノードからノード、エッジからエッジ)の制限された登録である。
本稿では,ニューラルネットアーキテクチャを用いて,この登録問題に対処する。
論文 参考訳(メタデータ) (2023-08-14T00:42:03Z) - RNGDet: Road Network Graph Detection by Transformer in Aerial Images [19.141279413414082]
道路ネットワークグラフは、自動運転車アプリケーションにとって重要な情報を提供する。
手動でアノテートする道路ネットワークグラフは非効率で労働集約的です。
RNGDetという変圧器と模倣学習に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2022-02-16T01:59:41Z) - DeepI2P: Image-to-Point Cloud Registration via Deep Classification [71.3121124994105]
DeepI2Pは、イメージとポイントクラウドの間のクロスモダリティ登録のための新しいアプローチです。
本手法は,カメラとライダーの座標フレーム間の相対的剛性変換を推定する。
登録問題を分類および逆カメラ投影最適化問題に変換することで難易度を回避する。
論文 参考訳(メタデータ) (2021-04-08T04:27:32Z) - Geometry-Guided Street-View Panorama Synthesis from Satellite Imagery [80.6282101835164]
オーバヘッド衛星画像から新しいストリートビューパノラマを合成するための新しいアプローチを提案する。
本手法は,googleの全方位ストリートビュー型パノラマを,衛星パッチの中央と同じ地理的位置から取得したかのように生成する。
論文 参考訳(メタデータ) (2021-03-02T10:27:05Z) - PC-RGNN: Point Cloud Completion and Graph Neural Network for 3D Object
Detection [57.49788100647103]
LiDARベースの3Dオブジェクト検出は、自動運転にとって重要なタスクです。
現在のアプローチでは、遠方および閉ざされた物体の偏りと部分的な点雲に苦しむ。
本稿では,この課題を2つの解決法で解決する新しい二段階アプローチ,pc-rgnnを提案する。
論文 参考訳(メタデータ) (2020-12-18T18:06:43Z) - Image-Graph-Image Translation via Auto-Encoding [4.847617604851614]
この研究は、外部の監視を必要とせず、画像から画像への変換タスクを学習する最初の畳み込みニューラルネットワークを示す。
私たちは、ボトルネックがグラフのノードとエッジをエンコードする、完全に異なる自動エンコーダに基づいた自己監視アプローチを初めて提示しました。
論文 参考訳(メタデータ) (2020-12-10T21:01:32Z) - High-Order Information Matters: Learning Relation and Topology for
Occluded Person Re-Identification [84.43394420267794]
本稿では,高次関係とトポロジ情報を識別的特徴とロバストなアライメントのために学習し,新しい枠組みを提案する。
我々のフレームワークはOccluded-Dukeデータセットで最先端の6.5%mAPスコアを大幅に上回っている。
論文 参考訳(メタデータ) (2020-03-18T12:18:35Z) - Adaptive Graph Convolutional Network with Attention Graph Clustering for
Co-saliency Detection [35.23956785670788]
注目グラフクラスタリング(GCAGC)を用いた新しい適応グラフ畳み込みネットワークを提案する。
注意グラフクラスタリングアルゴリズムを開発し、教師なしの方法で全前景オブジェクトから共通オブジェクトを識別する。
提案手法を3つのコサリエンシ検出ベンチマークデータセット上で評価した。
論文 参考訳(メタデータ) (2020-03-13T09:35:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。