論文の概要: Self-Supervised Road Layout Parsing with Graph Auto-Encoding
- arxiv url: http://arxiv.org/abs/2203.11000v1
- Date: Mon, 21 Mar 2022 14:14:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-22 18:01:30.471842
- Title: Self-Supervised Road Layout Parsing with Graph Auto-Encoding
- Title(参考訳): グラフ自動符号化による自己監督型道路レイアウト解析
- Authors: Chenyang Lu, Gijs Dubbelman
- Abstract要約: 本稿では,鳥の視線における道路マップを入力とし,道路のトポロジ的レイアウトを表す人間解釈可能なグラフを予測するニューラルネットワークアプローチを提案する。
提案手法は,画素レベルからグラフレベルへの道路レイアウトの理解を高める。
- 参考スコア(独自算出の注目度): 5.45914480139453
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Aiming for higher-level scene understanding, this work presents a neural
network approach that takes a road-layout map in bird's eye view as input, and
predicts a human-interpretable graph that represents the road's topological
layout. Our approach elevates the understanding of road layouts from pixel
level to the level of graphs. To achieve this goal, an image-graph-image
auto-encoder is utilized. The network is designed to learn to regress the graph
representation at its auto-encoder bottleneck. This learning is self-supervised
by an image reconstruction loss, without needing any external manual
annotations. We create a synthetic dataset containing common road layout
patterns and use it for training of the auto-encoder in addition to the
real-world Argoverse dataset. By using this additional synthetic dataset, which
conceptually captures human knowledge of road layouts and makes this available
to the network for training, we are able to stabilize and further improve the
performance of topological road layout understanding on the real-world
Argoverse dataset. The evaluation shows that our approach exhibits comparable
performance to a strong fully-supervised baseline.
- Abstract(参考訳): 高レベルなシーン理解を目的とした本研究では,鳥の眼球図の道路レイアウトマップを入力として,道路のトポロジカルレイアウトを表す人間解釈可能なグラフを予測するニューラルネットワークアプローチを提案する。
我々のアプローチは、ピクセルレベルからグラフレベルまでの道路レイアウトの理解を高める。
この目的を達成するために、画像画像自動エンコーダを用いる。
このネットワークは、オートエンコーダボトルネックにおけるグラフ表現の回帰を学ぶように設計されている。
この学習は、外部のマニュアルアノテーションを必要とせずに、イメージ再構成損失によって自己管理される。
我々は、一般的な道路レイアウトパターンを含む合成データセットを作成し、実際のArgoverseデータセットに加えて、オートエンコーダのトレーニングに使用する。
この付加的な合成データセットは、概念的に道路レイアウトの人間的知識を捉え、それをトレーニングのネットワークで利用できるようにすることで、実世界のアルゴバースデータセットにおけるトポロジカルな道路レイアウト理解のパフォーマンスを安定させ、さらに向上させることができる。
評価の結果,本手法は完全教師付きベースラインに匹敵する性能を示した。
関連論文リスト
- Patch-wise Graph Contrastive Learning for Image Translation [69.85040887753729]
グラフニューラルネットワークを利用して、トポロジを意識した特徴をキャプチャする。
予め訓練されたエンコーダからパッチワイドな類似性に基づいてグラフを構築する。
階層的な意味構造を捉えるために,グラフプーリングを提案する。
論文 参考訳(メタデータ) (2023-12-13T15:45:19Z) - Patched Line Segment Learning for Vector Road Mapping [34.16241268436923]
我々は,幾何的重要性を持つ道路グラフに対して,よく定義されたパッチラインセグメンテーション表現を構築した。
提案手法は,6時間のGPUトレーニングで最先端の性能を達成し,トレーニングコストを32倍に削減する。
論文 参考訳(メタデータ) (2023-09-06T11:33:25Z) - GiGaMAE: Generalizable Graph Masked Autoencoder via Collaborative Latent
Space Reconstruction [76.35904458027694]
マスク付きオートエンコーダモデルは、グラフデータに対する優れた一般化能力に欠ける。
本稿では,GiGaMAEと呼ばれる新しいグラフマスマスキングオートエンコーダフレームワークを提案する。
私たちの結果は、グラフ構造化データに基づく基礎モデルの設計に光を当てます。
論文 参考訳(メタデータ) (2023-08-18T16:30:51Z) - Graph representation learning for street networks [0.0]
ストリートネットワークは、私たちの都市における異なる時間的および出現に関する貴重な情報ソースを提供する。
これまでの研究では、学習アルゴリズムによって元のデータの表現が作成できることが示されている。
本稿では,街路ネットワークから直接優れた表現を推測できるモデルを提案する。
論文 参考訳(メタデータ) (2022-11-09T16:02:28Z) - RSG-Net: Towards Rich Sematic Relationship Prediction for Intelligent
Vehicle in Complex Environments [72.04891523115535]
本稿では,オブジェクトの提案から潜在的意味関係を予測するグラフ畳み込みネットワークRSG-Netを提案する。
実験の結果、このネットワークはロードシーングラフデータセットに基づいてトレーニングされており、エゴ車両周辺のオブジェクト間の潜在的な意味関係を効率的に予測できることがわかった。
論文 参考訳(メタデータ) (2022-07-16T12:40:17Z) - RNGDet: Road Network Graph Detection by Transformer in Aerial Images [19.141279413414082]
道路ネットワークグラフは、自動運転車アプリケーションにとって重要な情報を提供する。
手動でアノテートする道路ネットワークグラフは非効率で労働集約的です。
RNGDetという変圧器と模倣学習に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2022-02-16T01:59:41Z) - Road Extraction from Overhead Images with Graph Neural Networks [18.649284163019516]
本稿では,最終道路グラフを1パスで直接推測する手法を提案する。
鍵となるアイデアは、関心点の特定を担当する完全な畳み込みネットワークと、これらのポイント間のリンクを予測するグラフニューラルネットワークを組み合わせることである。
我々は,一般的なRoadTracerデータセット上の既存の作業に対して評価を行い,競合する結果を得た。
論文 参考訳(メタデータ) (2021-12-09T21:10:27Z) - Structured Bird's-Eye-View Traffic Scene Understanding from Onboard
Images [128.881857704338]
本研究では,BEV座標における局所道路網を表す有向グラフを,単眼カメラ画像から抽出する問題について検討する。
提案手法は,BEV平面上の動的物体を検出するために拡張可能であることを示す。
我々は、強力なベースラインに対するアプローチを検証するとともに、ネットワークが優れたパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2021-10-05T12:40:33Z) - Image-Graph-Image Translation via Auto-Encoding [4.847617604851614]
この研究は、外部の監視を必要とせず、画像から画像への変換タスクを学習する最初の畳み込みニューラルネットワークを示す。
私たちは、ボトルネックがグラフのノードとエッジをエンコードする、完全に異なる自動エンコーダに基づいた自己監視アプローチを初めて提示しました。
論文 参考訳(メタデータ) (2020-12-10T21:01:32Z) - Road Scene Graph: A Semantic Graph-Based Scene Representation Dataset
for Intelligent Vehicles [72.04891523115535]
本稿では,車載用特別シーングラフである道路シーングラフを提案する。
オブジェクトの提案だけでなく、ペアワイドな関係も提供します。
それらをトポロジカルグラフで整理することで、これらのデータは説明可能であり、完全に接続され、GCNによって容易に処理できる。
論文 参考訳(メタデータ) (2020-11-27T07:33:11Z) - VectorNet: Encoding HD Maps and Agent Dynamics from Vectorized
Representation [74.56282712099274]
本稿では,ベクトルで表される個々の道路成分の空間的局所性を利用する階層型グラフニューラルネットワークであるVectorNetを紹介する。
ベクトル化高定義(HD)マップとエージェントトラジェクトリの操作により、ロッキーなレンダリングや計算集約的なConvNetエンコーディングのステップを避けることができる。
我々は、社内行動予測ベンチマークと最近リリースされたArgoverse予測データセットでVectorNetを評価した。
論文 参考訳(メタデータ) (2020-05-08T19:07:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。