論文の概要: Map Imagination Like Blind Humans: Group Diffusion Model for Robotic Map Generation
- arxiv url: http://arxiv.org/abs/2412.16908v1
- Date: Sun, 22 Dec 2024 07:54:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 15:56:53.514701
- Title: Map Imagination Like Blind Humans: Group Diffusion Model for Robotic Map Generation
- Title(参考訳): 盲人のような地図イマジネーション:ロボットマップ生成のための群拡散モデル
- Authors: Qijin Song, Weibang Bai,
- Abstract要約: ロボットが入力情報に制限のある点雲マップを生成するためのグループ拡散モデル(GDM)に基づくアーキテクチャを提案する。
視覚的知覚データや深度データを使わずに,視覚障害者の心的地図の想像・生成能力からインスピレーションを得た。
公開データセットの実験を行った結果,提案手法は経路データのみに基づいて合理的な地図を生成でき,さらに複雑なLiDARデータを組み込んだ地図を作成できることがわかった。
- 参考スコア(独自算出の注目度): 0.9898607871253774
- License:
- Abstract: Can robots imagine or generate maps like humans do, especially when only limited information can be perceived like blind people? To address this challenging task, we propose a novel group diffusion model (GDM) based architecture for robots to generate point cloud maps with very limited input information.Inspired from the blind humans' natural capability of imagining or generating mental maps, the proposed method can generate maps without visual perception data or depth data. With additional limited super-sparse spatial positioning data, like the extra contact-based positioning information the blind individuals can obtain, the map generation quality can be improved even more.Experiments on public datasets are conducted, and the results indicate that our method can generate reasonable maps solely based on path data, and produce even more refined maps upon incorporating exiguous LiDAR data.Compared to conventional mapping approaches, our novel method significantly mitigates sensor dependency, enabling the robots to imagine and generate elementary maps without heavy onboard sensory devices.
- Abstract(参考訳): 特に視覚障害者のような限られた情報しか認識できない場合、ロボットは人間のように地図を想像したり生成したりできますか?
この課題に対処するために,ロボットが極めて限られた入力情報を持つ点群マップを生成するための群拡散モデル(GDM)に基づく新しいアーキテクチャを提案する。
視覚障害者が得られる余分な接触に基づく位置決め情報などの空間的空間的位置決めデータの追加により、地図生成の質がさらに向上し、公開データセットに対する実験を行い、その結果、経路データのみに基づいて合理的な地図を作成でき、さらに拡張されたLiDARデータを組み込んだより洗練された地図を作成できることを示す。
関連論文リスト
- TopoSD: Topology-Enhanced Lane Segment Perception with SDMap Prior [70.84644266024571]
我々は、標準定義地図(SDMaps)を見るために知覚モデルを訓練することを提案する。
我々はSDMap要素をニューラル空間マップ表現やインスタンストークンにエンコードし、先行情報のような補完的な特徴を組み込む。
レーンセグメント表現フレームワークに基づいて、モデルはレーン、中心線、およびそれらのトポロジを同時に予測する。
論文 参考訳(メタデータ) (2024-11-22T06:13:42Z) - HPix: Generating Vector Maps from Satellite Images [0.0]
衛星画像からベクトルタイルマップを生成するためにGAN(Generative Adversarial Networks)を改良したHPixと呼ばれる新しい手法を提案する。
経験的評価を通じて,提案手法は高精度かつ視覚的に表現可能なベクトルタイルマップを作成する上での有効性を示す。
さらに、道路交差点のマッピングや、その面積に基づいたフットプリントクラスタの構築など、我々の研究の応用を拡大する。
論文 参考訳(メタデータ) (2024-07-18T16:54:02Z) - Diffusion-based Data Augmentation for Object Counting Problems [62.63346162144445]
拡散モデルを用いて広範なトレーニングデータを生成するパイプラインを開発する。
拡散モデルを用いて位置ドットマップ上に条件付き画像を生成するのはこれが初めてである。
提案した拡散モデルにおけるカウント損失は,位置ドットマップと生成した群集画像との差を効果的に最小化する。
論文 参考訳(メタデータ) (2024-01-25T07:28:22Z) - Radio Map Estimation -- An Open Dataset with Directive Transmitter
Antennas and Initial Experiments [49.61405888107356]
実世界の現実的な都市地図とオープンなデータソースからの航空画像とともに、シミュレーションされた経路損失無線マップのデータセットをリリースする。
モデルアーキテクチャ,入力特徴設計,航空画像からの無線マップの推定に関する実験を行った。
論文 参考訳(メタデータ) (2024-01-12T14:56:45Z) - SNAP: Self-Supervised Neural Maps for Visual Positioning and Semantic
Understanding [57.108301842535894]
我々は、地上と頭上の画像からリッチなニューラル2Dマップを学習するディープネットワークSNAPを紹介する。
我々は、異なる入力から推定されるニューラルマップの整列をトレーニングし、何千万ものストリートビュー画像のカメラポーズでのみ監視する。
SNAPは、従来の手法の範囲を超えて、挑戦的な画像クエリの場所を解決できる。
論文 参考訳(メタデータ) (2023-06-08T17:54:47Z) - Solving Occlusion in Terrain Mapping with Neural Networks [7.703348666813963]
本研究では,実世界のデータに基づいて,地上情報を必要としない自己教師付き学習手法を提案する。
私たちのニューラルネットワークは、自律的な地上ロボットに適したサンプリングレートで、CPUとGPUの両方でリアルタイムで実行できます。
論文 参考訳(メタデータ) (2021-09-15T08:30:16Z) - HDMapGen: A Hierarchical Graph Generative Model of High Definition Maps [81.86923212296863]
HDマップは道路路面の正確な定義と交通ルールの豊富な意味を持つ地図である。
実際の道路トポロジやジオメトリはごくわずかで、自動運転スタックをテストする能力は著しく制限されています。
高品質で多様なHDマップを生成可能な階層グラフ生成モデルであるHDMapGenを提案する。
論文 参考訳(メタデータ) (2021-06-28T17:59:30Z) - MP3: A Unified Model to Map, Perceive, Predict and Plan [84.07678019017644]
MP3は、入力が生のセンサーデータと高レベルのコマンドであるマップレス運転に対するエンドツーエンドのアプローチである。
提案手法は, より安全で, 快適であり, 長期クローズループシミュレーションにおいて, ベースラインよりもコマンドを追従できることを示す。
論文 参考訳(メタデータ) (2021-01-18T00:09:30Z) - Generation of Human-aware Navigation Maps using Graph Neural Networks [1.4502611532302039]
本稿では、既存の1次元データセットをブートストラップしてコストマップデータセットを生成する機械学習ベースのフレームワークと、グラフニューラルネットワークと畳み込みニューラルネットワークレイヤを組み合わせたモデルを用いて、人間の認識したナビゲーションのためのコストマップをリアルタイムで作成する。
提案するフレームワークの応用は、人間の認識するナビゲーションに限らず、マップ生成が必要な他の分野にも適用できる。
論文 参考訳(メタデータ) (2020-11-10T15:32:14Z) - Probabilistic Semantic Mapping for Urban Autonomous Driving Applications [1.181206257787103]
本研究では,道路,歩道,横断歩道,車線などの静的なランドマークの自動的かつ正確なラベル付けを行うために,画像と予め構築した点クラウドマップ情報を融合することを提案する。
本手法は,2次元画像のセマンティックセグメンテーションを行い,意味ラベルとポイント・クラウド・マップを関連づけて世界を正確にローカライズし,混乱行列の定式化を利用して,鳥の眼球面の確率論的セマンティック・マップを意味点・クラウドから構築する。
論文 参考訳(メタデータ) (2020-06-08T19:29:09Z) - DeepDualMapper: A Gated Fusion Network for Automatic Map Extraction
using Aerial Images and Trajectories [28.89392735657318]
本稿では,空中画像とGPSトラジェクトリデータを融合するディープDualMapperというディープ畳み込みニューラルネットワークを提案する。
実験の結果,DeepDualMapperは既存の手法よりもはるかに効果的に画像や軌跡の情報を融合できることがわかった。
論文 参考訳(メタデータ) (2020-02-17T08:33:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。