論文の概要: A Step towards Automated and Generalizable Tactile Map Generation using Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2412.07191v1
- Date: Tue, 10 Dec 2024 04:59:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-11 14:37:14.932704
- Title: A Step towards Automated and Generalizable Tactile Map Generation using Generative Adversarial Networks
- Title(参考訳): 生成的対向ネットワークを用いた自動・一般化可能な触覚マップ生成への一歩
- Authors: David G Hobson, Majid Komeili,
- Abstract要約: 我々は,触覚マップの自動生成を支援するコンピュータビジョン技術の適用に向けた第一歩として,概念実証モデルを訓練する。
Google Mapsから6500箇所にまたがるストリートビューの、一級の触覚マップデータセットを作成します。
1つのズームでトレーニングされたGAN(Generative Adversarial Network)モデルは、キーマップ要素の識別に成功している。
- 参考スコア(独自算出の注目度): 4.465883551216819
- License:
- Abstract: Blindness and visual impairments affect many people worldwide. For help with navigation, people with visual impairments often rely on tactile maps that utilize raised surfaces and edges to convey information through touch. Although these maps are helpful, they are often not widely available and current tools to automate their production have similar limitations including only working at certain scales, for particular world regions, or adhering to specific tactile map standards. To address these shortcomings, we train a proof-of-concept model as a first step towards applying computer vision techniques to help automate the generation of tactile maps. We create a first-of-its-kind tactile maps dataset of street-views from Google Maps spanning 6500 locations and including different tactile line- and area-like features. Generative adversarial network (GAN) models trained on a single zoom successfully identify key map elements, remove extraneous ones, and perform inpainting with median F1 and intersection-over-union (IoU) scores of better than 0.97 across all features. Models trained on two zooms experience only minor drops in performance, and generalize well both to unseen map scales and world regions. Finally, we discuss future directions towards a full implementation of a tactile map solution that builds on our results.
- Abstract(参考訳): 盲目と視覚障害は世界中で多くの人に影響を与えている。
ナビゲーションを助けるために、視覚障害のある人は、しばしば触覚マップに頼っている。
これらの地図は、しばしば広く利用できないが、生産を自動化するための現在のツールは、特定の規模、特定の世界領域でのみ作業することや、特定の触覚マップ標準に固執することを含む、同様の制限がある。
これらの欠点に対処するために,触覚マップの自動生成を支援するコンピュータビジョン技術の適用に向けた第一歩として,概念実証モデルを訓練する。
われわれは、Google Mapsから6500箇所にまたがるストリートビューの、最初の触覚マップデータセットを作成し、さまざまな触覚ラインやエリアライクな機能を提供しています。
GAN(Generative Adversarial Network)モデルでは、キーマップ要素を単一ズームでトレーニングし、キーマップ要素を識別し、外部要素を除去し、中央値F1と交叉結合(IoU)スコアを全機能で0.97以上向上させる。
2つのズームでトレーニングされたモデルは、パフォーマンスの小さな低下しか経験せず、目に見えない地図スケールと世界領域の両方にうまく一般化する。
最後に,本研究の結果を基にした触覚マップソリューションの完全な実装に向けた今後の方向性について論じる。
関連論文リスト
- C2GM: Cascading Conditional Generation of Multi-scale Maps from Remote Sensing Images Constrained by Geographic Features [2.414525855161937]
本稿では,リモートセンシング画像からマルチスケールタイルマップを生成する新しいフレームワークであるC2GMを提案する。
リモートセンシング画像とカスケード参照二重分岐入力からオブジェクトの事前情報を抽出する条件付き特徴フュージョンエンコーダを実装した。
C2GMは、すべてのメトリクスにおける最先端(SOTA)のパフォーマンスを一貫して達成する。
論文 参考訳(メタデータ) (2025-02-07T15:11:31Z) - Map Imagination Like Blind Humans: Group Diffusion Model for Robotic Map Generation [0.9898607871253774]
ロボットが入力情報に制限のある点雲マップを生成するためのグループ拡散モデル(GDM)に基づくアーキテクチャを提案する。
視覚的知覚データや深度データを使わずに,視覚障害者の心的地図の想像・生成能力からインスピレーションを得た。
公開データセットの実験を行った結果,提案手法は経路データのみに基づいて合理的な地図を生成でき,さらに複雑なLiDARデータを組み込んだ地図を作成できることがわかった。
論文 参考訳(メタデータ) (2024-12-22T07:54:21Z) - TopoSD: Topology-Enhanced Lane Segment Perception with SDMap Prior [70.84644266024571]
我々は、標準定義地図(SDMaps)を見るために知覚モデルを訓練することを提案する。
我々はSDMap要素をニューラル空間マップ表現やインスタンストークンにエンコードし、先行情報のような補完的な特徴を組み込む。
レーンセグメント表現フレームワークに基づいて、モデルはレーン、中心線、およびそれらのトポロジを同時に予測する。
論文 参考訳(メタデータ) (2024-11-22T06:13:42Z) - Neural Semantic Map-Learning for Autonomous Vehicles [85.8425492858912]
本稿では,道路環境のコヒーレントな地図を作成するために,車両群から収集した局所部分写像を中心インスタンスに融合するマッピングシステムを提案する。
本手法は,シーン特異的なニューラルサイン距離場を用いて,雑音と不完全局所部分写像を併用する。
我々は,記憶効率の高いスパース機能グリッドを活用して大規模にスケールし,シーン再構築における不確実性をモデル化するための信頼スコアを導入する。
論文 参考訳(メタデータ) (2024-10-10T10:10:03Z) - DeepAerialMapper: Deep Learning-based Semi-automatic HD Map Creation for Highly Automated Vehicles [0.0]
高解像度空中画像からHDマップを作成するための半自動手法を提案する。
提案手法では, ニューラルネットワークを訓練して, 空中画像をHDマップに関連するクラスに意味的に分割する。
マップをLanelet2フォーマットにエクスポートすることで、さまざまなユースケースを簡単に拡張できる。
論文 参考訳(メタデータ) (2024-10-01T15:05:05Z) - SNAP: Self-Supervised Neural Maps for Visual Positioning and Semantic
Understanding [57.108301842535894]
我々は、地上と頭上の画像からリッチなニューラル2Dマップを学習するディープネットワークSNAPを紹介する。
我々は、異なる入力から推定されるニューラルマップの整列をトレーニングし、何千万ものストリートビュー画像のカメラポーズでのみ監視する。
SNAPは、従来の手法の範囲を超えて、挑戦的な画像クエリの場所を解決できる。
論文 参考訳(メタデータ) (2023-06-08T17:54:47Z) - Neural Map Prior for Autonomous Driving [17.198729798817094]
高精細(HD)セマンティックマップは、自動運転車が都市環境をナビゲートするために不可欠である。
オフラインのHDマップを作成する従来の方法には、労働集約的な手動アノテーションプロセスが含まれる。
近年,オンラインセンサを用いた局所地図作成手法が提案されている。
本研究では,グローバルマップのニューラル表現であるニューラルマッププライオリティ(NMP)を提案する。
論文 参考訳(メタデータ) (2023-04-17T17:58:40Z) - HDMapGen: A Hierarchical Graph Generative Model of High Definition Maps [81.86923212296863]
HDマップは道路路面の正確な定義と交通ルールの豊富な意味を持つ地図である。
実際の道路トポロジやジオメトリはごくわずかで、自動運転スタックをテストする能力は著しく制限されています。
高品質で多様なHDマップを生成可能な階層グラフ生成モデルであるHDMapGenを提案する。
論文 参考訳(メタデータ) (2021-06-28T17:59:30Z) - MP3: A Unified Model to Map, Perceive, Predict and Plan [84.07678019017644]
MP3は、入力が生のセンサーデータと高レベルのコマンドであるマップレス運転に対するエンドツーエンドのアプローチである。
提案手法は, より安全で, 快適であり, 長期クローズループシミュレーションにおいて, ベースラインよりもコマンドを追従できることを示す。
論文 参考訳(メタデータ) (2021-01-18T00:09:30Z) - DAGMapper: Learning to Map by Discovering Lane Topology [84.12949740822117]
我々は、分岐とマージによるトポロジー変化を含む多くのレーンを持つ複雑な高速道路のレーン境界を描くことに集中する。
グラフのノードがレーン境界の局所領域の幾何学的および位相的特性を符号化する有向非巡回グラフィカルモデル(DAG)における推論として問題を定式化する。
2つの異なる州における2つの幹線道路における我々のアプローチの有効性を示し、高い精度とリコールと89%の正しいトポロジーを示す。
論文 参考訳(メタデータ) (2020-12-22T21:58:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。