論文の概要: Excavating in the Wild: The GOOSE-Ex Dataset for Semantic Segmentation
- arxiv url: http://arxiv.org/abs/2409.18788v1
- Date: Fri, 27 Sep 2024 14:36:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-01 11:53:50.441754
- Title: Excavating in the Wild: The GOOSE-Ex Dataset for Semantic Segmentation
- Title(参考訳): 野生での発掘: セマンティックセグメンテーションのためのGOOSE-Exデータセット
- Authors: Raphael Hagmanns, Peter Mortimer, Miguel Granero, Thorsten Luettel, Janko Petereit,
- Abstract要約: 本研究では,異なる環境から5000個のラベル付きマルチモーダルフレームを含むGOOSE-Exデータセットをオープンソースとして公開する。
本研究では,異なるプラットフォーム上でのセマンティックセグメンテーション性能と,目に見えない環境におけるセンサモードの総合的な解析を行う。
組み合わせたデータセットが、さまざまなダウンストリームアプリケーションやコンペにどのように使用できるかを実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The successful deployment of deep learning-based techniques for autonomous systems is highly dependent on the data availability for the respective system in its deployment environment. Especially for unstructured outdoor environments, very few datasets exist for even fewer robotic platforms and scenarios. In an earlier work, we presented the German Outdoor and Offroad Dataset (GOOSE) framework along with 10000 multimodal frames from an offroad vehicle to enhance the perception capabilities in unstructured environments. In this work, we address the generalizability of the GOOSE framework. To accomplish this, we open-source the GOOSE-Ex dataset, which contains additional 5000 labeled multimodal frames from various completely different environments, recorded on a robotic excavator and a quadruped platform. We perform a comprehensive analysis of the semantic segmentation performance on different platforms and sensor modalities in unseen environments. In addition, we demonstrate how the combined datasets can be utilized for different downstream applications or competitions such as offroad navigation, object manipulation or scene completion. The dataset, its platform documentation and pre-trained state-of-the-art models for offroad perception will be made available on https://goose-dataset.de/. \
- Abstract(参考訳): 自律システムのためのディープラーニングベースのテクニックのデプロイの成功は、デプロイメント環境における各システムのデータの可用性に大きく依存している。
特に非構造屋外環境では、より少ないロボットプラットフォームやシナリオのためのデータセットはごくわずかである。
初期の研究では、非構造環境における知覚能力を高めるために、ドイツのアウトドア・オフロードデータセット(GOOSE)フレームワークと、オフロード車両からの10000のマルチモーダルフレームを提示した。
本稿では,GOOSEフレームワークの一般化可能性について述べる。
これを実現するため,GOOSE-Exデータセットをオープンソース化した。GOOSE-Exデータセットには,さまざまな異なる環境から5000個のラベル付きマルチモーダルフレームが含まれており,ロボット掘削機と四足歩行プラットフォームに記録されている。
本研究では,異なるプラットフォーム上でのセマンティックセグメンテーション性能と,目に見えない環境におけるセンサモードの総合的な解析を行う。
さらに、組み合わせたデータセットが、異なる下流アプリケーションやオフロードナビゲーション、オブジェクト操作、シーン補完といった競合にどのように利用できるかを実証する。
オフロード知覚のためのデータセット、プラットフォームドキュメント、トレーニング済みの最先端モデルがhttps://goose-dataset.de/.com/で公開される。
名
関連論文リスト
- ROAD-Waymo: Action Awareness at Scale for Autonomous Driving [17.531603453254434]
ROAD-Waymoは、道路シーンにおけるエージェント、アクション、位置、イベント検出の技術の開発とベンチマークのための広範なデータセットである。
既存のデータセット(および複数の都市を含む)よりもかなり大きく、より困難なものには、198kの注釈付きビデオフレーム、54kのエージェントチューブ、3.9Mのバウンディングボックス、合計12.4Mのラベルがある。
論文 参考訳(メタデータ) (2024-11-03T20:46:50Z) - Are We Ready for Real-Time LiDAR Semantic Segmentation in Autonomous Driving? [42.348499880894686]
シーンセマンティックセグメンテーションは、3次元空間データを専門のディープニューラルネットワークと直接統合することで実現できる。
本研究では, NVIDIA Jetson プラットフォーム上でのリソース制約推論の性能と性能を解析し, 様々な3次元セマンティックセマンティックセマンティクス手法について検討する。
論文 参考訳(メタデータ) (2024-10-10T20:47:33Z) - AMEX: Android Multi-annotation Expo Dataset for Mobile GUI Agents [50.39555842254652]
我々は,モバイルシナリオにおけるAIエージェントの研究を進めるために,Android Multi-Annotation EXpo (AMEX)を紹介した。
AMEXは110のモバイルアプリケーションから104K以上の高解像度のスクリーンショットで構成されており、複数のレベルでアノテートされている。
AMEXには、GUIインタラクティブな要素接地、GUIスクリーンと要素機能記述、複雑な自然言語命令の3段階のアノテーションが含まれている。
論文 参考訳(メタデータ) (2024-07-03T17:59:58Z) - UniTraj: A Unified Framework for Scalable Vehicle Trajectory Prediction [93.77809355002591]
さまざまなデータセット、モデル、評価基準を統一する包括的なフレームワークであるUniTrajを紹介する。
我々は広範な実験を行い、他のデータセットに転送するとモデルの性能が大幅に低下することがわかった。
これらの知見を説明するために,データセットの特徴に関する洞察を提供する。
論文 参考訳(メタデータ) (2024-03-22T10:36:50Z) - The GOOSE Dataset for Perception in Unstructured Environments [3.0408645115035036]
本研究では,非構造屋外環境を対象とした包括的データセットを提案する。
GOOSEデータセットには10万のラベル付きイメージとポイントクラウドが含まれており、さまざまな最先端セグメンテーションモデルをトレーニングするために使用される。
このイニシアチブは、既存のデータセットのシームレスなインクルージョンを可能にし、非構造化環境で動作しているさまざまなロボットの知覚能力を高めるための、共通のフレームワークを確立することを目的としている。
論文 参考訳(メタデータ) (2023-10-25T17:20:38Z) - RSRD: A Road Surface Reconstruction Dataset and Benchmark for Safe and
Comfortable Autonomous Driving [67.09546127265034]
道路表面の再構築は、車両の走行計画と制御システムの解析と予測を促進するのに役立つ。
我々は,様々な運転条件下で,特定のプラットフォームで収集した実世界,高解像度,高精度のデータセットであるRoad Surface Reconstructionデータセットを紹介した。
約16,000対のステレオ画像、原点雲、地中深度・不均等地図を含む一般的な道路形態を網羅している。
論文 参考訳(メタデータ) (2023-10-03T17:59:32Z) - SSCBench: A Large-Scale 3D Semantic Scene Completion Benchmark for Autonomous Driving [87.8761593366609]
SSCBenchは、広く使用されている自動車データセットのシーンを統合するベンチマークである。
我々は、単眼、三眼、クラウド入力を用いて、性能ギャップを評価するモデルをベンチマークする。
クロスドメインの一般化テストを簡単にするために、さまざまなデータセットにまたがったセマンティックラベルを統一しています。
論文 参考訳(メタデータ) (2023-06-15T09:56:33Z) - IDD-3D: Indian Driving Dataset for 3D Unstructured Road Scenes [79.18349050238413]
デプロイ可能なディープラーニングアーキテクチャの準備とトレーニングには、さまざまなトラフィックシナリオに適したモデルが必要である。
インドなどいくつかの発展途上国で見られる非構造的で複雑な運転レイアウトは、これらのモデルに挑戦している。
我々は、複数のカメラと12kの注釈付き駆動LiDARフレームを備えたLiDARセンサーのマルチモーダルデータからなる新しいデータセットIDD-3Dを構築した。
論文 参考訳(メタデータ) (2022-10-23T23:03:17Z) - TRoVE: Transforming Road Scene Datasets into Photorealistic Virtual
Environments [84.6017003787244]
本研究では、シミュレーションデータセットに存在する困難とドメインギャップに対処する合成データ生成パイプラインを提案する。
既存のデータセットからアノテーションや視覚的手がかりを利用すれば、自動マルチモーダルデータ生成が容易になることを示す。
論文 参考訳(メタデータ) (2022-08-16T20:46:08Z) - SVIRO: Synthetic Vehicle Interior Rear Seat Occupancy Dataset and
Benchmark [11.101588888002045]
SVIROは10台の異なる車両の旅客室におけるシーンの合成データセットである。
限られたバリエーションに基づいて学習した際の一般化能力と信頼性について、機械学習に基づくアプローチを解析する。
論文 参考訳(メタデータ) (2020-01-10T14:44:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。