論文の概要: SydneyScapes: Image Segmentation for Australian Environments
- arxiv url: http://arxiv.org/abs/2504.07542v1
- Date: Thu, 10 Apr 2025 08:11:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-11 12:20:50.303958
- Title: SydneyScapes: Image Segmentation for Australian Environments
- Title(参考訳): SydneyScapes: オーストラリアの環境のためのイメージセグメンテーション
- Authors: Hongyu Lyu, Julie Stephany Berrio, Mao Shan, Stewart Worrall,
- Abstract要約: SydneyScapesは、セマンティックイメージのコンピュータビジョンタスク、例えば、パノプティクスのセグメンテーション用に設計されたデータセットである。
オーストラリアのニューサウスウェールズ州(NSW)のシドニーと周辺の都市から収集されたこのデータセットは、高品質のピクセルレベルのアノテーションを備えた756枚の画像で構成されている。
アルゴリズムの開発、テスト、デプロイのための注釈付きデータとツールを提供することで、AV業界や研究者を支援するように設計されている。
- 参考スコア(独自算出の注目度): 11.33083039877258
- License:
- Abstract: Autonomous Vehicles (AVs) are being partially deployed and tested across various global locations, including China, the USA, Germany, France, Japan, Korea, and the UK, but with limited demonstrations in Australia. The integration of machine learning (ML) into AV perception systems highlights the need for locally labelled datasets to develop and test algorithms in specific environments. To address this, we introduce SydneyScapes - a dataset tailored for computer vision tasks of image semantic, instance, and panoptic segmentation. This dataset, collected from Sydney and surrounding cities in New South Wales (NSW), Australia, consists of 756 images with high-quality pixel-level annotations. It is designed to assist AV industry and researchers by providing annotated data and tools for algorithm development, testing, and deployment in the Australian context. Additionally, we offer benchmarking results using state-of-the-art algorithms to establish reference points for future research and development. The dataset is publicly available at https://hdl.handle.net/2123/33051.
- Abstract(参考訳): 自律走行車(AV)は中国、米国、ドイツ、フランス、日本、韓国、イギリスなど世界各国で一部展開されテストされているが、オーストラリアでは限定的なデモンストレーションが行われている。
AV知覚システムへの機械学習(ML)の統合は、特定の環境でアルゴリズムを開発しテストするためのローカルラベル付きデータセットの必要性を強調している。
これを解決するために、SydneyScapes – イメージセマンティック、インスタンス、およびパノプティクスセグメンテーションのコンピュータビジョンタスクに適したデータセットを紹介します。
オーストラリア・ニューサウスウェールズ州ニューサウスウェールズ州(NSW)のシドニーと周辺の都市から収集されたこのデータセットは、高品質のピクセルレベルのアノテーションを備えた756枚の画像で構成されている。
オーストラリアの文脈でアルゴリズムの開発、テスト、デプロイを行うための注釈付きデータとツールを提供することで、AV産業や研究者を支援するように設計されている。
さらに,将来の研究・開発のための基準点を確立するために,最先端のアルゴリズムを用いてベンチマーク結果を提供する。
データセットはhttps://hdl.handle.net/2123/33051で公開されている。
関連論文リスト
- CityGuessr: City-Level Video Geo-Localization on a Global Scale [54.371452373726584]
本稿では, 都市, 州, 国, 大陸を階層的に予測することを目的とした, グローバルな地平化の新たな課題を提案する。
この問題を解決するためのモデルをトレーニングするために、世界中をカバーした大規模なビデオデータセットは存在しない。
我々は、世界中の166都市から68,269の動画からなる新しいデータセット、CityGuessr68kを紹介した。
論文 参考訳(メタデータ) (2024-11-10T03:20:00Z) - TorchSpatial: A Location Encoding Framework and Benchmark for Spatial Representation Learning [36.725822223732635]
位置(ポイント)エンコーディングのための学習フレームワークとベンチマークであるTorchSpatialを提案する。
TorchSpatialには3つの重要なコンポーネントが含まれている: 1) 一般的に認識されている15のロケーションエンコーダを統合する統合されたロケーションエンコーダフレームワーク、2) LocBenchベンチマークタスクは7つのジオアウェアイメージ分類と10のジオアウェアイメージ回帰データセットを含む。
論文 参考訳(メタデータ) (2024-06-21T21:33:16Z) - Multilingual Diversity Improves Vision-Language Representations [66.41030381363244]
このデータセットの事前トレーニングは、ImageNet上で英語のみまたは英語が支配するデータセットを使用してパフォーマンスが向上する。
GeoDEのような地理的に多様なタスクでは、アフリカから得られる最大の利益とともに、すべての地域における改善も観察します。
論文 参考訳(メタデータ) (2024-05-27T08:08:51Z) - The First Swahili Language Scene Text Detection and Recognition Dataset [55.83178123785643]
低リソース言語、特にスワヒリ語には大きなギャップがある。
スワヒリ語は東アフリカ諸国で広く話されているが、依然としてシーンテキスト認識において未発見言語である。
本研究では,スワヒリシーンのテキスト画像の包括的データセットを提案し,異なるシーンのテキスト検出および認識モデルに基づくデータセットの評価を行う。
論文 参考訳(メタデータ) (2024-05-19T03:55:02Z) - Navya3DSeg -- Navya 3D Semantic Segmentation Dataset & split generation
for autonomous vehicles [63.20765930558542]
3Dセマンティックデータは、障害物検出やエゴ-車両の局所化といった中核的な認識タスクに有用である。
そこで我々は,大規模生産段階の運用領域に対応する多様なラベル空間を持つ新しいデータセットであるNavala 3D(Navya3DSeg)を提案する。
ラベルのない23のラベル付きシーケンスと25の補足シーケンスが含まれており、ポイントクラウド上の自己教師付きおよび半教師付きセマンティックセマンティックセグメンテーションベンチマークを探索するために設計された。
論文 参考訳(メタデータ) (2023-02-16T13:41:19Z) - Video Polyp Segmentation: A Deep Learning Perspective [97.70996418522748]
本稿では,第1回総合ビデオポリプセグメンテーション(VPS)研究について紹介する。
まず、有名なSUNデータセットから158,690フレームを含む、SUN-SEGという高品質なフレーム単位のVPSデータセットを紹介します。
また,グローバルエンコーダ,ローカルエンコーダ,正規化自己保持ブロックからなる,シンプルだが効率的なベースラインを設計する。
論文 参考訳(メタデータ) (2022-03-27T12:40:10Z) - SensatUrban: Learning Semantics from Urban-Scale Photogrammetric Point
Clouds [52.624157840253204]
センサットウルバン(SensatUrban)は、イギリスの3都市から収集された7.6km2の30億点近くからなる、都市規模のUAV測光点クラウドデータセットである。
データセットの各ポイントは、粒度の細かいセマンティックアノテーションでラベル付けされ、その結果、既存の最大のフォトグラムポイントクラウドデータセットの3倍の大きさのデータセットが生成される。
論文 参考訳(メタデータ) (2022-01-12T14:48:11Z) - A Review of Location Encoding for GeoAI: Methods and Applications [14.279748049042665]
より広い地球科学における人工知能モデルに対する一般的なニーズは、様々な種類の空間データを表現し、エンコードすることである。
1つの基本的なステップは、単一のポイント位置を埋め込み空間にエンコードすることである。
この埋め込みは、サポートベクターマシンやニューラルネットワークのような下流機械学習モデルに好適である。
論文 参考訳(メタデータ) (2021-11-07T05:25:49Z) - CrowdDriven: A New Challenging Dataset for Outdoor Visual Localization [44.97567243883994]
クラウドソースデータを用いた屋外シーンにおける視覚的位置推定のための新しいベンチマークを提案する。
私たちのデータセットは非常に困難で、評価されたすべてのメソッドが最も難しい部分で失敗していることが示されています。
データセットリリースの一部として、私たちはそれを生成するために使用されるツールを提供し、効率的で効果的な2D対応アノテーションを可能にします。
論文 参考訳(メタデータ) (2021-09-09T19:25:48Z) - Object Tracking and Geo-localization from Street Images [4.5958644027273685]
本稿では,低フレームレートのストリートビデオから交通標識を検出・位置情報化するフレームワークを提案する。
提案システムは、カメラに対する各符号の位置オフセットを予測するRetinaNet(GPS-RetinaNet)の修正版を用いている。
提案したデータセットは、幅広い道路から収集された多様な環境群をカバーする。
論文 参考訳(メタデータ) (2021-07-13T17:32:04Z) - Automatic Signboard Detection and Localization in Densely Populated
Developing Cities [0.0]
自然シーン画像における看板検出は, エラーのない情報検索における最優先課題である。
本稿では,看板を自動的に検出し,そのような都市に適した新しい物体検出手法を提案する。
提案手法では,符号板を正確に検出できる(背景の形状や色が多様であっても平均精度は0.90 mAP)。
論文 参考訳(メタデータ) (2020-03-04T08:04:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。