論文の概要: The MONET dataset: Multimodal drone thermal dataset recorded in rural
scenarios
- arxiv url: http://arxiv.org/abs/2304.05417v2
- Date: Wed, 19 Jul 2023 10:01:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-20 17:25:23.475719
- Title: The MONET dataset: Multimodal drone thermal dataset recorded in rural
scenarios
- Title(参考訳): MONETデータセット: 農村シナリオで記録されたマルチモーダルドローン熱データセット
- Authors: Luigi Riz, Andrea Caraffa, Matteo Bortolon, Mohamed Lamine Mekhalfi,
Davide Boscaini, Andr\'e Moura, Jos\'e Antunes, Andr\'e Dias, Hugo Silva,
Andreas Leonidou, Christos Constantinides, Christos Keleshis, Dante Abate,
Fabio Poiesi
- Abstract要約: 私たちは、農村部を飛行するドローンに搭載されたサーマルカメラを使って、新しいマルチモーダルデータセットであるMONETを紹介します。
モネは162Kの注釈付きバウンディングボックスを備えた約53K画像で構成されている。
各画像は、姿勢、速度、高度、GPS座標に関する情報を含むドローンメタデータとタイムスタンプで一致している。
- 参考スコア(独自算出の注目度): 2.4683968227344097
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present MONET, a new multimodal dataset captured using a thermal camera
mounted on a drone that flew over rural areas, and recorded human and vehicle
activities. We captured MONET to study the problem of object localisation and
behaviour understanding of targets undergoing large-scale variations and being
recorded from different and moving viewpoints. Target activities occur in two
different land sites, each with unique scene structures and cluttered
backgrounds. MONET consists of approximately 53K images featuring 162K manually
annotated bounding boxes. Each image is timestamp-aligned with drone metadata
that includes information about attitudes, speed, altitude, and GPS
coordinates. MONET is different from previous thermal drone datasets because it
features multimodal data, including rural scenes captured with thermal cameras
containing both person and vehicle targets, along with trajectory information
and metadata. We assessed the difficulty of the dataset in terms of transfer
learning between the two sites and evaluated nine object detection algorithms
to identify the open challenges associated with this type of data. Project
page: https://github.com/fabiopoiesi/monet_dataset.
- Abstract(参考訳): ドローンに搭載されたサーマルカメラを用いて、農村部を飛行し、人間と車両の活動を記録した新しいマルチモーダルデータセットであるmonetを提案する。
我々はMONETを捉え、大規模に変動し、異なる視点から記録される対象の物体の局所化と行動理解の問題を調べた。
ターゲット活動は2つの異なる土地で行われ、それぞれが独特の風景構造と散らかった背景を持つ。
MONETは162Kの注釈付きバウンディングボックスを備えた約53Kイメージで構成されている。
各画像は、姿勢、速度、高度、GPS座標に関する情報を含むドローンメタデータとタイムスタンプで一致している。
MONETは、従来の熱ドローンのデータセットとは異なる。それはマルチモーダルデータであり、人と車の両方のターゲットを含むサーマルカメラと、軌跡情報とメタデータを含む田舎のシーンをキャプチャする。
両サイト間の移動学習におけるデータセットの難易度を評価し,9つのオブジェクト検出アルゴリズムを評価し,このタイプのデータに関連するオープンな課題を同定した。
プロジェクトページ: https://github.com/fabiopoiesi/monet_dataset。
関連論文リスト
- Multiview Aerial Visual Recognition (MAVREC): Can Multi-view Improve
Aerial Visual Perception? [57.77643186237265]
我々は、異なる視点から同期シーンを記録するビデオデータセットであるMultiview Aerial Visual RECgnition(MAVREC)を提示する。
MAVRECは約2.5時間、業界標準の2.7K解像度ビデオシーケンス、0.5万フレーム以上のフレーム、11万の注釈付きバウンディングボックスで構成されている。
これにより、MAVRECは地上および空中ビューのデータセットとして最大であり、ドローンベースのデータセットの中では4番目に大きい。
論文 参考訳(メタデータ) (2023-12-07T18:59:14Z) - VDD: Varied Drone Dataset for Semantic Segmentation [9.581655974280217]
7つのクラスにまたがる400の高解像度画像の大規模なラベル付きコレクションをリリースする。
このデータセットは、様々なカメラアングルから撮影され、様々な照明条件の下で都市、工業、農村、自然のエリアで様々なシーンを特徴としている。
私たちは、ドローンデータセットをベースラインとして7つの最先端モデルをトレーニングします。
論文 参考訳(メタデータ) (2023-05-23T02:16:14Z) - Synthehicle: Multi-Vehicle Multi-Camera Tracking in Virtual Cities [4.4855664250147465]
複数の車両の追跡とセグメンテーションのための大規模な合成データセットを複数重なり合うカメラビューと非重なり合うカメラビューで提示する。
データセットは17時間のラベル付きビデオ素材で構成され、64の異なる日、雨、夜のシーンで340台のカメラから記録されている。
論文 参考訳(メタデータ) (2022-08-30T11:36:07Z) - EagerMOT: 3D Multi-Object Tracking via Sensor Fusion [68.8204255655161]
マルチオブジェクトトラッキング(MOT)により、移動ロボットは周囲の物体を3次元空間と時間で位置づけすることで、良好な動作計画とナビゲーションを行うことができる。
既存の方法は、深度センサー(例えばLiDAR)を使用して3D空間のターゲットを検出し追跡するが、信号の間隔が限られているため、検出範囲は限られている。
我々は,両方のセンサモダリティから利用可能な物体を全て統合し,シーンのダイナミックスを適切に解釈する簡易なトラッキング定式化であるeagermotを提案する。
論文 参考訳(メタデータ) (2021-04-29T22:30:29Z) - A Flow Base Bi-path Network for Cross-scene Video Crowd Understanding in
Aerial View [93.23947591795897]
本稿では,これらの課題に対処し,ドローンから収集した視覚的データから参加者を自動的に理解する。
クロスシーンテストで発生する背景雑音を軽減するために, 二重ストリーム群カウントモデルを提案する。
極暗環境下での集団密度推定問題に対処するために,ゲームグランドセフトオートV(GTAV)によって生成された合成データを導入する。
論文 参考訳(メタデータ) (2020-09-29T01:48:24Z) - Perceiving Traffic from Aerial Images [86.994032967469]
本研究では,空中画像中の物体を検出するために,バタフライ検出器と呼ばれる物体検出手法を提案する。
UAVDT(UAVDT)とVisDrone 2019(VisDrone 2019)の2つのUAVデータセット上でButterfly Detectorを評価し、従来の最先端の手法よりも高速に動作し、かつリアルタイムに動作可能であることを示す。
論文 参考訳(メタデータ) (2020-09-16T11:37:43Z) - Counting dense objects in remote sensing images [52.182698295053264]
特定の画像から関心のあるオブジェクトの数を推定するのは、難しいが重要な作業である。
本稿では,リモートセンシング画像から高密度物体を数えることに興味がある。
これらの課題に対処するために,我々はまず,リモートセンシング画像に基づく大規模オブジェクトカウントデータセットを構築した。
次に、入力画像の密度マップを生成する新しいニューラルネットワークを設計することで、データセットをベンチマークする。
論文 参考訳(メタデータ) (2020-02-14T09:13:54Z) - AU-AIR: A Multi-modal Unmanned Aerial Vehicle Dataset for Low Altitude
Traffic Surveillance [20.318367304051176]
カメラを搭載した無人航空機(UAV)は、空中(バードビュー)画像を撮影する利点がある。
オブジェクトアノテーションによる視覚データを含む、いくつかの空中データセットが導入されている。
本研究では,実環境下で収集されたマルチモーダルセンサデータを有する多目的航空データセット(AU-AIR)を提案する。
論文 参考訳(メタデータ) (2020-01-31T09:45:12Z) - Detection and Tracking Meet Drones Challenge [131.31749447313197]
本稿では、オブジェクト検出・追跡データセットとベンチマークのレビューを行い、手動アノテーションによる大規模ドローンによるオブジェクト検出・追跡データセットの収集の課題について論じる。
当社のVisDroneデータセットは、中国北部から南部にかけての14の都市部と郊外部で収集されたものです。
本稿では,ドローンにおける大規模物体検出・追跡の現場の現状を詳細に分析し,今後の方向性を提案するとともに,課題を結論づける。
論文 参考訳(メタデータ) (2020-01-16T00:11:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。