論文の概要: UAV-CROWD: Violent and non-violent crowd activity simulator from the
perspective of UAV
- arxiv url: http://arxiv.org/abs/2208.06702v1
- Date: Sat, 13 Aug 2022 18:28:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-16 13:13:56.271331
- Title: UAV-CROWD: Violent and non-violent crowd activity simulator from the
perspective of UAV
- Title(参考訳): UAV-CROWD:UAVの視点から見た暴力的・非暴力的群衆活動シミュレータ
- Authors: Mahieyin Rahmun, Tonmoay Deb, Shahriar Ali Bijoy, Mayamin Hamid Raha
- Abstract要約: 空から見ると、暴力的で非暴力的な人間の活動を捉えているビデオデータセットは少ない。
本稿では,暴力的・非暴力的と分類できる,様々な活動に従事する群衆の合成画像を生成することのできる,新しいベースラインシミュレータを提案する。
我々のシミュレーターは大規模でランダムな都市環境を生成でき、中距離コンピュータ上では平均25フレーム/秒を維持できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unmanned Aerial Vehicle (UAV) has gained significant traction in the recent
years, particularly the context of surveillance. However, video datasets that
capture violent and non-violent human activity from aerial point-of-view is
scarce. To address this issue, we propose a novel, baseline simulator which is
capable of generating sequences of photo-realistic synthetic images of crowds
engaging in various activities that can be categorized as violent or
non-violent. The crowd groups are annotated with bounding boxes that are
automatically computed using semantic segmentation. Our simulator is capable of
generating large, randomized urban environments and is able to maintain an
average of 25 frames per second on a mid-range computer with 150 concurrent
crowd agents interacting with each other. We also show that when synthetic data
from the proposed simulator is augmented with real world data, binary video
classification accuracy is improved by 5% on average across two different
models.
- Abstract(参考訳): 無人航空機(UAV)は近年、特に監視の文脈において大きな注目を集めている。
しかし、空中から暴力的で非暴力的な人間の活動を捉えるビデオデータセットは少ない。
この問題に対処するために,暴力的・非暴力的と分類できる様々な活動に従事する群衆のフォトリアリスティックな合成画像のシーケンスを生成することのできる,新しいベースラインシミュレータを提案する。
群衆グループには、セマンティックセグメンテーションを使用して自動的に計算される境界ボックスがアノテートされています。
シミュレーションは,ランダム化された大規模都市環境を生成でき,150人の群集エージェントが相互作用する中距離コンピュータ上で平均25フレーム/秒を維持できる。
また,提案したシミュレータの合成データを実世界のデータで拡張すると,2種類のモデルで平均5%の精度で映像分類精度が向上することを示した。
関連論文リスト
- Harmony4D: A Video Dataset for In-The-Wild Close Human Interactions [27.677520981665012]
Harmony4Dは、レスリング、ダンス、MMAなどのフィールド内アクティビティを特徴とする人間と人間のインタラクションのためのデータセットである。
我々は、フレキシブルなマルチビューキャプチャシステムを用いて、これらのダイナミックなアクティビティを記録し、人間検出、追跡、2D/3Dポーズ推定、および密接な相互作用のある被験者のためのメッシュ回復のためのアノテーションを提供する。
論文 参考訳(メタデータ) (2024-10-27T00:05:15Z) - Learning autonomous driving from aerial imagery [67.06858775696453]
フォトグラムシミュレーターは、生成済みの資産を新しいビューに変換することによって、新しいビューを合成することができる。
我々は、ニューラルネットワーク場(NeRF)を中間表現として使用し、地上車両の視点から新しいビューを合成する。
論文 参考訳(メタデータ) (2024-10-18T05:09:07Z) - Structured Graph Network for Constrained Robot Crowd Navigation with Low Fidelity Simulation [10.201765067255147]
低忠実度シミュレータを用いた群集ナビゲーションにおける強化学習(RL)ポリシーの適用可能性について検討した。
動的環境の表現を導入し,人間と障害物の表現を分離する。
この表現は、低忠実度シミュレーターで訓練されたRLポリシーを、シム2リアルギャップを減らして現実世界に展開することを可能にする。
論文 参考訳(メタデータ) (2024-05-27T04:53:09Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - ScatterNeRF: Seeing Through Fog with Physically-Based Inverse Neural
Rendering [83.75284107397003]
本稿では,シーンをレンダリングし,霧のない背景を分解するニューラルネットワークレンダリング手法であるScatterNeRFを紹介する。
本研究では,散乱量とシーンオブジェクトの非絡み合い表現を提案し,物理に着想を得た損失を伴ってシーン再構成を学習する。
マルチビューIn-the-Wildデータをキャプチャして,大規模な霧室内でのキャプチャを制御し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-05-03T13:24:06Z) - Nocturne: a scalable driving benchmark for bringing multi-agent learning
one step closer to the real world [11.069445871185744]
部分観測可能性下でのマルチエージェント協調を調査するための新しい2次元駆動シミュレータである textitNocturne を導入する。
Nocturneの焦点は、コンピュータビジョンの計算オーバーヘッドや画像からの特徴抽出を伴わずに、実世界のマルチエージェント環境での推論と心の理論の研究を可能にすることである。
論文 参考訳(メタデータ) (2022-06-20T16:51:44Z) - DriveGAN: Towards a Controllable High-Quality Neural Simulation [147.6822288981004]
DriveGANと呼ばれる新しい高品質のニューラルシミュレータを紹介します。
DriveGANは、異なるコンポーネントを監督なしで切り離すことによって制御性を達成する。
実世界の運転データ160時間を含む複数のデータセットでdriveganをトレーニングします。
論文 参考訳(メタデータ) (2021-04-30T15:30:05Z) - SceneGen: Learning to Generate Realistic Traffic Scenes [92.98412203941912]
私たちは、ルールと分布の必要性を緩和するトラフィックシーンのニューラルオートレグレッシブモデルであるSceneGenを紹介します。
実トラフィックシーンの分布を忠実にモデル化するSceneGenの能力を実証する。
論文 参考訳(メタデータ) (2021-01-16T22:51:43Z) - A Flow Base Bi-path Network for Cross-scene Video Crowd Understanding in
Aerial View [93.23947591795897]
本稿では,これらの課題に対処し,ドローンから収集した視覚的データから参加者を自動的に理解する。
クロスシーンテストで発生する背景雑音を軽減するために, 二重ストリーム群カウントモデルを提案する。
極暗環境下での集団密度推定問題に対処するために,ゲームグランドセフトオートV(GTAV)によって生成された合成データを導入する。
論文 参考訳(メタデータ) (2020-09-29T01:48:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。