論文の概要: DroneNet: Crowd Density Estimation using Self-ONNs for Drones
- arxiv url: http://arxiv.org/abs/2211.07137v1
- Date: Mon, 14 Nov 2022 06:32:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 16:09:22.666784
- Title: DroneNet: Crowd Density Estimation using Self-ONNs for Drones
- Title(参考訳): dronenet: セルフオンによるドローンの群集密度の推定
- Authors: Muhammad Asif Khan, Hamid Menouar, and Ridha Hamila
- Abstract要約: 自己組織型オペレーショナルニューラルネットワーク(Self-ONN)を用いたドローン(DroneNet)の群集密度推定モデルを提案する。
Self-ONNは、CNNベースのモデルと比較して計算複雑性の低い効率的な学習機能を提供する。
評価の結果,提案するDroneNetは同等のCNNモデルにおいて優れた性能を示した。
- 参考スコア(独自算出の注目度): 3.2575001434344286
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Video surveillance using drones is both convenient and efficient due to the
ease of deployment and unobstructed movement of drones in many scenarios. An
interesting application of drone-based video surveillance is to estimate crowd
densities (both pedestrians and vehicles) in public places. Deep learning using
convolution neural networks (CNNs) is employed for automatic crowd counting and
density estimation using images and videos. However, the performance and
accuracy of such models typically depend upon the model architecture i.e.,
deeper CNN models improve accuracy at the cost of increased inference time. In
this paper, we propose a novel crowd density estimation model for drones
(DroneNet) using Self-organized Operational Neural Networks (Self-ONN).
Self-ONN provides efficient learning capabilities with lower computational
complexity as compared to CNN-based models. We tested our algorithm on two
drone-view public datasets. Our evaluation shows that the proposed DroneNet
shows superior performance on an equivalent CNN-based model.
- Abstract(参考訳): ドローンによるビデオ監視は、展開の容易さと、多くのシナリオにおける無人機の動きのために便利かつ効率的である。
ドローンによるビデオ監視の興味深い応用は、公共の場で群衆密度(歩行者と車両の両方)を推定することだ。
畳み込みニューラルネットワーク(CNN)を用いた深層学習は、画像やビデオを用いた自動群集カウントと密度推定に使用される。
しかしながら、これらのモデルの性能と精度は、一般的にモデルアーキテクチャに依存する。つまり、より深いcnnモデルは、推論時間を増やすコストで精度を向上させる。
本稿では,自己組織型オペレーショナルニューラルネットワーク(Self-ONN)を用いたドローン(DroneNet)の群集密度推定モデルを提案する。
Self-ONNはCNNベースのモデルと比較して計算複雑性の低い効率的な学習機能を提供する。
私たちは2つのドローンビュー公開データセットでアルゴリズムをテストしました。
評価の結果,提案するDroneNetは同等のCNNモデルにおいて優れた性能を示した。
関連論文リスト
- High-throughput Visual Nano-drone to Nano-drone Relative Localization using Onboard Fully Convolutional Networks [51.23613834703353]
相対的なドローンとドローンのローカライゼーションは、どんなSwarm操作でも基本的なビルディングブロックである。
我々は、新しいビジョンベース完全畳み込みニューラルネットワーク(FCNN)に基づく垂直統合システムを提案する。
その結果,水平画像座標で32~47%,垂直画像座標で18~55%,実世界の30k画像のデータセットでR2乗改善が得られた。
論文 参考訳(メタデータ) (2024-02-21T12:34:31Z) - Adaptive Deep Learning for Efficient Visual Pose Estimation aboard
Ultra-low-power Nano-drones [5.382126081742012]
視覚に基づく人間のポーズ推定タスクを効率的に実行するための適応的深層学習に基づく新しいメカニズムを提案する。
実世界のデータセットと実際のナノドロンのハードウェアでは,平均絶対誤差(MAE)を維持しながら28%のレイテンシ低減を実現し,アイソレイテンシでは3%のMAE削減,絶対ピーク性能,すなわちSoAモデルよりも6%向上した。
論文 参考訳(メタデータ) (2024-01-26T23:04:26Z) - Robust Mixture-of-Expert Training for Convolutional Neural Networks [141.3531209949845]
スパースゲート型Mixture of Expert (MoE) は高精度で超効率的なモデル推論を実現するための大きな可能性を実証している。
本稿では、AdvMoEと呼ばれるMoEのための新しいルータ-エキスパート交互学習フレームワークを提案する。
その結果,AdvMoEは従来の高密度CNNに比べて1%の対向ロバスト性向上を実現し,親和性に富むMoEの有効性を享受できることがわかった。
論文 参考訳(メタデータ) (2023-08-19T20:58:21Z) - Towards a High-Performance Object Detector: Insights from Drone
Detection Using ViT and CNN-based Deep Learning Models [0.0679877553227375]
我々は,CNN と ViT をベースとした各種モデルを構築し,単流体検出において,基本型 ViT が最高の CNN ベース転送学習モデルより4.6 倍堅牢であることを示す。
最先端のCNN検出器の能力を全面的に超えるためには、ViTはCNNよりも優れていますが、トレーニングデータ、計算能力、高度でパフォーマンス指向な設計も必要です。
論文 参考訳(メタデータ) (2023-08-19T03:57:52Z) - A3D: Adaptive, Accurate, and Autonomous Navigation for Edge-Assisted
Drones [12.439787085435661]
本稿では,エッジサーバによるドローンナビゲーションフレームワークであるA3Dを提案する。
A3Dは、非適応的なソリューションと比較して、エンドツーエンドのレイテンシを28.06%削減し、フライト距離を27.28%まで拡張することができる。
論文 参考訳(メタデータ) (2023-07-19T10:23:28Z) - Channel-Aware Distillation Transformer for Depth Estimation on Nano
Drones [9.967643080731683]
本稿では,ナノドローンの障害物回避のための軽量CNN深度推定ネットワークを提案する。
知識蒸留(KD)にインスパイアされたCADiT (Channel-Aware Distillation Transformer) を提案する。
提案手法はKITTIデータセット上で検証され,超低消費電力マイクロプロセッサGAP8を用いたナノドローンCrzyflieで試験された。
論文 参考訳(メタデータ) (2023-03-18T10:45:34Z) - Collaborative Learning with a Drone Orchestrator [79.75113006257872]
インテリジェントな無線デバイス群は、ドローンの助けを借りて共有ニューラルネットワークモデルを訓練する。
提案したフレームワークは,トレーニングの大幅な高速化を実現し,ドローンホバリング時間の平均24%と87%の削減を実現している。
論文 参考訳(メタデータ) (2023-03-03T23:46:25Z) - Deep Neural Network Architecture Search for Accurate Visual Pose
Estimation aboard Nano-UAVs [69.19616451596342]
小型無人航空機(UAV)は、新興かつトレンドのトピックである。
我々は、新しいニューラルネットワーク探索(NAS)技術を活用し、視覚的ポーズ推定タスクのために複数の畳み込みニューラルネットワーク(CNN)を自動的に識別する。
その結果,10Hz@10mWおよび50Hz@90mWの実時間オンボード推算速度を達成しつつ,フィールド内制御誤差を32%低減し,現状を改善できた。
論文 参考訳(メタデータ) (2023-03-03T14:02:09Z) - TransVisDrone: Spatio-Temporal Transformer for Vision-based
Drone-to-Drone Detection in Aerial Videos [57.92385818430939]
視覚的フィードを用いたドローンからドローンへの検知は、ドローンの衝突の検出、ドローンの攻撃の検出、他のドローンとの飛行の調整など、重要な応用がある。
既存の手法は計算コストがかかり、非エンドツーエンドの最適化に追随し、複雑なマルチステージパイプラインを持つため、エッジデバイス上でのリアルタイムデプロイメントには適さない。
計算効率を向上したエンドツーエンドのソリューションを提供する,シンプルで効果的なフレームワークであるitTransVisDroneを提案する。
論文 参考訳(メタデータ) (2022-10-16T03:05:13Z) - Multi-Drone based Single Object Tracking with Agent Sharing Network [74.8198920355117]
マルチDroneシングルオブジェクト追跡データセットは、92のビデオクリップと113,918の高解像度フレーム、63のビデオクリップ、145,875の高解像度フレームで構成されている。
エージェント共有ネットワーク(ASNet)は、複数のドローンからターゲットの自己教師付きテンプレート共有とビューアウェア融合によって提案される。
論文 参考訳(メタデータ) (2020-03-16T03:27:04Z) - Dense Crowds Detection and Surveillance with Drones using Density Maps [0.0]
本稿では、ベイズ損失関数を訓練したVGG19を用いた密度マップ生成と、ResNet50-FPNをバックボーンとするFasterRCNNによる検出列数という、2つの異なる最先端手法をテストする。
本研究では,両手法が地上付近の群集において特に有意な検出・カウントを行うことを示す。
論文 参考訳(メタデータ) (2020-03-03T02:05:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。