論文の概要: See Behind Walls in Real-time Using Aerial Drones and Augmented Reality
- arxiv url: http://arxiv.org/abs/2410.13139v1
- Date: Thu, 17 Oct 2024 01:51:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-18 13:18:07.779620
- Title: See Behind Walls in Real-time Using Aerial Drones and Augmented Reality
- Title(参考訳): 空中ドローンと拡張現実を使って壁面をリアルタイムで見る
- Authors: Sikai Yang, Kang Yang, Yuning Chen, Fan Zhao, Wan Du,
- Abstract要約: ARD2は、2つの空中ドローンと拡張現実(AR)デバイスを使用したリアルタイムな壁面監視を可能にするフレームワークである。
第1段階では、ARD2は、ドローン、ユーザ、ターゲット間の幾何学的関係を利用して、ターゲットの方向をユーザーのARディスプレイに投影する。
第2段階では、ターゲットの輪郭を再構築するためにドローンの画像が合成され、ユーザは壁の後ろのターゲットを視覚化することができる。
- 参考スコア(独自算出の注目度): 8.158170467978074
- License:
- Abstract: This work presents ARD2, a framework that enables real-time through-wall surveillance using two aerial drones and an augmented reality (AR) device. ARD2 consists of two main steps: target direction estimation and contour reconstruction. In the first stage, ARD2 leverages geometric relationships between the drones, the user, and the target to project the target's direction onto the user's AR display. In the second stage, images from the drones are synthesized to reconstruct the target's contour, allowing the user to visualize the target behind walls. Experimental results demonstrate the system's accuracy in both direction estimation and contour reconstruction.
- Abstract(参考訳): この研究は、空中ドローンと拡張現実(AR)デバイスを使用したリアルタイムな壁面監視を可能にするフレームワークであるARD2を提示する。
ARD2は、ターゲット方向推定と輪郭再構成の2つの主要なステップで構成されている。
第1段階では、ARD2は、ドローン、ユーザ、ターゲット間の幾何学的関係を利用して、ターゲットの方向をユーザーのARディスプレイに投影する。
第2段階では、ターゲットの輪郭を再構築するためにドローンの画像が合成され、ユーザは壁の後ろのターゲットを視覚化することができる。
実験結果から, 方向推定と輪郭復元におけるシステムの精度が示された。
関連論文リスト
- Enhancing Autonomous Navigation by Imaging Hidden Objects using Single-Photon LiDAR [12.183773707869069]
単一光子LiDARを用いたNon-Line-of-Sight(NLOS)センシングによる視認性の向上と自律ナビゲーションの向上を目的とした新しいアプローチを提案する。
本手法は,マルチバウンス光情報を利用することで,移動ロボットを「隅々まで見る」ことを可能にする。
論文 参考訳(メタデータ) (2024-10-04T16:03:13Z) - DroneMOT: Drone-based Multi-Object Tracking Considering Detection Difficulties and Simultaneous Moving of Drones and Objects [6.449663756698312]
監視カメラなどの静的プラットフォーム上でのマルチオブジェクトトラッキング(MOT)は、大きな進歩を遂げている。
しかし、ドローンのような動的プラットフォームに関しては、従来のMOT手法の有効性は著しく低下している。
本稿では,ドローンによる物体検出の高速化と,小型でぼやけた,隠蔽された物体に対する特徴埋め込みを目的とした,ドローンの高速移動を考慮したDroneMOTを提案する。
論文 参考訳(メタデータ) (2024-07-12T07:18:18Z) - Style Alignment based Dynamic Observation Method for UAV-View Geo-localization [7.185123213523453]
UAVビューのジオローカライゼーションのためのスタイルアライメントに基づく動的観察法を提案する。
具体的には、ドローンビュー画像の多様な視覚スタイルから衛星画像の統一的な視覚スタイルへ変換するスタイルアライメント戦略を導入する。
動的観察モジュールは、人間の観察習慣を模倣して画像の空間分布を評価するように設計されている。
論文 参考訳(メタデータ) (2024-07-03T06:19:42Z) - AZTR: Aerial Video Action Recognition with Auto Zoom and Temporal
Reasoning [63.628195002143734]
本稿では,空中映像の行動認識のための新しい手法を提案する。
提案手法は,UAVを用いて撮影したビデオに対して設計されており,エッジやモバイルデバイス上でも動作可能である。
我々は、カスタマイズされたオートズームを使用して、人間のターゲットを自動的に識別し、適切にスケールする学習ベースのアプローチを提案する。
論文 参考訳(メタデータ) (2023-03-02T21:24:19Z) - TransVisDrone: Spatio-Temporal Transformer for Vision-based
Drone-to-Drone Detection in Aerial Videos [57.92385818430939]
視覚的フィードを用いたドローンからドローンへの検知は、ドローンの衝突の検出、ドローンの攻撃の検出、他のドローンとの飛行の調整など、重要な応用がある。
既存の手法は計算コストがかかり、非エンドツーエンドの最適化に追随し、複雑なマルチステージパイプラインを持つため、エッジデバイス上でのリアルタイムデプロイメントには適さない。
計算効率を向上したエンドツーエンドのソリューションを提供する,シンプルで効果的なフレームワークであるitTransVisDroneを提案する。
論文 参考訳(メタデータ) (2022-10-16T03:05:13Z) - Learning Reconstructability for Drone Aerial Path Planning [51.736344549907265]
本研究では,無人ドローンを用いた大規模3次元都市景観獲得のためのビューとパスプランニングを改善するための,学習に基づく最初の再構成可能性予測器を提案する。
従来の手法とは対照的に,本手法では,一組の視点から3次元都市景観をいかによく再構築するかを明示的に予測するモデルを学習する。
論文 参考訳(メタデータ) (2022-09-21T08:10:26Z) - Dogfight: Detecting Drones from Drones Videos [58.158988162743825]
本稿では,他の飛行ドローンからドローンを検知する問題に対処する。
ソースとターゲットドローンのエロティックな動き、小型、任意の形状、大きな強度、および閉塞は、この問題を非常に困難にします。
これに対処するため,地域提案に基づく手法ではなく,2段階のセグメンテーションに基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-31T17:43:31Z) - Relative Drone-Ground Vehicle Localization using LiDAR and Fisheye
Cameras through Direct and Indirect Observations [0.0]
本稿では,LiDARカメラを用いたドローンと地上車両間の相対ポーズ推定手法を提案する。
本稿では,LiDARを用いたドローン検出・追跡のための動的適応カーネルベース手法を提案する。
実験では、ドローンの高速な初期検出とリアルタイム追跡を実現しました。
論文 参考訳(メタデータ) (2020-11-13T16:41:55Z) - Distributed Variable-Baseline Stereo SLAM from two UAVs [17.513645771137178]
本稿では,単眼カメラを1台,IMUを1台搭載した2台のUAVを用いて,視界の重なりと相対距離の測定を行った。
本稿では,glsuavエージェントを自律的に制御するために,分散協調推定方式を提案する。
我々は,高度160mまでの飛行におけるアプローチの有効性を実証し,最先端のVIO手法の能力を大きく超えている。
論文 参考訳(メタデータ) (2020-09-10T12:16:10Z) - University-1652: A Multi-view Multi-source Benchmark for Drone-based
Geo-localization [87.74121935246937]
我々は、ドローンによるジオローカライゼーションのための新しいマルチビューベンチマーク、University-1652を紹介する。
大学1652は、世界中の1,652の大学の建物から合成ドローン、衛星、地上カメラなどの3つのプラットフォームからのデータを含んでいる。
実験の結果,University-1652は視点不変の特徴の学習を支援し,実世界のシナリオにおいて優れた一般化能力を有することが示された。
論文 参考訳(メタデータ) (2020-02-27T15:24:15Z) - Detection and Tracking Meet Drones Challenge [131.31749447313197]
本稿では、オブジェクト検出・追跡データセットとベンチマークのレビューを行い、手動アノテーションによる大規模ドローンによるオブジェクト検出・追跡データセットの収集の課題について論じる。
当社のVisDroneデータセットは、中国北部から南部にかけての14の都市部と郊外部で収集されたものです。
本稿では,ドローンにおける大規模物体検出・追跡の現場の現状を詳細に分析し,今後の方向性を提案するとともに,課題を結論づける。
論文 参考訳(メタデータ) (2020-01-16T00:11:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。