論文の概要: On the Role of Field of View for Occlusion Removal with Airborne Optical
Sectioning
- arxiv url: http://arxiv.org/abs/2204.13371v1
- Date: Thu, 28 Apr 2022 09:26:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-29 14:54:23.628334
- Title: On the Role of Field of View for Occlusion Removal with Airborne Optical
Sectioning
- Title(参考訳): 空飛ぶ光分断による咬合除去における視野の役割について
- Authors: Francis Seits, Indrajit Kurmi, Rakesh John Amala Arokia Nathan, Rudolf
Ortner, and Oliver Bimber
- Abstract要約: 植生による排除は、遠隔地におけるリモートセンシングアプリケーションにとって重要な問題である。
Airborne Optical Sectioning (AOS) は、光学的、波長に依存しない合成開口イメージング技術である。
森林密度と適用画像システムの視野(FOV)の関係を実証する。
- 参考スコア(独自算出の注目度): 3.5232085374661284
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Occlusion caused by vegetation is an essential problem for remote sensing
applications in areas, such as search and rescue, wildfire detection, wildlife
observation, surveillance, border control, and others. Airborne Optical
Sectioning (AOS) is an optical, wavelength-independent synthetic aperture
imaging technique that supports computational occlusion removal in real-time.
It can be applied with manned or unmanned aircrafts, such as drones. In this
article, we demonstrate a relationship between forest density and field of view
(FOV) of applied imaging systems. This finding was made with the help of a
simulated procedural forest model which offers the consideration of more
realistic occlusion properties than our previous statistical model. While AOS
has been explored with automatic and autonomous research prototypes in the
past, we present a free AOS integration for DJI systems. It enables bluelight
organizations and others to use and explore AOS with compatible, manually
operated, off-the-shelf drones. The (digitally cropped) default FOV for this
implementation was chosen based on our new finding.
- Abstract(参考訳): 植生によって引き起こされる閉塞は、捜索救助、山火事の検出、野生生物の観察、監視、国境管理など、リモートセンシングの応用において不可欠な問題である。
Airborne Optical Sectioning (AOS) は、光学的に波長に依存しない合成開口イメージング技術であり、リアルタイムに計算閉塞除去をサポートする。
無人または無人の航空機、例えばドローンに適用することができる。
本稿では,森林密度と適用画像システムの視野(FOV)との関係を実証する。
この発見は,従来の統計モデルよりも現実的な閉塞特性を考慮に入れたシミュレートされた手続き林モデルの助けを借りて行われた。
これまでAOSは自動および自律的な研究プロトタイプで研究されてきたが、DJIシステム向けの無料のAOS統合を提示する。
ブルーライトの組織や他の企業は、互換性があり手動操作のドローンでAOSを利用できる。
この実装の(デジタルトリミングされた)デフォルトのFOVは、私たちの新しい発見に基づいて選ばれました。
関連論文リスト
- Efficient Real-time Smoke Filtration with 3D LiDAR for Search and Rescue
with Autonomous Heterogeneous Robotic Systems [56.838297900091426]
スモークとダストは、搭載された知覚システムに依存するため、あらゆる移動ロボットプラットフォームの性能に影響を与える。
本稿では,重みと空間情報に基づく新しいモジュラー計算フィルタを提案する。
論文 参考訳(メタデータ) (2023-08-14T16:48:57Z) - Synthetic Aperture Anomaly Imaging [2.9443230571766854]
検出された異常は積分の異常を検出するよりも効果的であることを示す。
我々は、ブルーライトの組織や商用ドローンプラットフォームを使って、我々の発見を現実的に利用できるようにするリアルタイムアプリケーションを提案する。
論文 参考訳(メタデータ) (2023-04-26T14:34:43Z) - Threatening Patch Attacks on Object Detection in Optical Remote Sensing
Images [55.09446477517365]
自然画像における物体検出における高度なパッチアタック(PA)は、ディープニューラルネットワークに基づく手法における大きな安全性の脆弱性を指摘した。
我々は,TPAと呼ばれる視覚的品質の低下を伴わない,より危険度の高いPAを提案する。
我々の知る限りでは、これがO-RSIにおけるオブジェクト検出におけるPAの研究の最初の試みであり、この研究が読者にこのトピックの研究に興味を持たせることを願っている。
論文 参考訳(メタデータ) (2023-02-13T02:35:49Z) - Inverse Airborne Optical Sectioning [4.640835690336653]
Inverse Airborne Optical Sectioning (IAOS)は、ISAR(Inverse Synthetic Aperture Radar)の光学的類似物である。
植生に密集した歩行者などの移動目標を、静止した光学センサーで視認・追跡することができる。
論文 参考訳(メタデータ) (2022-07-27T07:57:24Z) - Fully Convolutional One-Stage 3D Object Detection on LiDAR Range Images [96.66271207089096]
FCOS-LiDARは、自律走行シーンのLiDAR点雲のための完全な1段式3Dオブジェクト検出器である。
標準的な2Dコンボリューションを持つRVベースの3D検出器は、最先端のBEVベースの検出器と同等の性能を発揮することを示す。
論文 参考訳(メタデータ) (2022-05-27T05:42:16Z) - DAE : Discriminatory Auto-Encoder for multivariate time-series anomaly
detection in air transportation [68.8204255655161]
識別オートエンコーダ(DAE)と呼ばれる新しい異常検出モデルを提案する。
通常のLSTMベースのオートエンコーダのベースラインを使用するが、いくつかのデコーダがあり、それぞれ特定の飛行フェーズのデータを取得する。
その結果,DAEは精度と検出速度の両方で良好な結果が得られることがわかった。
論文 参考訳(メタデータ) (2021-09-08T14:07:55Z) - A Multi-UAV System for Exploration and Target Finding in Cluttered and
GPS-Denied Environments [68.31522961125589]
複雑なGPSを用いた複雑な環境において,UAVのチームが協調して目標を探索し,発見するための枠組みを提案する。
UAVのチームは自律的にナビゲートし、探索し、検出し、既知の地図で散らばった環境でターゲットを見つける。
その結果, 提案方式は, 時間的コスト, 調査対象地域の割合, 捜索・救助ミッションの成功率などの面で改善されていることがわかった。
論文 参考訳(メタデータ) (2021-07-19T12:54:04Z) - An Autonomous Drone for Search and Rescue in Forests using Airborne
Optical Sectioning [0.0]
密閉された森林に完全自律的に人々を発見できる最初のプロトタイプを紹介します。
様々な森林タイプで実施された17のフィールド実験で、ドローンは42人の隠れた人のうち38人を見つけた。
深層学習に基づく人物分類は、1次元合成開口内でのスパースや誤差の少ないサンプリングでは影響を受けない。
論文 参考訳(メタデータ) (2021-05-10T13:05:22Z) - Multi-Agent Active Search using Realistic Depth-Aware Noise Model [8.520962086877548]
未知の環境における関心のある物体の活発な探索には、探索と救助、ガス漏れの検出、動物の密猟者の発見など、多くのロボティクスの応用がある。
既存のアルゴリズムでは、対象物の位置精度を優先することが多いが、距離や視線の関数としての物体検出の信頼性などの実用的問題は無視されている。
モノクラー光学画像と深度マップからの2つの感覚情報に基づいて,複数の地上ロボットに対して,これらの問題に対処するアルゴリズムをNATS(Noss-Aware Thompson Sampling)と呼ぶ。
論文 参考訳(メタデータ) (2020-11-09T23:20:55Z) - Search and Rescue with Airborne Optical Sectioning [7.133136338850781]
分類の前に多視点画像を組み合わせることで、自動人物検出を著しく改善できることを示す。
発見は、自律航空機や有人航空機と組み合わせて適用できる効果的な将来の捜索救助技術の基礎を築いた。
論文 参考訳(メタデータ) (2020-09-18T13:40:19Z) - Perceiving Traffic from Aerial Images [86.994032967469]
本研究では,空中画像中の物体を検出するために,バタフライ検出器と呼ばれる物体検出手法を提案する。
UAVDT(UAVDT)とVisDrone 2019(VisDrone 2019)の2つのUAVデータセット上でButterfly Detectorを評価し、従来の最先端の手法よりも高速に動作し、かつリアルタイムに動作可能であることを示す。
論文 参考訳(メタデータ) (2020-09-16T11:37:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。