論文の概要: CNN-Based Camera Pose Estimation and Localisation of Scan Images for Aircraft Visual Inspection
- arxiv url: http://arxiv.org/abs/2511.18702v1
- Date: Mon, 24 Nov 2025 02:52:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.983154
- Title: CNN-Based Camera Pose Estimation and Localisation of Scan Images for Aircraft Visual Inspection
- Title(参考訳): CNNによる航空機の視覚検査のためのスキャン画像の推定と位置推定
- Authors: Xueyan Oh, Leonard Loh, Shaohui Foong, Zhong Bao Andy Koh, Kow Leong Ng, Poh Kang Tan, Pei Lin Pearlin Toh, U-Xuan Tan,
- Abstract要約: ジェネラル・ビジュアル・インスペクション (General Visual Inspection) は、商業用機の外装に明らかな損傷を検知し、ローカライズするために用いられる手動のプロセスである。
本稿では,パンティルトズームカメラのポーズを推定し,スキャン画像のローカライズを行うための,インフラストラクチャフリーでデプロイが容易なオンサイト手法を提案する。
- 参考スコア(独自算出の注目度): 7.714454436505029
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: General Visual Inspection is a manual inspection process regularly used to detect and localise obvious damage on the exterior of commercial aircraft. There has been increasing demand to perform this process at the boarding gate to minimise the downtime of the aircraft and automating this process is desired to reduce the reliance on human labour. Automating this typically requires estimating a camera's pose with respect to the aircraft for initialisation but most existing localisation methods require infrastructure, which is very challenging in uncontrolled outdoor environments and within the limited turnover time (approximately 2 hours) on an airport tarmac. Additionally, many airlines and airports do not allow contact with the aircraft's surface or using UAVs for inspection between flights, and restrict access to commercial aircraft. Hence, this paper proposes an on-site method that is infrastructure-free and easy to deploy for estimating a pan-tilt-zoom camera's pose and localising scan images. This method initialises using the same pan-tilt-zoom camera used for the inspection task by utilising a Deep Convolutional Neural Network fine-tuned on only synthetic images to predict its own pose. We apply domain randomisation to generate the dataset for fine-tuning the network and modify its loss function by leveraging aircraft geometry to improve accuracy. We also propose a workflow for initialisation, scan path planning, and precise localisation of images captured from a pan-tilt-zoom camera. We evaluate and demonstrate our approach through experiments with real aircraft, achieving root-mean-square camera pose estimation errors of less than 0.24 m and 2 degrees for all real scenes.
- Abstract(参考訳): ジェネラル・ビジュアル・インスペクション (General Visual Inspection) は、商業用機の外装に明らかな損傷を検知し、ローカライズするために定期的に使用される手動検査プロセスである。
航空機のダウンタイムを最小限に抑えるため、搭乗ゲートでこのプロセスを実行する必要性が高まっており、人的労働力への依存を減らすためにこのプロセスを自動化することが望まれている。
これを自動化するには、初期化のためにカメラのポーズを推定する必要があるが、既存のほとんどのローカライゼーション手法ではインフラが必要であり、これは制御されていない屋外環境では非常に困難であり、空港のターマック上でのターンオーバー時間(約2時間)に制限される。
加えて、多くの航空会社や空港は航空機の表面への接触を許可しておらず、飛行間の検査にUAVを使用し、商用機へのアクセスを制限している。
そこで本研究では,パンティルトズームカメラのポーズを推定し,スキャン画像のローカライズを行うための,インフラストラクチャフリーでデプロイが容易なオンサイト手法を提案する。
本手法は、合成画像のみに微調整されたディープ畳み込みニューラルネットワークを用いて、検査作業に使用する同じパンティルトズームカメラを用いて初期化する。
ドメイン・ランダム化を適用し、ネットワークを微調整するためのデータセットを生成し、航空機の形状を利用して損失関数を修正して精度を向上させる。
また,パンティルトズームカメラから撮影した画像の初期化,走査経路計画,高精度な位置決めを行うワークフローを提案する。
実機を用いた実験により,本手法を実機で評価し,実機で0.24m,2°以下の推定誤差が得られた。
関連論文リスト
- Loc$^2$: Interpretable Cross-View Localization via Depth-Lifted Local Feature Matching [80.57282092735991]
本稿では,高精度かつ解釈可能なクロスビューローカライズ手法を提案する。
地上画像の3自由度(DoF)のポーズを、その局所的な特徴と基準空中画像とをマッチングすることによって推定する。
実験では、クロスエリアテストや未知の向きといった挑戦的なシナリオにおいて、最先端の精度を示す。
論文 参考訳(メタデータ) (2025-09-11T18:52:16Z) - Accurate Pose Estimation for Flight Platforms based on Divergent Multi-Aperture Imaging System [8.98211713131741]
視覚に基づくポーズ推定は、飛行プラットフォームの自律的なナビゲーションにおいて重要な役割を果たす。
カメラ限界の視野と空間分解能は推定精度を推定する。
本稿では,広い視野と高空間分解能の同時観測を実現するため,多様なマルチアパーチャイメージングシステムの設計を行う。
論文 参考訳(メタデータ) (2025-02-27T02:51:09Z) - CamLoPA: A Hidden Wireless Camera Localization Framework via Signal Propagation Path Analysis [59.86280992504629]
CamLoPAは、トレーニング不要の無線カメラ検出およびローカライゼーションフレームワークである。
低コストの商用オフ・ザ・シェルフ(COTS)デバイスを使用して、最小限の活動空間制約で運用する。
95.37%のスヌーピングカメラ検出精度と17.23の平均位置誤差を達成する。
論文 参考訳(メタデータ) (2024-09-23T16:23:50Z) - Vision-Language Modeling with Regularized Spatial Transformer Networks for All Weather Crosswind Landing of Aircraft [0.3749861135832073]
気象によって引き起こされる視覚劣化をクリアするために訓練された視覚ベースのシステムは、様々な気候条件下で堅牢な着陸データセットを必要とする。
本稿では,迅速な気候拡散ネットワークを訓練し,厳しい気象画像の合成を提案する。
また、新しい拡散蒸留損失を用いた気象蒸留モデルの最適化を行い、これらの視覚的劣化を解明する。
論文 参考訳(メタデータ) (2024-05-09T06:48:42Z) - Cross-Camera Trajectories Help Person Retrieval in a Camera Network [124.65912458467643]
既存の手法では、純粋な視覚的マッチングや時間的制約を考慮することが多いが、カメラネットワークの空間情報は無視する。
本稿では,時間的情報と空間的情報を統合したクロスカメラ生成に基づく歩行者検索フレームワークを提案する。
本手法の有効性を検証するため,最初のカメラ横断歩行者軌跡データセットを構築した。
論文 参考訳(メタデータ) (2022-04-27T13:10:48Z) - Rethinking Drone-Based Search and Rescue with Aerial Person Detection [79.76669658740902]
航空ドローンの映像の視覚検査は、現在土地捜索救助(SAR)活動に不可欠な部分である。
本稿では,この空中人物検出(APD)タスクを自動化するための新しいディープラーニングアルゴリズムを提案する。
本稿では,Aerial Inspection RetinaNet (AIR) アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-11-17T21:48:31Z) - Real-time Geo-localization Using Satellite Imagery and Topography for
Unmanned Aerial Vehicles [18.71806336611299]
本稿では,UAV上の軽量組込みシステムにおいて,シーン変更と実用性に信頼性のあるフレームワークを提案する。
このフレームワークは、オフラインデータベースの準備とオンライン推論の2つのステージで構成されている。
2つの異なるUAVプラットフォーム上でのイメージベースローカライゼーションのフィールド実験を行い、その結果を検証した。
論文 参考訳(メタデータ) (2021-08-07T01:47:19Z) - Perceiving Traffic from Aerial Images [86.994032967469]
本研究では,空中画像中の物体を検出するために,バタフライ検出器と呼ばれる物体検出手法を提案する。
UAVDT(UAVDT)とVisDrone 2019(VisDrone 2019)の2つのUAVデータセット上でButterfly Detectorを評価し、従来の最先端の手法よりも高速に動作し、かつリアルタイムに動作可能であることを示す。
論文 参考訳(メタデータ) (2020-09-16T11:37:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。