論文の概要: Vision-Language Modeling with Regularized Spatial Transformer Networks for All Weather Crosswind Landing of Aircraft
- arxiv url: http://arxiv.org/abs/2405.05574v1
- Date: Thu, 9 May 2024 06:48:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-10 14:02:33.642094
- Title: Vision-Language Modeling with Regularized Spatial Transformer Networks for All Weather Crosswind Landing of Aircraft
- Title(参考訳): 航空機全天候クロスウインドランディングのための正規化空間変圧器ネットワークを用いた視覚言語モデル
- Authors: Debabrata Pal, Anvita Singh, Saumya Saumya, Shouvik Das,
- Abstract要約: 厳しい天候下では、パイロットは最低判定高度の前に滑走路要素を明確に把握しなければならない。
滑走路要素のローカライズに適した視覚ベースのシステムは、特にクロスウインド時に影響を受けます。
本稿では,新しい拡散蒸留損失を用いた気象蒸留モデルと,即時に基づく気候拡散ネットワークを統合することを提案する。
- 参考スコア(独自算出の注目度): 0.3749861135832073
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The intrinsic capability to perceive depth of field and extract salient information by the Human Vision System (HVS) stimulates a pilot to perform manual landing over an autoland approach. However, harsh weather creates visibility hindrances, and a pilot must have a clear view of runway elements before the minimum decision altitude. To help a pilot in manual landing, a vision-based system tailored to localize runway elements likewise gets affected, especially during crosswind due to the projective distortion of aircraft camera images. To combat this, we propose to integrate a prompt-based climatic diffusion network with a weather distillation model using a novel diffusion-distillation loss. Precisely, the diffusion model synthesizes climatic-conditioned landing images, and the weather distillation model learns inverse mapping by clearing those visual degradations. Then, to tackle the crosswind landing scenario, a novel Regularized Spatial Transformer Networks (RuSTaN) learns to accurately calibrate for projective distortion using self-supervised learning, which minimizes localization error by the downstream runway object detector. Finally, we have simulated a clear-day landing scenario at the busiest airport globally to curate an image-based Aircraft Landing Dataset (AIRLAD) and experimentally validated our contributions using this dataset to benchmark the performance.
- Abstract(参考訳): HVS(Human Vision System)は、被写界深度を知覚し、有能な情報を抽出する本質的な能力によって、パイロットがオートランドアプローチで手動着陸を行うように刺激する。
しかし、厳しい天候は視界の障害を生じさせ、パイロットは最低判定高度に達する前に滑走路要素を明確に把握しなければならない。
手動着陸でパイロットを助けるために、滑走路要素の局所化に適した視覚ベースのシステムは、特に航空機のカメラ画像の投影歪みによる横風時に影響を受けます。
これに対抗するために,新しい拡散蒸留損失を用いた気象蒸留モデルと,即時ベースの気候拡散ネットワークを統合することを提案する。
正確には、拡散モデルは気候条件の着地画像を合成し、気象蒸留モデルはそれらの視覚的劣化をクリアすることで逆マッピングを学習する。
そして,このクロスウインドランディングシナリオに対処するため,新しい規則化された空間変圧器ネットワーク (RuSTaN) は,下流の滑走路物体検出器による局所誤差を最小限に抑える自己教師付き学習を用いて,射影歪みの正確な校正を学習する。
最後に、私たちは、画像ベースエアクラフトランディングデータセット(AIRLAD)をキュレートするために、世界で最も忙しい空港で、クリアデイランディングシナリオをシミュレートし、このデータセットを使用してパフォーマンスをベンチマークするために、我々のコントリビューションを実験的に検証した。
関連論文リスト
- Power Line Aerial Image Restoration under dverse Weather: Datasets and Baselines [17.3009572002435]
電力線自律検査(PLAI)はスマートグリッドの構築において重要な役割を果たす。
PLAIはUAVが捉えた空中画像の電気成分と欠陥を正確に検出して完成する。
航空画像の可視的品質は、ヘイズ、雨、雪などの悪天候によって必然的に劣化し、我々の研究で検出精度を劇的に低下させることが判明した。
本稿では,悪天候の劣化画像から清潔で高品質な画像の復元を目的とした,逆気象下での電力線動画像復元(PLAIR-AW)の課題を提案する。
論文 参考訳(メタデータ) (2024-09-07T12:53:05Z) - Real-Time Multi-Scene Visibility Enhancement for Promoting Navigational Safety of Vessels Under Complex Weather Conditions [48.529493393948435]
この可視光カメラは、インテリジェントな水上輸送システムにおいて、海洋表面の容器に不可欠なイメージングセンサーとして登場した。
視覚画像の画質は、複雑な気象条件下での様々な劣化に必然的に悩まされる。
本研究では,異なる気象条件下で撮影された劣化画像を復元する汎用多場面可視性向上手法を開発した。
論文 参考訳(メタデータ) (2024-09-02T23:46:27Z) - Robust ADAS: Enhancing Robustness of Machine Learning-based Advanced Driver Assistance Systems for Adverse Weather [5.383130566626935]
本稿では,デノイングディープニューラルネットワークを前処理ステップとして,悪天候画像から晴天画像へ変換する。
ドライバーの視認性が向上し、悪天候下での安全なナビゲーションに欠かせない。
論文 参考訳(メタデータ) (2024-07-02T18:03:52Z) - Genuine Knowledge from Practice: Diffusion Test-Time Adaptation for
Video Adverse Weather Removal [53.15046196592023]
ビデオの悪天候除去におけるテスト時間適応について紹介する。
本稿では,テスト時間適応を反復拡散逆プロセスに統合する最初のフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-12T14:21:30Z) - Angle Robustness Unmanned Aerial Vehicle Navigation in GNSS-Denied
Scenarios [66.05091704671503]
本稿では、ポイントツーポイントナビゲーションタスクにおける飛行偏差に対処する新しい角度ナビゲーションパラダイムを提案する。
また、Adaptive Feature Enhance Module、Cross-knowledge Attention-guided Module、Robust Task-oriented Head Moduleを含むモデルを提案する。
論文 参考訳(メタデータ) (2024-02-04T08:41:20Z) - Aircraft Landing Time Prediction with Deep Learning on Trajectory Images [18.536109188450876]
本研究では、終端空域(TMA)をカバーする研究空域に突入する航空機のALTを予測するために、軌道画像に基づく深層学習手法を提案する。
軌道画像には航空機の位置、速度、進路、相対距離、到着する交通の流れなど様々な情報が含まれている。
また,軌道データから得られた実時間滑走路の利用状況と,航空機の種類や気象条件などの外部情報を付加入力として利用する。
論文 参考訳(メタデータ) (2024-01-02T07:56:05Z) - Exploring the Application of Large-scale Pre-trained Models on Adverse
Weather Removal [97.53040662243768]
ネットワークが異なる気象条件を適応的に処理できるようにするために,CLIP埋め込みモジュールを提案する。
このモジュールは、CLIP画像エンコーダによって抽出されたサンプル特定気象と、パラメータセットによって学習された分布特定情報を統合する。
論文 参考訳(メタデータ) (2023-06-15T10:06:13Z) - ScatterNeRF: Seeing Through Fog with Physically-Based Inverse Neural
Rendering [83.75284107397003]
本稿では,シーンをレンダリングし,霧のない背景を分解するニューラルネットワークレンダリング手法であるScatterNeRFを紹介する。
本研究では,散乱量とシーンオブジェクトの非絡み合い表現を提案し,物理に着想を得た損失を伴ってシーン再構成を学習する。
マルチビューIn-the-Wildデータをキャプチャして,大規模な霧室内でのキャプチャを制御し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-05-03T13:24:06Z) - Lidar Light Scattering Augmentation (LISA): Physics-based Simulation of
Adverse Weather Conditions for 3D Object Detection [60.89616629421904]
ライダーベースの物体検出器は、自動運転車のような自律ナビゲーションシステムにおいて、3D知覚パイプラインの重要な部分である。
降雨、雪、霧などの悪天候に敏感で、信号-雑音比(SNR)と信号-背景比(SBR)が低下している。
論文 参考訳(メタデータ) (2021-07-14T21:10:47Z) - Predicting Flight Delay with Spatio-Temporal Trajectory Convolutional
Network and Airport Situational Awareness Map [20.579487904188802]
空港に適用可能な高い予測精度を実現するためのビジョンベースソリューションを提案する。
本稿では,状況認識マップから空間的情報と時間的情報の両方をキャプチャする,エンドツーエンドのディープラーニングアーキテクチャであるTrajCNNを提案する。
提案手法は,ロサンゼルス国際空港での発着遅延の予測に有効である(約18分遅れ)。
論文 参考訳(メタデータ) (2021-05-19T07:38:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。