論文の概要: Deep Ensemble for Rotorcraft Attitude Prediction
- arxiv url: http://arxiv.org/abs/2306.17104v1
- Date: Thu, 29 Jun 2023 17:06:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-30 12:31:23.845537
- Title: Deep Ensemble for Rotorcraft Attitude Prediction
- Title(参考訳): ロータクラフト姿勢予測のための深部アンサンブル
- Authors: Hikmat Khan, Nidhal Carla Bouaynaya, Ghulam Rasool, Tyler Travis,
Lacey Thompson, Charles C. Johnson
- Abstract要約: ロータークラフトのコミュニティは、他の航空部門よりも高い死亡事故率を経験している。
人工知能(AI)の最近の進歩は、ロータークラフトの安全性問題に対処できるシステムの設計を支援する機会を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Historically, the rotorcraft community has experienced a higher fatal
accident rate than other aviation segments, including commercial and general
aviation. Recent advancements in artificial intelligence (AI) and the
application of these technologies in different areas of our lives are both
intriguing and encouraging. When developed appropriately for the aviation
domain, AI techniques provide an opportunity to help design systems that can
address rotorcraft safety challenges. Our recent work demonstrated that AI
algorithms could use video data from onboard cameras and correctly identify
different flight parameters from cockpit gauges, e.g., indicated airspeed.
These AI-based techniques provide a potentially cost-effective solution,
especially for small helicopter operators, to record the flight state
information and perform post-flight analyses. We also showed that carefully
designed and trained AI systems could accurately predict rotorcraft attitude
(i.e., pitch and yaw) from outside scenes (images or video data). Ordinary
off-the-shelf video cameras were installed inside the rotorcraft cockpit to
record the outside scene, including the horizon. The AI algorithm could
correctly identify rotorcraft attitude at an accuracy in the range of 80\%. In
this work, we combined five different onboard camera viewpoints to improve
attitude prediction accuracy to 94\%. In this paper, five onboard camera views
included the pilot windshield, co-pilot windshield, pilot Electronic Flight
Instrument System (EFIS) display, co-pilot EFIS display, and the attitude
indicator gauge. Using video data from each camera view, we trained various
convolutional neural networks (CNNs), which achieved prediction accuracy in the
range of 79\% % to 90\% %. We subsequently ensembled the learned knowledge from
all CNNs and achieved an ensembled accuracy of 93.3\%.
- Abstract(参考訳): 歴史的にロータークラフトのコミュニティは商業航空や一般航空を含む他の航空部門よりも事故率が高い。
人工知能(AI)の最近の進歩と、私たちの生活のさまざまな領域におけるこれらの技術の応用は、興味深く、励まされています。
航空分野向けに適切に開発されると、AI技術はロータークラフトの安全性問題に対処できるシステムの設計を支援する機会を提供する。
我々の最近の研究は、AIアルゴリズムが搭載カメラからのビデオデータを使用し、コックピットゲージから異なる飛行パラメータを正確に識別できることを示した。
これらのaiベースの技術は、飛行状態の情報を記録し飛行後の分析を行うために、特に小型ヘリコプター運用者にとって、潜在的にコスト効率のよいソリューションを提供する。
また、慎重に設計され、訓練されたAIシステムは、外部のシーン(画像やビデオデータ)からロータークラフトの姿勢(ピッチやヨー)を正確に予測できることを示した。
通常のオフザシェルフビデオカメラはロータークラフトコックピット内に設置され、地平線を含む外部シーンを記録する。
aiアルゴリズムは80\%の範囲で正確にロータークラフトの姿勢を識別することができた。
本研究では,5つの異なるカメラ視点を組み合わせることで,姿勢予測精度を94\%に向上させた。
本稿では,パイロット用フロントガラス,パイロット用フロントガラス,パイロット用エレクトロニック・フライト・インスツルメンツ・システム(EFIS)ディスプレイ,パイロット用EFISディスプレイ,姿勢指標計の5つのカメラビューについて述べる。
各カメラからの映像データを用いて,様々な畳み込みニューラルネットワーク(cnns)を訓練し,79\%から90\%の範囲で予測精度を得た。
その後、すべてのCNNから学習知識をアンサンブルし、93.3\%の精度でアンサンブルした。
関連論文リスト
- Commissioning An All-Sky Infrared Camera Array for Detection Of Airborne Objects [0.11703603440337004]
ガリレオ計画では、空を継続的に監視する多モード地上観測所を設計、建設、委託している。
鍵となる機器の1つは、8つの冷却されていない長波長のFLIRボソン640カメラを使用した全天型赤外線カメラアレイである。
各種気象条件に対する受入率(観測可能な航空機等)と検出効率(検出に成功している航空機等)を報告する。
おもちゃのアウトリーチは2次元再構成トラジェクトリーフラッグの大きな不純物に焦点を絞ったもので、トラジェクトリーの約16%をアウトリーチとして用いた。
論文 参考訳(メタデータ) (2024-11-12T17:31:51Z) - Automated extraction of 4D aircraft trajectories from video recordings [0.0]
d'Enquetes et d'Analyses pour la S'ecurit'e de l'Aviation Civile (BEA)は、あらゆる種類の航空機を含む機内または地上カメラの事故映像を分析しなければならない。
本研究は,これらのビデオから4次元トラジェクトリの抽出を自動化し,フォトグラム法の適用性を明らかにすることを目的とする。
論文 参考訳(メタデータ) (2024-10-14T08:06:41Z) - Multiview Aerial Visual Recognition (MAVREC): Can Multi-view Improve
Aerial Visual Perception? [57.77643186237265]
我々は、異なる視点から同期シーンを記録するビデオデータセットであるMultiview Aerial Visual RECgnition(MAVREC)を提示する。
MAVRECは約2.5時間、業界標準の2.7K解像度ビデオシーケンス、0.5万フレーム以上のフレーム、11万の注釈付きバウンディングボックスで構成されている。
これにより、MAVRECは地上および空中ビューのデータセットとして最大であり、ドローンベースのデータセットの中では4番目に大きい。
論文 参考訳(メタデータ) (2023-12-07T18:59:14Z) - 3D Data Augmentation for Driving Scenes on Camera [50.41413053812315]
本稿では,Drive-3DAugと呼ばれる3次元データ拡張手法を提案する。
まずNeural Radiance Field(NeRF)を用いて,背景および前景の3次元モデルの再構成を行う。
そして、予め定義された背景の有効領域に適応した位置と向きの3Dオブジェクトを配置することにより、拡張駆動シーンを得ることができる。
論文 参考訳(メタデータ) (2023-03-18T05:51:05Z) - AZTR: Aerial Video Action Recognition with Auto Zoom and Temporal
Reasoning [63.628195002143734]
本稿では,空中映像の行動認識のための新しい手法を提案する。
提案手法は,UAVを用いて撮影したビデオに対して設計されており,エッジやモバイルデバイス上でも動作可能である。
我々は、カスタマイズされたオートズームを使用して、人間のターゲットを自動的に識別し、適切にスケールする学習ベースのアプローチを提案する。
論文 参考訳(メタデータ) (2023-03-02T21:24:19Z) - The eyes and hearts of UAV pilots: observations of physiological
responses in real-life scenarios [64.0476282000118]
民間機や軍用機では、パイロットはリアルなシミュレーターで自分の反応や反射を調整できる。
この作業は、現場でパイロットの行動を収集し、パフォーマンスを向上させるソリューションを提供することを目的としています。
論文 参考訳(メタデータ) (2022-10-26T14:16:56Z) - TransVisDrone: Spatio-Temporal Transformer for Vision-based
Drone-to-Drone Detection in Aerial Videos [57.92385818430939]
視覚的フィードを用いたドローンからドローンへの検知は、ドローンの衝突の検出、ドローンの攻撃の検出、他のドローンとの飛行の調整など、重要な応用がある。
既存の手法は計算コストがかかり、非エンドツーエンドの最適化に追随し、複雑なマルチステージパイプラインを持つため、エッジデバイス上でのリアルタイムデプロイメントには適さない。
計算効率を向上したエンドツーエンドのソリューションを提供する,シンプルで効果的なフレームワークであるitTransVisDroneを提案する。
論文 参考訳(メタデータ) (2022-10-16T03:05:13Z) - AirTrack: Onboard Deep Learning Framework for Long-Range Aircraft
Detection and Tracking [3.3773749296727535]
AirTrackは、sUASシステムのサイズ、重量、電力制約を尊重するリアルタイムの視覚のみの検出および追跡フレームワークである。
AirTrackは、Amazon Airborne Object Tracking(AOT)で最先端のアートベースラインを上回ります。
実験による評価から,本システムでは,最大で700mまでの95%以上をトラックできる可能性が示唆された。
論文 参考訳(メタデータ) (2022-09-26T16:58:00Z) - Coupling Vision and Proprioception for Navigation of Legged Robots [65.59559699815512]
我々は視覚と受容の相補的な強みを利用して、脚のあるロボットでポイントゴールナビゲーションを実現する。
車輪付きロボット(LoCoBot)のベースラインよりも優れた性能を示す。
また,センサーと計算能力を備えた四足歩行ロボットに,我々のシステムを実環境に展開することも示す。
論文 参考訳(メタデータ) (2021-12-03T18:59:59Z) - EVPropNet: Detecting Drones By Finding Propellers For Mid-Air Landing
And Following [11.79762223888294]
ドローンプロペラは画像の最も速く動く部分であり、激しい動きのぼけなくして古典的なカメラで直接「見える」ことはできない。
イベントカメラのデータからプロペラを検出するために、EVPropNetと呼ばれるディープニューラルネットワークをトレーニングする。
当社のネットワークには, (a) 目印のないドローンの追跡と追跡, (b) ニアフーバードローンへの着陸という,2つの応用例がある。
論文 参考訳(メタデータ) (2021-06-29T01:16:01Z) - Learn by Observation: Imitation Learning for Drone Patrolling from
Videos of A Human Navigator [22.06785798356346]
本研究では,人間航法士が地上でどのように行うかを観察し,模擬することにより,ドローンに空中パトロールを学ばせることを提案する。
観察プロセスは、フレーム間の幾何一貫性を利用してデータの自動収集とアノテーションを可能にする。
アノテーション付きデータに基づいて、新たに設計されたニューラルネットワークをトレーニングし、適切な方向と翻訳を予測する。
論文 参考訳(メタデータ) (2020-08-30T15:20:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。