論文の概要: Quadcopter Position Hold Function using Optical Flow in a Smartphone-based Flight Computer
- arxiv url: http://arxiv.org/abs/2501.10752v2
- Date: Sat, 25 Jan 2025 03:02:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-28 13:50:49.304994
- Title: Quadcopter Position Hold Function using Optical Flow in a Smartphone-based Flight Computer
- Title(参考訳): スマートフォンを用いた飛行コンピュータにおける光フローを用いたクアッドコプター位置保持機能
- Authors: Noel P. Caliston, Chris Jordan G. Aliac, James Arnold E. Nogra,
- Abstract要約: 本稿では,クワッドコプターのコンピュータ機器としてのスマートフォンの能力について考察する。
画像処理は、スマートフォンのセンサーと強力な内蔵カメラで行うことができる。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Purpose. This paper explores the capability of smartphones as computing devices for a quadcopter, specifically in terms of the ability of drones to maintain a position known as the position hold function. Image processing can be performed with the phone's sensors and powerful built-in camera. Method. Using Shi-Tomasi corner detection and the Lucas-Kanade sparse optical flow algorithms, ground features are recognized and tracked using the downward-facing camera. The position is maintained by computing quadcopter displacement from the center of the image using Euclidian distance, and the corresponding pitch and roll estimate is calculated using the PID controller. Results. Actual flights show a double standard deviation of 18.66 cm from the center for outdoor tests. With a quadcopter size of 58cm x 58cm used, it implies that 95% of the time, the quadcopter is within a diameter of 96 cm. For indoor tests, a double standard deviation of 10.55 cm means that 95% of the time, the quadcopter is within a diameter of 79 cm. Conclusion. Smartphone sensors and cameras can be used to perform optical flow position hold functions, proving their potential as computing devices for drones. Recommendations. To further improve the positioning system of the phone-based quadcopter system, it is suggested that potential sensor fusion be explored with the phone's GNSS sensor, which gives absolute positioning information for outdoor applications. Research Implications. As different devices and gadgets are integrated into the smartphone, this paper presents an opportunity for phone manufacturers and researchers to explore the potential of smartphones for a drone use-case.
- Abstract(参考訳): 目的。
本稿では,クワッドコプターのコンピュータ装置としてのスマートフォンの能力,特に位置保持機能として知られる位置をドローンが維持できる能力について考察する。
画像処理は、スマートフォンのセンサーと強力な内蔵カメラで行うことができる。
方法。
シトマシ角検出とルーカスカナーデスパース光流アルゴリズムを用いて、下向きカメラを用いて地盤の特徴を認識し、追跡する。
この位置は、ユークリッド距離を用いて画像の中心からのクアッドコプター変位を計算し、対応するピッチとロールの推定をPIDコントローラを用いて算出する。
結果。
実際の飛行では、屋外試験では中央から18.66cmの標準偏差が示される。
クワッドコプターのサイズは58cm×58cmであり、95%の時間、クワッドコプターは直径96cm以内である。
屋内試験では、10.55cmの標準偏差は95%であり、クアッドコプターは直径79cm以内である。
結論。
スマートフォンセンサーとカメラは、光学フロー位置保持機能の実行に使用することができ、ドローンのコンピューティングデバイスとしての可能性を証明することができる。
勧告。
携帯電話をベースとしたクアッドコプターシステムの位置決めシステムをさらに改善するため,携帯電話のGNSSセンサで電位センサ融合を探索し,屋外用途に絶対的な位置決め情報を提供することが示唆された。
研究内容。
スマートフォンにさまざまなデバイスやガジェットが組み込まれているため、この論文は携帯電話メーカーや研究者がスマートフォンのドローン利用の可能性を探る機会となる。
関連論文リスト
- A Precision Drone Landing System using Visual and IR Fiducial Markers
and a Multi-Payload Camera [0.0]
本研究では,広角,ズーム,赤外線センサを備えたジンバル搭載カメラとフィデューシャルマーカーを用いた自律精密ドローン着陸手法を提案する。
この方法は最小限のデータ要件を持ち、主にドローンから着陸台への方向に依存する。
論文 参考訳(メタデータ) (2024-03-06T15:57:56Z) - A Vision-based Autonomous Perching Approach for Nano Aerial Vehicles [0.0]
ナノクワッドコプターのための視覚に基づく自律パーチ手法を提案する。
ドローンは2cmの精度でマーカーの中心に到達することができる。
論文 参考訳(メタデータ) (2023-06-16T02:34:50Z) - Drone Detection and Tracking in Real-Time by Fusion of Different Sensing
Modalities [66.4525391417921]
マルチセンサ・ドローン検知システムの設計と評価を行う。
われわれのソリューションは、魚眼カメラを統合し、空の広い部分を監視し、他のカメラを興味ある対象に向けて操縦する。
このサーマルカメラは、たとえこのカメラが解像度が低いとしても、ビデオカメラと同じくらい実現可能なソリューションであることが示されている。
論文 参考訳(メタデータ) (2022-07-05T10:00:58Z) - Extended Abstract Version: CNN-based Human Detection System for UAVs in
Search and Rescue [0.0]
本稿では,畳み込みニューラルネットワークとQuadcopterハードウェアプラットフォームを用いて,人間の探索と検出を行う手法を提案する。
Raspberry Pi Bに事前訓練されたCNNモデルを適用し、Quadcopterの底部に1台のカメラを設置する。
実験の結果、Raspberry Pi Bの処理速度は3fpsだった。
論文 参考訳(メタデータ) (2021-11-04T13:57:20Z) - CNN-based Omnidirectional Object Detection for HermesBot Autonomous
Delivery Robot with Preliminary Frame Classification [53.56290185900837]
予備的バイナリフレーム分類を用いた物体検出のためのニューラルネットワークの最適化アルゴリズムを提案する。
周囲に6台のローリングシャッターカメラを備えた自律移動ロボットを360度視野として実験装置として使用した。
論文 参考訳(メタデータ) (2021-10-22T15:05:37Z) - EVPropNet: Detecting Drones By Finding Propellers For Mid-Air Landing
And Following [11.79762223888294]
ドローンプロペラは画像の最も速く動く部分であり、激しい動きのぼけなくして古典的なカメラで直接「見える」ことはできない。
イベントカメラのデータからプロペラを検出するために、EVPropNetと呼ばれるディープニューラルネットワークをトレーニングする。
当社のネットワークには, (a) 目印のないドローンの追跡と追跡, (b) ニアフーバードローンへの着陸という,2つの応用例がある。
論文 参考訳(メタデータ) (2021-06-29T01:16:01Z) - Dogfight: Detecting Drones from Drones Videos [58.158988162743825]
本稿では,他の飛行ドローンからドローンを検知する問題に対処する。
ソースとターゲットドローンのエロティックな動き、小型、任意の形状、大きな強度、および閉塞は、この問題を非常に困難にします。
これに対処するため,地域提案に基づく手法ではなく,2段階のセグメンテーションに基づく手法を提案する。
論文 参考訳(メタデータ) (2021-03-31T17:43:31Z) - Minimal Solutions for Panoramic Stitching Given Gravity Prior [53.047330182598124]
我々は,光学中心が一致するカメラで撮影した画像のパノラマ画像縫合に対する最小限の解を提案する。
固定長や焦点距離の変動を視線歪みの有無で仮定し, 4つの実用的なカメラ構成について検討した。
シンセサイザーは、合成シーンと、Sun360データセットから500万枚以上の実画像のペアと、IMUを搭載した2台のスマートフォンを使って、私たちによって撮影されたシーンの両方でテストされる。
論文 参考訳(メタデータ) (2020-12-01T13:17:36Z) - Relative Drone-Ground Vehicle Localization using LiDAR and Fisheye
Cameras through Direct and Indirect Observations [0.0]
本稿では,LiDARカメラを用いたドローンと地上車両間の相対ポーズ推定手法を提案する。
本稿では,LiDARを用いたドローン検出・追跡のための動的適応カーネルベース手法を提案する。
実験では、ドローンの高速な初期検出とリアルタイム追跡を実現しました。
論文 参考訳(メタデータ) (2020-11-13T16:41:55Z) - Real-Time Drone Detection and Tracking With Visible, Thermal and
Acoustic Sensors [66.4525391417921]
熱赤外カメラは、ドローン検出タスクに対する実現可能な解決策であることが示されている。
また,センサ間距離の関数としての検出器性能についても検討した。
ドローン、鳥、飛行機、ヘリコプターの650個の注釈付き赤外線と可視ビデオを含む新しいビデオデータセットも紹介されている。
論文 参考訳(メタデータ) (2020-07-14T23:06:42Z) - University-1652: A Multi-view Multi-source Benchmark for Drone-based
Geo-localization [87.74121935246937]
我々は、ドローンによるジオローカライゼーションのための新しいマルチビューベンチマーク、University-1652を紹介する。
大学1652は、世界中の1,652の大学の建物から合成ドローン、衛星、地上カメラなどの3つのプラットフォームからのデータを含んでいる。
実験の結果,University-1652は視点不変の特徴の学習を支援し,実世界のシナリオにおいて優れた一般化能力を有することが示された。
論文 参考訳(メタデータ) (2020-02-27T15:24:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。