論文の概要: PRGFlow: Benchmarking SWAP-Aware Unified Deep Visual Inertial Odometry
- arxiv url: http://arxiv.org/abs/2006.06753v1
- Date: Thu, 11 Jun 2020 19:12:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 14:24:58.737433
- Title: PRGFlow: Benchmarking SWAP-Aware Unified Deep Visual Inertial Odometry
- Title(参考訳): PRGFlow:SWAP対応統合ビジュアル慣性オドメトリーのベンチマーク
- Authors: Nitin J. Sanket, Chahat Deep Singh, Cornelia Ferm\"uller, Yiannis
Aloimonos
- Abstract要約: 視覚的翻訳推定のための深層学習手法を提案し、6DoF odometry 推定のための慣性センサでゆるやかに融合する。
我々は,MSCOCOデータセット上でネットワークを評価し,複数の実飛行軌道上でのVI融合を評価する。
- 参考スコア(独自算出の注目度): 14.077054191270213
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Odometry on aerial robots has to be of low latency and high robustness whilst
also respecting the Size, Weight, Area and Power (SWAP) constraints as demanded
by the size of the robot. A combination of visual sensors coupled with Inertial
Measurement Units (IMUs) has proven to be the best combination to obtain robust
and low latency odometry on resource-constrained aerial robots. Recently, deep
learning approaches for Visual Inertial fusion have gained momentum due to
their high accuracy and robustness. However, the remarkable advantages of these
techniques are their inherent scalability (adaptation to different sized aerial
robots) and unification (same method works on different sized aerial robots) by
utilizing compression methods and hardware acceleration, which have been
lacking from previous approaches.
To this end, we present a deep learning approach for visual translation
estimation and loosely fuse it with an Inertial sensor for full 6DoF odometry
estimation. We also present a detailed benchmark comparing different
architectures, loss functions and compression methods to enable scalability. We
evaluate our network on the MSCOCO dataset and evaluate the VI fusion on
multiple real-flight trajectories.
- Abstract(参考訳): 空中ロボットのオドメトリは、ロボットのサイズによって要求されるサイズ、重量、面積、パワー(SWAP)の制約を尊重する一方で、低レイテンシと高ロバスト性でなければならない。
慣性測定ユニット(imus)と組み合わされた視覚センサの組み合わせは、資源制約された空中ロボットのロバストかつ低レイテンシのオドメトリを得るのに最適な組み合わせであることが証明されている。
近年,ビジュアル慣性融合の深層学習アプローチは,その精度と堅牢性から勢いを増している。
しかし、これらの技術の顕著な利点は、圧縮法とハードウェアアクセラレーションを利用して、その固有のスケーラビリティ(異なる大きさの空中ロボットへの適応)と統一(同じ方法で異なるサイズの空中ロボットで動く)である。
そこで本研究では,6次元オドメトリ推定のための慣性センサを用いて,視覚翻訳推定とゆるやかに融合する深層学習手法を提案する。
また,スケーラビリティを実現するために,異なるアーキテクチャ,損失関数,圧縮メソッドを比較した詳細なベンチマークも提示する。
我々は,MSCOCOデータセット上でネットワークを評価し,複数の実飛行軌道上でのVI融合を評価する。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Random resistive memory-based deep extreme point learning machine for
unified visual processing [67.51600474104171]
ハードウェア・ソフトウェア共同設計型, ランダム抵抗型メモリベース深部極点学習マシン(DEPLM)を提案する。
我々の共同設計システムは,従来のシステムと比較して,エネルギー効率の大幅な向上とトレーニングコストの削減を実現している。
論文 参考訳(メタデータ) (2023-12-14T09:46:16Z) - Over-the-Air Federated Learning and Optimization [52.5188988624998]
エッジ・ザ・エア計算(AirComp)によるフェデレーション学習(FL)に焦点を当てる。
本稿では,AirComp ベースの FedAvg (AirFedAvg) アルゴリズムの凸および非凸条件下での収束について述べる。
エッジデバイス(モデル、勾配、モデル差など)で送信できるローカルアップデートの種類によって、AirFedAvgで送信するとアグリゲーションエラーが発生する可能性がある。
さらに、より実用的な信号処理方式を検討し、通信効率を改善し、これらの信号処理方式によって引き起こされるモデル集約誤差の異なる形式に収束解析を拡張する。
論文 参考訳(メタデータ) (2023-10-16T05:49:28Z) - A Distance-Geometric Method for Recovering Robot Joint Angles From an
RGB Image [7.971699294672282]
本稿では,ロボットマニピュレータの関節角度を現在の構成の1つのRGB画像のみを用いて検索する手法を提案する。
提案手法は,構成空間の距離幾何学的表現に基づいて,ロボットの運動モデルに関する知識を活用する。
論文 参考訳(メタデータ) (2023-01-05T12:57:45Z) - Efficient Few-Shot Object Detection via Knowledge Inheritance [62.36414544915032]
Few-shot Object Detection (FSOD) は、未確認のタスクに少ないトレーニングサンプルで適応できるジェネリック検出器を学習することを目的としている。
計算量の増加を伴わない効率的なプレトレイン・トランスファー・フレームワーク(PTF)のベースラインを提案する。
また,予測された新しいウェイトと事前訓練されたベースウェイトとのベクトル長の不整合を軽減するために,適応長再スケーリング(ALR)戦略を提案する。
論文 参考訳(メタデータ) (2022-03-23T06:24:31Z) - AirDet: Few-Shot Detection without Fine-tuning for Autonomous
Exploration [16.032316550612336]
本稿では,支援画像とのクラス関係の学習による微調整が不要なAirDetを提案する。
AirDetは、徹底的に微調整された方法と同等またはそれ以上の結果を達成し、ベースラインで最大40~60%の改善を実現している。
DARPA潜水試験における実地探査実験の評価結果について述べる。
論文 参考訳(メタデータ) (2021-12-03T06:41:07Z) - Learning suction graspability considering grasp quality and robot
reachability for bin-picking [4.317666242093779]
直感的な幾何学的解析に基づくグリップ品質評価指標を提案する。
さらに,到達可能性評価指標を取り入れた。
実験結果から,直感的に把握できる品質評価基準は,物理的に着想を得た指標と競合することがわかった。
論文 参考訳(メタデータ) (2021-11-04T00:55:42Z) - GEM: Glare or Gloom, I Can Still See You -- End-to-End Multimodal Object
Detector [11.161639542268015]
厳しい照明条件下での2次元物体検出のためのセンサ対応マルチモーダル融合戦略を提案する。
本ネットワークは,各センサモダリティの測定信頼性をスカラーウェイトとマスクの形で推定する。
提案手法はFLIR-Thermalデータセット上で既存の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-02-24T14:56:37Z) - IMU Preintegrated Features for Efficient Deep Inertial Odometry [0.0]
慣性計測装置(IMU)は、様々なガジェットやロボットプラットフォームで、ユビキタスな固有受容運動測定装置として利用可能である。
これらのデータのみに基づく幾何学的変換やオードメトリの直接推論は難しい作業である。
本稿では, 深部慣性計測における生IMUデータの代替として, IMUプリインテグレーション機能を提案する。
論文 参考訳(メタデータ) (2020-07-06T17:58:35Z) - ASFD: Automatic and Scalable Face Detector [129.82350993748258]
ASFD(Automatic and Scalable Face Detector)を提案する。
ASFDはニューラルアーキテクチャ検索技術の組み合わせと新たな損失設計に基づいている。
ASFD-D0は120FPS以上で動作し、MobilenetはVGA解像度の画像を撮影しています。
論文 参考訳(メタデータ) (2020-03-25T06:00:47Z) - Deep Soft Procrustes for Markerless Volumetric Sensor Alignment [81.13055566952221]
本研究では、より堅牢なマルチセンサ空間アライメントを実現するために、マーカーレスデータ駆動対応推定を改善する。
我々は、幾何学的制約を終末的に典型的なセグメンテーションベースモデルに組み込み、対象のポーズ推定タスクと中間密な分類タスクをブリッジする。
実験により,マーカーベースの手法で同様の結果が得られ,マーカーレス手法よりも優れ,またキャリブレーション構造のポーズ変動にも頑健であることがわかった。
論文 参考訳(メタデータ) (2020-03-23T10:51:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。