論文の概要: Deep Weakly Supervised Positioning
- arxiv url: http://arxiv.org/abs/2104.04866v1
- Date: Sat, 10 Apr 2021 21:19:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-13 14:25:50.903444
- Title: Deep Weakly Supervised Positioning
- Title(参考訳): 深度監視型位置決め
- Authors: Ruoyu Wang, Xuchu Xu, Li Ding, Yang Huang, Chen Feng
- Abstract要約: 訓練用ポスネットには完全な監督が必要であり、そこでは根拠となる真理の位置を得るのが容易ではない。
PoseNetは各観測の真理位置を知らずにトレーニングできますか?
これは制約ベースの弱いスーパービジョンを通じて可能であり、提案されたフレームワークであるDeepGPSにつながることを示す。
- 参考スコア(独自算出の注目度): 19.98491876054782
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: PoseNet can map a photo to the position where it is taken, which is appealing
in robotics. However, training PoseNet requires full supervision, where ground
truth positions are non-trivial to obtain. Can we train PoseNet without knowing
the ground truth positions for each observation? We show that this is possible
via constraint-based weak-supervision, leading to the proposed framework:
DeepGPS. Particularly, using wheel-encoder-estimated distances traveled by a
robot along random straight line segments as constraints between PoseNet
outputs, DeepGPS can achieve a relative positioning error of less than 2%.
Moreover, training DeepGPS can be done as auto-calibration with almost no human
attendance, which is more attractive than its competing methods that typically
require careful and expert-level manual calibration. We conduct various
experiments on simulated and real datasets to demonstrate the general
applicability, effectiveness, and accuracy of DeepGPS, and perform a
comprehensive analysis of its robustness. Our code is available at
https://ai4ce.github.io/DeepGPS/.
- Abstract(参考訳): PoseNetは、写真を撮影位置にマッピングすることができる。
しかし、PoseNetのトレーニングには完全な監督が必要である。
PoseNetは各観測の真理位置を知らずにトレーニングできますか?
制約ベースの弱いスーパービジョンによって実現可能であることを示し、提案したフレームワークであるDeepGPSに導いた。
特に、PoseNet出力間の制約として、ランダムな直線セグメントに沿ってロボットが移動した車輪エンコーダ推定距離を用いて、DeepGPSは相対的な位置決め誤差を2%未満で達成できる。
さらに、DeepGPSのトレーニングは、人間の参加がほとんどない自動校正(auto-calibration)として行うことができ、通常は注意と専門家レベルの手動校正を必要とする競合する手法よりも魅力的である。
我々は,DeepGPSの汎用性,有効性,精度を実証するために,シミュレーションおよび実データを用いた様々な実験を行い,その堅牢性に関する包括的解析を行った。
私たちのコードはhttps://ai4ce.github.io/DeepGPS/で利用可能です。
関連論文リスト
- Parsing is All You Need for Accurate Gait Recognition in the Wild [51.206166843375364]
本稿では,GPS(Gait Parsing Sequence)という新しい歩行表現を提案する。
GPSは、ビデオフレームから抽出された微細な人間のセグメンテーションのシーケンスなので、より高い情報エントロピーを持つ。
また,ParsingGaitという,新しいパーシングに基づく歩行認識フレームワークを提案する。
実験結果から,GPS表現による精度の向上とParsingGaitの優越性が示唆された。
論文 参考訳(メタデータ) (2023-08-31T13:57:38Z) - On the Application of Efficient Neural Mapping to Real-Time Indoor
Localisation for Unmanned Ground Vehicles [5.137284292672375]
組込みプラットフォーム上でのリアルタイム推論が可能なコンパクトモデルを用いて,数cmの局所化精度を実現する。
トレーニングされたモデルをUGVプラットフォームにデプロイし、その効果をウェイポイントナビゲーションタスクで実証する。
論文 参考訳(メタデータ) (2022-11-09T07:23:28Z) - AlphaPose: Whole-Body Regional Multi-Person Pose Estimation and Tracking
in Real-Time [47.19339667836196]
提案するAlphaPoseは,リアルタイムに動作しながら,身体全体のポーズを正確に推定・追跡できるシステムである。
我々は,COCO-全体,COCO,PoseTrack,提案したHalpe-FullBodyポーズ推定データセットにおいて,現在の最先端手法よりも高速かつ高精度であることを示す。
論文 参考訳(メタデータ) (2022-11-07T09:15:38Z) - Unsupervised Visual Odometry and Action Integration for PointGoal
Navigation in Indoor Environment [14.363948775085534]
屋内環境におけるポイントゴールナビゲーションは、個人ロボットが特定の地点に向かうための基本的なタスクである。
GPS信号を使わずにPointGoalナビゲーションの精度を向上させるために、ビジュアル・オドメトリー(VO)を用い、教師なしで訓練された新しいアクション統合モジュール(AIM)を提案する。
実験により,提案システムは良好な結果が得られ,Gibsonデータセット上で部分的に教師付き学習アルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2022-10-02T03:12:03Z) - Semi-Perspective Decoupled Heatmaps for 3D Robot Pose Estimation from
Depth Maps [66.24554680709417]
協調環境における労働者とロボットの正確な3D位置を知ることは、いくつかの実際のアプリケーションを可能にする。
本研究では、深度デバイスと深度ニューラルネットワークに基づく非侵襲的なフレームワークを提案し、外部カメラからロボットの3次元ポーズを推定する。
論文 参考訳(メタデータ) (2022-07-06T08:52:12Z) - ViKiNG: Vision-Based Kilometer-Scale Navigation with Geographic Hints [94.60414567852536]
長距離航法には、計画と局所的な移動可能性の推論の両方が必要である。
学習と計画を統合する学習に基づくアプローチを提案する。
ViKiNGは、画像ベースの学習コントローラを利用できる。
論文 参考訳(メタデータ) (2022-02-23T02:14:23Z) - Towards Optimal Strategies for Training Self-Driving Perception Models
in Simulation [98.51313127382937]
合成ドメインのみにおけるラベルの使用に焦点を当てる。
提案手法では,ニューラル不変表現の学習方法と,シミュレータからデータをサンプリングする方法に関する理論的にインスピレーションを得た視点を導入する。
マルチセンサーデータを用いた鳥眼視車両分割作業におけるアプローチについて紹介する。
論文 参考訳(メタデータ) (2021-11-15T18:37:43Z) - DeepTracks: Geopositioning Maritime Vehicles in Video Acquired from a
Moving Platform [0.6445605125467573]
移動プラットフォームに装着したカメラの画像から、画像に写っているターゲットボートの位置を推定する。
我々のソリューションは、最近のMLアルゴリズム、カメラシーン幾何とベイズフィルタを使用する。
提案手法の性能をGPS地中真理を用いて検証し, 推定した測地位置の精度と速度を示した。
論文 参考訳(メタデータ) (2021-09-02T22:36:16Z) - Multimodal Scale Consistency and Awareness for Monocular Self-Supervised
Depth Estimation [1.1470070927586016]
単眼ビデオの自己監督アプローチは、長いシーケンスにわたってスケール不整合に苦しむ。
外観ベースの損失を補うために、動的に重み付けされたGPS-to-Scale(g2s)損失を提案する。
低周波GPSデータによるトレーニングでも性能を向上させるため、推論時のスケール一貫性と認識深度推定を実証します。
論文 参考訳(メタデータ) (2021-03-03T15:39:41Z) - Train in Germany, Test in The USA: Making 3D Object Detectors Generalize [59.455225176042404]
ディープラーニングにより、LiDARやステレオカメラデータなどの3Dオブジェクト検出精度が大幅に向上した。
自動運転のためのほとんどのデータセットは、1つの国内の都市の狭い部分で収集される。
本稿では,あるデータセットから別のデータセットに3Dオブジェクト検出器を適応させる作業について考察する。
論文 参考訳(メタデータ) (2020-05-17T00:56:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。