論文の概要: FusionLoc: Camera-2D LiDAR Fusion Using Multi-Head Self-Attention for
End-to-End Serving Robot Relocalization
- arxiv url: http://arxiv.org/abs/2303.06872v3
- Date: Tue, 2 May 2023 02:23:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-03 11:13:45.315248
- Title: FusionLoc: Camera-2D LiDAR Fusion Using Multi-Head Self-Attention for
End-to-End Serving Robot Relocalization
- Title(参考訳): FusionLoc:マルチヘッド自己注意を用いたカメラ2D LiDARフュージョン
- Authors: Jieun Lee, Hakjun Lee, Jiyong Oh
- Abstract要約: 我々は、この問題に対処するために、サービスロボットをエンドツーエンドで再ローカライズすることに注力する。
ニューラルネットワークを用いて、搭載されているセンサーデータから直接ロボットのポーズを予測する。
提案手法では,2つのセンサが捉えた様々な種類の情報を補完し,ロボットのポーズを復元する。
- 参考スコア(独自算出の注目度): 1.9766522384767222
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: As technology advances in autonomous mobile robots, mobile service robots
have been actively used more and more for various purposes. Especially, serving
robots have been not surprising products anymore since the COVID-19 pandemic.
One of the practical problems in operating serving a robot is that it often
fails to estimate its pose on a map that it moves around. Whenever the failure
happens, servers should bring the serving robot to its initial location and
reboot it manually. In this paper, we focus on end-to-end relocalization of
serving robots to address the problem. It is to predict robot pose directly
from only the onboard sensor data using neural networks. In particular, we
propose a deep neural network architecture for the relocalization based on
camera-2D LiDAR sensor fusion. We call the proposed method FusionLoc. In the
proposed method, the multi-head self-attention complements different types of
information captured by the two sensors to regress the robot pose. Our
experiments on a dataset collected by a commercial serving robot demonstrate
that FusionLoc can provide better performances than previous end-to-end
relocalization methods taking only a single image or a 2D LiDAR point cloud as
well as a straightforward fusion method concatenating their features.
- Abstract(参考訳): 自律移動ロボットのテクノロジーが進歩するにつれて、移動サービスロボットは様々な目的のために積極的に使われてきた。
特に、新型コロナウイルス(COVID-19)のパンデミック以来、サービスロボットは驚くべき製品ではなかった。
ロボットの操作における現実的な問題の一つは、動き回る地図上のポーズを推定できないことが多いことだ。
障害が発生した場合、サーバーはサービスロボットを初期位置に持ち込み、手動で再起動する必要がある。
本稿では,この問題に対処するためのサービスロボットのエンドツーエンド再ローカライズに焦点をあてる。
ニューラルネットワークを用いて、搭載されているセンサーデータから直接ロボットのポーズを予測する。
特に,カメラ2D LiDARセンサ融合に基づく再局在のためのディープニューラルネットワークアーキテクチャを提案する。
提案手法をFusionLocと呼ぶ。
提案手法では,2つのセンサが捉えた様々な種類の情報を補完してロボットのポーズを復元する。
商用サービスロボットが収集したデータセットを用いた実験により、FusionLocは、1つの画像または2次元LiDAR点クラウドのみを受信する従来のエンドツーエンド再ローカライゼーション手法よりも優れた性能と、それらの特徴を結合した簡単な融合法を提供できることを示した。
関連論文リスト
- ImitationNet: Unsupervised Human-to-Robot Motion Retargeting via Shared Latent Space [9.806227900768926]
本稿では,ロボットの動きに対する新しいディープラーニング手法を提案する。
本手法では,新しいロボットへの翻訳を容易にする,人間とロボットのペアデータを必要としない。
我々のモデルは、効率と精度の観点から、人間とロボットの類似性に関する既存の研究よりも優れています。
論文 参考訳(メタデータ) (2023-09-11T08:55:04Z) - Giving Robots a Hand: Learning Generalizable Manipulation with
Eye-in-Hand Human Video Demonstrations [66.47064743686953]
眼内カメラは、視覚に基づくロボット操作において、より優れたサンプル効率と一般化を可能にすることを約束している。
一方、人間がタスクを行うビデオは、ロボット遠隔操作の専門知識を欠いているため、収集コストがずっと安い。
本研究では,広範にラベルのない人間ビデオによるロボット模倣データセットを拡張し,眼球運動ポリシーの一般化を大幅に促進する。
論文 参考訳(メタデータ) (2023-07-12T07:04:53Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - External Camera-based Mobile Robot Pose Estimation for Collaborative
Perception with Smart Edge Sensors [22.5939915003931]
本稿では,移動ロボットのポーズを多視点RGB画像を用いた静的カメラネットワークのアロセントリック座標で推定する手法を提案する。
画像はオンラインで、深層ニューラルネットワークによってスマートエッジセンサーでローカルに処理され、ロボットを検出する。
ロボットのポーズを正確に推定すると、その観察は同中心のシーンモデルに融合することができる。
論文 参考訳(メタデータ) (2023-03-07T11:03:33Z) - Fleet-DAgger: Interactive Robot Fleet Learning with Scalable Human
Supervision [72.4735163268491]
ロボットの商業的および産業的な展開は、実行中にリモートの人間のテレオペレーターにフォールバックすることが多い。
我々は対話型フリートラーニング(Interactive Fleet Learning, IFL)の設定を定式化し、複数のロボットが対話型クエリを行い、複数の人間スーパーバイザーから学習する。
IFLアルゴリズムのファミリーであるFleet-DAggerを提案し、新しいFleet-DAggerアルゴリズムをシミュレーションで4つのベースラインと比較する。
論文 参考訳(メタデータ) (2022-06-29T01:23:57Z) - Model Predictive Control for Fluid Human-to-Robot Handovers [50.72520769938633]
人間の快適さを考慮に入れた計画運動は、人間ロボットのハンドオーバプロセスの一部ではない。
本稿では,効率的なモデル予測制御フレームワークを用いてスムーズな動きを生成することを提案する。
ユーザ数名の多様なオブジェクトに対して,人間とロボットのハンドオーバ実験を行う。
論文 参考訳(メタデータ) (2022-03-31T23:08:20Z) - REvolveR: Continuous Evolutionary Models for Robot-to-robot Policy
Transfer [57.045140028275036]
本研究では,運動学や形態学など,異なるパラメータを持つ2つの異なるロボット間でポリシーを伝達する問題を考察する。
模倣学習手法を含む動作や状態遷移の分布を一致させることで、新しいポリシーを訓練する既存のアプローチは、最適な動作や/または状態分布が異なるロボットでミスマッチしているために失敗する。
本稿では,物理シミュレータに実装されたロボット政策伝達に連続的進化モデルを用いることで,$RevolveR$という新しい手法を提案する。
論文 参考訳(メタデータ) (2022-02-10T18:50:25Z) - Know Thyself: Transferable Visuomotor Control Through Robot-Awareness [22.405839096833937]
新しいロボットをスクラッチからトレーニングするためには、通常大量のロボット固有のデータを生成する必要がある。
簡単なロボット「自己認識」を活用する「ロボット認識」ソリューションパラダイムを提案する。
シミュレーションおよび実際のロボットにおけるテーブルトップ操作に関する実験により、これらのプラグインの改善により、ビジュモータコントローラの転送性が劇的に向上することを示した。
論文 参考訳(メタデータ) (2021-07-19T17:56:04Z) - Single-view robot pose and joint angle estimation via render & compare [40.05546237998603]
本稿では,1枚のRGB画像から関節角度と6Dカメラとロボットのポーズを推定する手法であるRoboPoseを紹介する。
これは、モバイルおよび反復型自律システムに他のロボットと対話する能力を与える上で、重要な問題である。
論文 参考訳(メタデータ) (2021-04-19T14:48:29Z) - Deep Reinforcement learning for real autonomous mobile robot navigation
in indoor environments [0.0]
本研究では,地図やプランナーを使わずに,未知の環境下での自律型自律学習ロボットナビゲーションの概念を実証する。
ロボットの入力は、2DレーザースキャナーとRGB-Dカメラからの融合データと目標への向きのみである。
Asynchronous Advantage Actor-Critic Network(GA3C)の出力動作は、ロボットの線形および角速度である。
論文 参考訳(メタデータ) (2020-05-28T09:15:14Z) - Morphology-Agnostic Visual Robotic Control [76.44045983428701]
MAVRICは、ロボットの形態に関する最小限の知識で機能するアプローチである。
本稿では,視覚誘導型3Dポイントリーチ,軌道追従,ロボットとロボットの模倣について紹介する。
論文 参考訳(メタデータ) (2019-12-31T15:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。