論文の概要: Task-relevant Representation Learning for Networked Robotic Perception
- arxiv url: http://arxiv.org/abs/2011.03216v1
- Date: Fri, 6 Nov 2020 07:39:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 05:51:30.067526
- Title: Task-relevant Representation Learning for Networked Robotic Perception
- Title(参考訳): ネットワーク型ロボット知覚のためのタスク関連表現学習
- Authors: Manabu Nakanoya, Sandeep Chinchali, Alexandros Anemogiannis, Akul
Datta, Sachin Katti, Marco Pavone
- Abstract要約: 本稿では,事前学習されたロボット知覚モデルの最終的な目的と協調して設計された感覚データのタスク関連表現を学習するアルゴリズムを提案する。
本アルゴリズムは,ロボットの知覚データを競合する手法の最大11倍まで積極的に圧縮する。
- 参考スコア(独自算出の注目度): 74.0215744125845
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Today, even the most compute-and-power constrained robots can measure
complex, high data-rate video and LIDAR sensory streams. Often, such robots,
ranging from low-power drones to space and subterranean rovers, need to
transmit high-bitrate sensory data to a remote compute server if they are
uncertain or cannot scalably run complex perception or mapping tasks locally.
However, today's representations for sensory data are mostly designed for
human, not robotic, perception and thus often waste precious compute or
wireless network resources to transmit unimportant parts of a scene that are
unnecessary for a high-level robotic task. This paper presents an algorithm to
learn task-relevant representations of sensory data that are co-designed with a
pre-trained robotic perception model's ultimate objective. Our algorithm
aggressively compresses robotic sensory data by up to 11x more than competing
methods. Further, it achieves high accuracy and robust generalization on
diverse tasks including Mars terrain classification with low-power deep
learning accelerators, neural motion planning, and environmental timeseries
classification.
- Abstract(参考訳): 今日では、最も計算能力に制約のあるロボットでさえ、複雑なデータレートビデオとlidarセンサーストリームを計測できる。
多くの場合、低電力ドローンから宇宙や地下ローバーまで、そのようなロボットは、不確かでない場合や、複雑な知覚やマッピングタスクをローカルで実行できない場合、高ビットの感覚データをリモート計算サーバーに送信する必要がある。
しかし、今日の感覚データの表現は主に人間用に設計されており、ロボットや知覚ではなく、高レベルのロボット作業で不要なシーンの重要でない部分を伝送するために、貴重な計算や無線ネットワークリソースを浪費することが多い。
本稿では,事前学習されたロボット知覚モデルの究極の目的と共設計した知覚データのタスク関連表現を学習するアルゴリズムを提案する。
本アルゴリズムは,ロボットの知覚データを競合する手法の最大11倍まで積極的に圧縮する。
さらに,低消費電力の深層学習アクセラレータを用いた火星地形分類,ニューラルモーション計画,環境時系列分類など,多様なタスクに対する高精度かつ堅牢な一般化を実現している。
関連論文リスト
- Robots Pre-train Robots: Manipulation-Centric Robotic Representation from Large-Scale Robot Datasets [24.77850617214567]
本稿では,視覚的特徴と操作タスクの行動や受容といった動的情報の両方を抽出する基礎表現学習フレームワークを提案する。
具体的には、DROIDロボットデータセット上で視覚エンコーダを事前訓練し、ロボットの受容状態や動作などの動作関連データを活用する。
本研究では,視覚的観察をロボットの主観的状態-動作ダイナミクスと整合させる新しいコントラスト的損失と,事前トレーニング中の行動を予測する行動クローニング(BC)のようなアクター損失と,時間的コントラスト的損失を導入する。
論文 参考訳(メタデータ) (2024-10-29T17:58:13Z) - Teaching Unknown Objects by Leveraging Human Gaze and Augmented Reality
in Human-Robot Interaction [3.1473798197405953]
この論文は、人間-ロボットインタラクション(HRI)の文脈で未知の物体を教えることを目的としている。
視線追跡と拡張現実(Augmented Reality)を組み合わせることで、人間の教師がロボットとコミュニケーションできる強力なシナジーが生まれました。
ロボットの物体検出能力は、広範囲なデータセットで訓練された最先端の物体検出器に匹敵する性能を示した。
論文 参考訳(メタデータ) (2023-12-12T11:34:43Z) - Human-oriented Representation Learning for Robotic Manipulation [64.59499047836637]
人間は本質的に、操作作業において環境を効率的に探索し、相互作用することを可能にする、一般化可能な視覚表現を持っている。
我々は、このアイデアを、事前訓練された視覚エンコーダの上に、人間指向のマルチタスク微調整のレンズを通してフォーマル化する。
我々のタスクフュージョンデコーダは、下流操作ポリシー学習のための最先端の3つのビジュアルエンコーダの表現を一貫して改善する。
論文 参考訳(メタデータ) (2023-10-04T17:59:38Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z) - Learning Reward Functions for Robotic Manipulation by Observing Humans [92.30657414416527]
我々は、ロボット操作ポリシーのタスク非依存報酬関数を学習するために、幅広い操作タスクを解く人間のラベル付きビデオを使用する。
学習された報酬は、タイムコントラストの目的を用いて学習した埋め込み空間におけるゴールまでの距離に基づいている。
論文 参考訳(メタデータ) (2022-11-16T16:26:48Z) - Low Dimensional State Representation Learning with Robotics Priors in
Continuous Action Spaces [8.692025477306212]
強化学習アルゴリズムは、エンドツーエンドで複雑なロボティクスタスクを解くことができることが証明されている。
本稿では,ロボットの生の知覚情報から得られる高次元の観察から,低次元状態表現の学習と最適ポリシーの学習を組み合わせた枠組みを提案する。
論文 参考訳(メタデータ) (2021-07-04T15:42:01Z) - Learning Generalizable Robotic Reward Functions from "In-The-Wild" Human
Videos [59.58105314783289]
ドメインに依存しないビデオ識別器(DVD)は、2つのビデオが同じタスクを実行しているかどうかを判断するために識別器を訓練することによりマルチタスク報酬関数を学習する。
DVDは、人間のビデオの広いデータセットで少量のロボットデータから学習することで、一般化することができる。
DVDと視覚モデル予測制御を組み合わせることで、実際のWidowX200ロボットのロボット操作タスクを単一の人間のデモから未知の環境で解決できます。
論文 参考訳(メタデータ) (2021-03-31T05:25:05Z) - Where is my hand? Deep hand segmentation for visual self-recognition in
humanoid robots [129.46920552019247]
本稿では、画像からロボットの手を切り離すための畳み込みニューラルネットワーク(CNN)を提案する。
ヒューマノイドロボットVizzyの手のセグメンテーションのために,Mask-RCNNネットワークを微調整した。
論文 参考訳(メタデータ) (2021-02-09T10:34:32Z) - Low Dimensional State Representation Learning with Reward-shaped Priors [7.211095654886105]
本研究では,観測結果から低次元状態空間への写像の学習を目的とした手法を提案する。
このマッピングは、環境とタスクの事前知識を組み込むために形作られた損失関数を用いて教師なしの学習で学習される。
本手法は,シミュレーション環境における移動ロボットナビゲーションタスクおよび実ロボット上でのテストを行う。
論文 参考訳(メタデータ) (2020-07-29T13:00:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。