論文の概要: InsertionNet 2.0: Minimal Contact Multi-Step Insertion Using Multimodal
Multiview Sensory Input
- arxiv url: http://arxiv.org/abs/2203.01153v1
- Date: Wed, 2 Mar 2022 14:50:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-03 15:32:39.474033
- Title: InsertionNet 2.0: Minimal Contact Multi-Step Insertion Using Multimodal
Multiview Sensory Input
- Title(参考訳): InsertionNet 2.0:マルチモーダルマルチビューセンサ入力を用いた最小接触マルチステップ挿入
- Authors: Oren Spector, Vladimir Tchuiev and Dotan Di Castro
- Abstract要約: InsertionNetバージョン2.0は、幅広いユースケースを堅牢に扱うための改善された技術を提供する。
挿入のためのワンショット学習技術は、収集したデータをよりよく活用するための関係ネットワークスキームに依存している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We address the problem of devising the means for a robot to rapidly and
safely learn insertion skills with just a few human interventions and without
hand-crafted rewards or demonstrations. Our InsertionNet version 2.0 provides
an improved technique to robustly cope with a wide range of use-cases featuring
different shapes, colors, initial poses, etc. In particular, we present a
regression-based method based on multimodal input from stereo perception and
force, augmented with contrastive learning for the efficient learning of
valuable features. In addition, we introduce a one-shot learning technique for
insertion, which relies on a relation network scheme to better exploit the
collected data and to support multi-step insertion tasks. Our method improves
on the results obtained with the original InsertionNet, achieving an almost
perfect score (above 97.5$\%$ on 200 trials) in 16 real-life insertion tasks
while minimizing the execution time and contact during insertion. We further
demonstrate our method's ability to tackle a real-life 3-step insertion task
and perfectly solve an unseen insertion task without learning.
- Abstract(参考訳): ロボットが手作りの報酬やデモンストレーションを使わずに、ほんのわずかの介入で挿入スキルを迅速かつ安全に学習する手段を考案する問題に対処する。
私たちのInsertionNetバージョン2.0は、さまざまな形状、色、初期ポーズなどを含む幅広いユースケースを堅牢に扱うための改善された技術を提供します。
特に,ステレオ知覚と力からのマルチモーダル入力に基づく回帰に基づく手法を提案する。
さらに,複数ステップの挿入タスクを支援するために,収集したデータをよりよく活用するための関係ネットワーク方式に依存する挿入用ワンショット学習手法を提案する。
提案手法は, 挿入時の実行時間と接触時間を最小化しつつ, 16 個の実生活挿入タスクにおいて, ほぼ完全なスコア(200 回の試行で 97.5$\% 以上)を達成し, 元の InsertionNet で得られた結果を改善する。
さらに,本手法が実生活の3段階挿入タスクに対処し,学習せずに未確認挿入タスクを完璧に解決できることを実証する。
関連論文リスト
- Multimodal Information Bottleneck for Deep Reinforcement Learning with Multiple Sensors [10.454194186065195]
強化学習はロボット制御タスクにおいて有望な成果を上げてきたが、情報の有効活用に苦慮している。
最近の研究は、複数の感覚入力から関節表現を抽出するために、再構成や相互情報に基づく補助的損失を構築している。
生のマルチモーダル観測について,学習した共同表現で情報を圧縮することが有用である。
論文 参考訳(メタデータ) (2024-10-23T04:32:37Z) - Multimodal Prompt Learning with Missing Modalities for Sentiment Analysis and Emotion Recognition [52.522244807811894]
本稿では,欠落したモダリティの問題に対処するために,即時学習を用いた新しいマルチモーダルトランスフォーマーフレームワークを提案する。
提案手法では,生成的プロンプト,欠信号プロンプト,欠信号プロンプトの3種類のプロンプトを導入している。
迅速な学習を通じて、トレーニング可能なパラメータの数を大幅に削減する。
論文 参考訳(メタデータ) (2024-07-07T13:55:56Z) - Learning Reward for Robot Skills Using Large Language Models via Self-Alignment [11.639973274337274]
大規模言語モデル(LLM)には、報酬関数の学習を支援する可能性のある、貴重なタスク関連の知識が含まれている。
人間のいない場合に報酬をより効率的に学習する方法を提案する。
論文 参考訳(メタデータ) (2024-05-12T04:57:43Z) - Combating Missing Modalities in Egocentric Videos at Test Time [92.38662956154256]
現実のアプリケーションは、プライバシの懸念、効率性の必要性、ハードウェアの問題により、不完全なモダリティを伴う問題に直面することが多い。
再トレーニングを必要とせずに,テスト時にこの問題に対処する新しい手法を提案する。
MiDlは、欠落したモダリティをテスト時にのみ扱う、自己管理型のオンラインソリューションとしては初めてのものだ。
論文 参考訳(メタデータ) (2024-04-23T16:01:33Z) - Mastering Robot Manipulation with Multimodal Prompts through Pretraining and Multi-task Fine-tuning [49.92517970237088]
我々はマルチモーダルなプロンプトを理解するためにロボットを訓練する問題に取り組む。
このようなタスクは、視覚と言語信号の相互接続と相補性を理解するロボットの能力にとって大きな課題となる。
マルチモーダルプロンプトを用いてロボット操作を行うためのポリシーを学習する効果的なフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-14T22:24:58Z) - Multitask Learning with No Regret: from Improved Confidence Bounds to
Active Learning [79.07658065326592]
推定タスクの不確実性の定量化は、オンラインやアクティブな学習など、多くの下流アプリケーションにとって重要な課題である。
タスク間の類似性やタスクの特徴を学習者に提供できない場合、課題設定において新しいマルチタスク信頼区間を提供する。
本稿では,このパラメータを事前に知らないまま,このような改善された後悔を実現する新しいオンライン学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-03T13:08:09Z) - Learning Unseen Modality Interaction [54.23533023883659]
マルチモーダル学習は、すべてのモダリティの組み合わせが訓練中に利用でき、クロスモーダル対応を学ぶことを前提としている。
我々は、目に見えないモダリティ相互作用の問題を提起し、第1の解を導入する。
異なるモジュラリティの多次元的特徴を、豊富な情報を保存した共通空間に投影するモジュールを利用する。
論文 参考訳(メタデータ) (2023-06-22T10:53:10Z) - Scalable Multi-Task Imitation Learning with Autonomous Improvement [159.9406205002599]
我々は、自律的なデータ収集を通じて継続的に改善できる模倣学習システムを構築している。
我々は、ロボット自身の試行を、実際に試みたタスク以外のタスクのデモとして活用する。
従来の模倣学習のアプローチとは対照的に,本手法は,継続的改善のための疎い監視によるデータ収集を自律的に行うことができる。
論文 参考訳(メタデータ) (2020-02-25T18:56:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。