論文の概要: Visual Spatial Attention and Proprioceptive Data-Driven Reinforcement
Learning for Robust Peg-in-Hole Task Under Variable Conditions
- arxiv url: http://arxiv.org/abs/2312.16438v1
- Date: Wed, 27 Dec 2023 06:57:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-29 19:26:00.620223
- Title: Visual Spatial Attention and Proprioceptive Data-Driven Reinforcement
Learning for Robust Peg-in-Hole Task Under Variable Conditions
- Title(参考訳): 可変条件下でのロバストペグインホールタスクにおける視覚的空間的注意と受動的データ駆動強化学習
- Authors: Andr\'e Yuji Yasutomi, Hideyuki Ichiwara, Hiroshi Ito, Hiroki Mori,
Tetsuya Ogata
- Abstract要約: アンカーボルト挿入(アンカーボルト挿入、Anchor-bolt insert)は、コンクリート中の穴の建設現場で行われるペグ・イン・ホールの作業である。
この作業を自動化する努力は行われているが、様々な照明と穴面条件が自動化を困難にしている。
本研究では,この課題に対して,照明条件や穴面条件に頑健な視覚とプロプリセプティブなデータ駆動型ロボット制御モデルを導入する。
- 参考スコア(独自算出の注目度): 15.84048482665063
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Anchor-bolt insertion is a peg-in-hole task performed in the construction
field for holes in concrete. Efforts have been made to automate this task, but
the variable lighting and hole surface conditions, as well as the requirements
for short setup and task execution time make the automation challenging. In
this study, we introduce a vision and proprioceptive data-driven robot control
model for this task that is robust to challenging lighting and hole surface
conditions. This model consists of a spatial attention point network (SAP) and
a deep reinforcement learning (DRL) policy that are trained jointly end-to-end
to control the robot. The model is trained in an offline manner, with a
sample-efficient framework designed to reduce training time and minimize the
reality gap when transferring the model to the physical world. Through
evaluations with an industrial robot performing the task in 12 unknown holes,
starting from 16 different initial positions, and under three different
lighting conditions (two with misleading shadows), we demonstrate that SAP can
generate relevant attention points of the image even in challenging lighting
conditions. We also show that the proposed model enables task execution with
higher success rate and shorter task completion time than various baselines.
Due to the proposed model's high effectiveness even in severe lighting, initial
positions, and hole conditions, and the offline training framework's high
sample-efficiency and short training time, this approach can be easily applied
to construction.
- Abstract(参考訳): アンカーボルト挿入(anchor-bolt insert)は、コンクリート中のホールの建設現場で行われているペグ・イン・ホール作業である。
このタスクを自動化する努力がなされているが、可変照明とホール面条件、および短いセットアップとタスク実行時間の要件が自動化を困難にしている。
本研究では,この課題に対して,照明条件や穴面条件に頑健な視覚とプロプリセプティブなデータ駆動型ロボット制御モデルを提案する。
このモデルは、空間的注意点ネットワーク(SAP)と、ロボットを制御するためにエンドツーエンドにトレーニングされた深層強化学習(DRL)ポリシーから構成される。
モデルはオフラインでトレーニングされ、トレーニング時間を短縮し、モデルを物理的世界に移行する際の現実のギャップを最小限に抑えるために、サンプル効率のよいフレームワークが設計されている。
16の異なる初期位置から12の未知の穴で作業を行う産業用ロボットによる評価と、3つの異なる照明条件(2つは誤解を招く影を持つ)の下、sapは挑戦的な照明条件でも画像の適切な注意ポイントを発生できることを実証する。
また,提案モデルにより,各種ベースラインよりも高い成功率と短いタスク完了時間でタスク実行が可能となることを示す。
厳密な照明,初期位置,ホール条件においても,提案モデルの有効性が高く,オフライントレーニングフレームワークの高サンプリング効率と短時間のトレーニング時間により,本手法は建設に容易に適用できる。
関連論文リスト
- Affordance-Guided Reinforcement Learning via Visual Prompting [51.361977466993345]
Keypoint-based Affordance Guidance for Improvements (KAGI) は、視覚言語モデル(VLM)によって形成される報酬を自律的なRLに活用する手法である。
自然言語記述によって指定された実世界の操作タスクにおいて、KAGIは自律的なRLのサンプル効率を改善し、20Kのオンライン微調整ステップでタスク完了を成功させる。
論文 参考訳(メタデータ) (2024-07-14T21:41:29Z) - Towards Truly Zero-shot Compositional Visual Reasoning with LLMs as Programmers [54.83459025465947]
最大のモデルでさえ、構成的推論、一般化、きめ細かい空間的および時間的推論、数え上げに苦しむ。
コントローラとしての大きな言語モデル(LLM)による視覚的推論は、原則として、タスクを分解し、一連の(視覚的な)ツールを編成することでサブタスクを解決することで、これらの制限に対処することができる。
本稿では,空間的・時間的に抽象的なルーチンを導入し,少数のラベル付き例を利用してコンテキスト内サンプルを自動的に生成することにより,これらの問題を緩和するフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-03T20:48:47Z) - Interactive Planning Using Large Language Models for Partially
Observable Robotics Tasks [54.60571399091711]
大きな言語モデル(LLM)は、オープン語彙タスクを実行するロボットエージェントを作成することで、驚くべき成果を上げている。
LLMを用いた部分的に観測可能なタスクのための対話型計画手法を提案する。
論文 参考訳(メタデータ) (2023-12-11T22:54:44Z) - Universal Visual Decomposer: Long-Horizon Manipulation Made Easy [54.93745986073738]
現実世界のロボットタスクは、幅広い地平線を越えて、複数のステージを包含する。
従来のタスク分解手法では、タスク固有の知識が必要であり、計算集約的であり、新しいタスクに容易に適用できない。
視覚的長時間水平方向操作のためのオフザシェルフタスク分解法であるUniversal Visual Decomposer (UVD)を提案する。
シミュレーションと実世界のタスクの両方でUVDを広範囲に評価し、すべての場合において、UVDは模倣と強化学習設定でベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2023-10-12T17:59:41Z) - Egocentric Planning for Scalable Embodied Task Achievement [6.870094263016224]
エゴセントリックプランニング(Egocentric Planning)は、複雑な環境におけるタスクを解決するために、シンボリックプランニングとオブジェクト指向のPOMDPを組み合わせた革新的なアプローチである。
国内タスク用に設計されたシミュレーション環境であるALFREDにおける我々のアプローチを評価し,そのスケーラビリティを実証した。
本手法では, エージェントの行動の前提条件と影響について, 信頼性の高い認識と記号的記述の特定, 学習が必要である。
論文 参考訳(メタデータ) (2023-06-02T06:41:24Z) - Automaton-Guided Curriculum Generation for Reinforcement Learning Agents [14.20447398253189]
Automaton-Guided Curriculum Learning (AGCL) は、DAG(Directed Acyclic Graphs)の形式で、対象タスクのためのカリキュラムを自動生成する新しい方法である。
AGCL は決定論的有限オートマトン (DFA) の形式で仕様を符号化し、DFA とオブジェクト指向 MDP 表現を使ってカリキュラムを DAG として生成する。
グリッドワールドと物理に基づくシミュレーションロボティクス領域の実験では、AGCLが生み出すカリキュラムが時間と閾値のパフォーマンスを向上させることが示されている。
論文 参考訳(メタデータ) (2023-04-11T15:14:31Z) - Efficient Skill Acquisition for Complex Manipulation Tasks in Obstructed
Environments [18.348489257164356]
本稿では,オブジェクト指向生成モデル(OCGM)を多目的ゴール識別に活用する,効率的なスキル獲得システムを提案する。
OCGMは、新しいシーンでワンショットターゲットオブジェクトの識別と再識別を可能にし、MPは障害物を避けながらロボットを対象オブジェクトに誘導することができる。
論文 参考訳(メタデータ) (2023-03-06T18:49:59Z) - Design Automation for Fast, Lightweight, and Effective Deep Learning
Models: A Survey [53.258091735278875]
本調査では,エッジコンピューティングを対象としたディープラーニングモデルの設計自動化技術について述べる。
これは、有効性、軽量性、計算コストの観点からモデルの習熟度を定量化するために一般的に使用される主要なメトリクスの概要と比較を提供する。
この調査は、ディープモデル設計自動化技術の最先端の3つのカテゴリをカバーしている。
論文 参考訳(メタデータ) (2022-08-22T12:12:43Z) - Goal-Aware Prediction: Learning to Model What Matters [105.43098326577434]
学習した前進力学モデルを使用する際の根本的な課題の1つは、学習したモデルの目的と下流のプランナーやポリシーの目標とのミスマッチである。
本稿では,タスク関連情報への直接的予測を提案し,そのモデルが現在のタスクを認識し,状態空間の関連量のみをモデル化することを奨励する。
提案手法は,目標条件付きシーンの関連部分を効果的にモデル化し,その結果,標準タスク非依存のダイナミックスモデルやモデルレス強化学習より優れていることがわかった。
論文 参考訳(メタデータ) (2020-07-14T16:42:59Z) - Online Constrained Model-based Reinforcement Learning [13.362455603441552]
主要な要件は、限られた時間とリソース予算内に留まりながら、継続的な状態とアクションスペースを扱う能力である。
本稿では,ガウス過程回帰と回帰水平制御を組み合わせたモデルに基づくアプローチを提案する。
本研究では,自動走行作業におけるオンライン学習のメリットを実証する。
論文 参考訳(メタデータ) (2020-04-07T15:51:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。