論文の概要: From Scratch to Sketch: Deep Decoupled Hierarchical Reinforcement
Learning for Robotic Sketching Agent
- arxiv url: http://arxiv.org/abs/2208.04833v1
- Date: Tue, 9 Aug 2022 15:18:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-10 13:10:17.030936
- Title: From Scratch to Sketch: Deep Decoupled Hierarchical Reinforcement
Learning for Robotic Sketching Agent
- Title(参考訳): スクラッチからスケッチへ:ロボット型スケッチエージェントのための階層的強化学習
- Authors: Ganghun Lee, Minji Kim, Minsu Lee, Byoung-Tak Zhang
- Abstract要約: 我々は,ロボットスケッチの問題を階層的強化学習の深層化として定式化する。
脳卒中ベースのレンダリングと運動制御の2つのポリシーを独立に学習し、描画のサブタスクを実現する。
実験の結果,2つの政策がサブタスクの学習に成功し,目標画像のスケッチに協力することが確認された。
- 参考スコア(独自算出の注目度): 20.406075470956065
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present an automated learning framework for a robotic sketching agent that
is capable of learning stroke-based rendering and motor control simultaneously.
We formulate the robotic sketching problem as a deep decoupled hierarchical
reinforcement learning; two policies for stroke-based rendering and motor
control are learned independently to achieve sub-tasks for drawing, and form a
hierarchy when cooperating for real-world drawing. Without hand-crafted
features, drawing sequences or trajectories, and inverse kinematics, the
proposed method trains the robotic sketching agent from scratch. We performed
experiments with a 6-DoF robot arm with 2F gripper to sketch doodles. Our
experimental results show that the two policies successfully learned the
sub-tasks and collaborated to sketch the target images. Also, the robustness
and flexibility were examined by varying drawing tools and surfaces.
- Abstract(参考訳): 本稿では,ストロークベースのレンダリングと運動制御を同時に学習できるロボットスケッチエージェントのための自動学習フレームワークを提案する。
ロボットのスケッチ問題に対して,ストロークベースのレンダリングと運動制御の2つの方針を独立して学習し,描画のサブタスクを実現し,実世界の描画に協調して階層を形成する。
手作りの特徴、描画シーケンスや軌跡、逆運動学がなければ、提案手法はロボットのスケッチエージェントをスクラッチから訓練する。
2Fグリップを用いた6-DoFロボットアームによる落書きスケッチ実験を行った。
実験の結果,2つの政策がサブタスクの学習に成功し,目標画像のスケッチに協力することが確認された。
また, 各種描画工具および表面の堅牢性および柔軟性について検討した。
関連論文リスト
- Learning Orbitally Stable Systems for Diagrammatically Teaching [14.839036866911089]
ダイアグラム教育はロボットが新しいスキルを身につけるためのパラダイムであり、ユーザーはロボットの動きを形作るシーンの画像に2Dスケッチを提供する。
本研究では,ロボットに表面への接近を指示し,その上でサイクリック動作を追従する問題に取り組む。ロボットのカメラからの画像に対して,ユーザが提供する1つのスケッチによって,動きのサイクルを任意に指定することができる。
論文 参考訳(メタデータ) (2023-09-19T04:03:42Z) - Instructing Robots by Sketching: Learning from Demonstration via Probabilistic Diagrammatic Teaching [14.839036866911089]
Learning for Demonstration (LfD)は、ロボットが専門家のデモを模倣し、ユーザーが直感的に指示を伝えることを可能にする。
近年のLfDの進歩は、ユーザがデモを指定するための媒体として、審美的教育や遠隔操作に依存していることが多い。
本稿では,LfDの代替パラダイムであるダイアグラム教育を紹介する。
論文 参考訳(メタデータ) (2023-09-07T16:49:38Z) - Bridging the Gap: Sketch-Aware Interpolation Network for High-Quality Animation Sketch Inbetweening [58.09847349781176]
我々は,新しい深層学習手法であるSketch-Aware Interpolation Network (SAIN)を提案する。
このアプローチには、領域レベルの対応、ストロークレベルの対応、ピクセルレベルのダイナミクスを定式化するマルチレベルガイダンスが組み込まれている。
マルチストリームのU-Transformerは、自己/クロスアテンション機構の統合により、これらのマルチレベルガイドを使用して、スケッチ間のインテンションパターンを特徴付けるように設計されている。
論文 参考訳(メタデータ) (2023-08-25T09:51:03Z) - Silver-Bullet-3D at ManiSkill 2021: Learning-from-Demonstrations and
Heuristic Rule-based Methods for Object Manipulation [118.27432851053335]
本稿では,SAPIEN ManiSkill Challenge 2021: No Interaction Trackにおいて,以下の2つのトラックを対象としたシステムの概要と比較分析を行った。
No Interactionは、事前に収集された実証軌道からの学習ポリシーのターゲットを追跡する。
このトラックでは,タスクを一連のサブタスクに分解することで,高品質なオブジェクト操作をトリガするHuristic Rule-based Method (HRM) を設計する。
各サブタスクに対して、ロボットアームに適用可能なアクションを予測するために、単純なルールベースの制御戦略が採用されている。
論文 参考訳(メタデータ) (2022-06-13T16:20:42Z) - I Know What You Draw: Learning Grasp Detection Conditioned on a Few
Freehand Sketches [74.63313641583602]
そこで本研究では,スケッチ画像に関連のある潜在的な把握構成を生成する手法を提案する。
私たちのモデルは、現実世界のアプリケーションで簡単に実装できるエンドツーエンドで訓練され、テストされています。
論文 参考訳(メタデータ) (2022-05-09T04:23:36Z) - Graph Neural Networks for Relational Inductive Bias in Vision-based Deep
Reinforcement Learning of Robot Control [0.0]
この研究は、リレーショナル帰納バイアスと視覚フィードバックを組み合わせたニューラルネットワークアーキテクチャを導入し、効率的な位置制御ポリシーを学習する。
我々は、画像符号化ネットワークによって生成された視覚シーンの低次元記述を用いて、ロボットの内部状態をモデル化するグラフ表現を導出する。
視覚的に現実的な3D環境下での6-DoFロボットアームのサンプル効率を向上させるためのモデルの有効性を示す。
論文 参考訳(メタデータ) (2022-03-11T15:11:54Z) - DeepFacePencil: Creating Face Images from Freehand Sketches [77.00929179469559]
既存の画像から画像への変換には、大規模なスケッチと画像のデータセットが必要である。
本稿では,手描きスケッチから写真リアルな顔画像を生成するための効果的なツールであるDeepFacePencilを提案する。
論文 参考訳(メタデータ) (2020-08-31T03:35:21Z) - Making Robots Draw A Vivid Portrait In Two Minutes [11.148458054454407]
本稿では,顔画像を自動的に鮮明な肖像画に転送し,平均2分以内に紙に描画する描画ロボットを提案する。
我々のシステムの中心は、ディープラーニングに基づく新しい肖像画合成アルゴリズムである。
ポートレート・ドローイング・ロボット・システムはAiSketcherと名付けられた。
論文 参考訳(メタデータ) (2020-05-12T03:02:24Z) - SketchyCOCO: Image Generation from Freehand Scene Sketches [71.85577739612579]
本稿では,シーンレベルのフリーハンドスケッチから画像の自動生成手法を提案する。
主要なコントリビューションは、EdgeGANと呼ばれる属性ベクトルをブリッジしたGeneversarative Adrial Networkである。
我々はSketchyCOCOと呼ばれる大規模複合データセットを構築し、ソリューションをサポートし評価した。
論文 参考訳(メタデータ) (2020-03-05T14:54:10Z) - Deep Self-Supervised Representation Learning for Free-Hand Sketch [51.101565480583304]
フリーハンドスケッチにおける自己指導型表現学習の課題に対処する。
自己教師型学習パラダイムの成功の鍵は、スケッチ固有の設計にある。
提案手法は最先端の教師なし表現学習法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-02-03T16:28:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。