論文の概要: Deep Robot Sketching: An application of Deep Q-Learning Networks for
human-like sketching
- arxiv url: http://arxiv.org/abs/2402.00676v1
- Date: Thu, 1 Feb 2024 15:37:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-02 15:05:41.951804
- Title: Deep Robot Sketching: An application of Deep Q-Learning Networks for
human-like sketching
- Title(参考訳): Deep Robot Sketching:Deep Q-Learning Networksの人間的スケッチへの応用
- Authors: Raul Fernandez-Fernandez, Juan G. Victores, Carlos Balaguer
- Abstract要約: 本稿では,芸術ロボットの制御性向上のための強化学習の導入を提案する。
ディープQラーニングニューラルネットワーク(Deep Q-learning Neural Networks, DQN)は、ロボット工学における強化学習の実装において最も成功したアルゴリズムの1つである。
本研究の目的は,複雑な制御ポリシの導入が,基本的な絵画ロボットアプリケーションの性能にどのように影響するかを検討することである。
- 参考スコア(独自算出の注目度): 3.542130733228042
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The current success of Reinforcement Learning algorithms for its performance
in complex environments has inspired many recent theoretical approaches to
cognitive science. Artistic environments are studied within the cognitive
science community as rich, natural, multi-sensory, multi-cultural environments.
In this work, we propose the introduction of Reinforcement Learning for
improving the control of artistic robot applications. Deep Q-learning Neural
Networks (DQN) is one of the most successful algorithms for the implementation
of Reinforcement Learning in robotics. DQN methods generate complex control
policies for the execution of complex robot applications in a wide set of
environments. Current art painting robot applications use simple control laws
that limits the adaptability of the frameworks to a set of simple environments.
In this work, the introduction of DQN within an art painting robot application
is proposed. The goal is to study how the introduction of a complex control
policy impacts the performance of a basic art painting robot application. The
main expected contribution of this work is to serve as a first baseline for
future works introducing DQN methods for complex art painting robot frameworks.
Experiments consist of real world executions of human drawn sketches using the
DQN generated policy and TEO, the humanoid robot. Results are compared in terms
of similarity and obtained reward with respect to the reference inputs
- Abstract(参考訳): 複雑な環境における強化学習アルゴリズムの成功は、近年の認知科学に対する多くの理論的アプローチに影響を与えている。
芸術的な環境は認知科学コミュニティの中で、豊かで、自然で、多感覚で、多文化的な環境として研究されている。
本研究では,芸術的ロボットアプリケーションの制御を改善するための強化学習の導入を提案する。
Deep Q-learning Neural Networks (DQN)は、ロボット工学における強化学習の実装において最も成功したアルゴリズムの1つである。
DQN法は複雑なロボットアプリケーションを実行するための複雑な制御ポリシーを生成する。
現在のアートペインティングロボットアプリケーションは、フレームワークの適応性を一連の単純な環境に制限するシンプルな制御法則を使用する。
本研究では,絵画ロボットアプリケーションにおけるDQNの導入を提案する。
本研究の目的は,複雑な制御ポリシの導入が,絵画ロボットアプリケーションの性能にどのように影響するかを検討することである。
この研究の主な貢献は、複雑なアートペインティングロボットフレームワークにdqnメソッドを導入する将来の作品の最初のベースラインとして機能することである。
実験は、DQN生成ポリシーとヒューマノイドロボットTEOを用いた人間のスケッチの現実的な実行から成っている。
結果は類似性の観点から比較され、基準入力に対する報酬が得られる
関連論文リスト
- $π_0$: A Vision-Language-Action Flow Model for General Robot Control [77.32743739202543]
本稿では,インターネット規模のセマンティック知識を継承するために,事前学習された視覚言語モデル(VLM)上に構築された新しいフローマッチングアーキテクチャを提案する。
我々は,事前訓練後のタスクをゼロショットで実行し,人からの言語指導に追従し,微調整で新たなスキルを習得する能力の観点から,我々のモデルを評価した。
論文 参考訳(メタデータ) (2024-10-31T17:22:30Z) - Robotic Handling of Compliant Food Objects by Robust Learning from
Demonstration [79.76009817889397]
本稿では,食品に適合する物体をロボットで把握する上で,実証からの学習(LfD)に基づく頑健な学習方針を提案する。
教師の意図した方針を推定し,無矛盾な実演を自動的に除去するLfD学習ポリシーを提案する。
提案されたアプローチは、前述の業界セクターで幅広い応用が期待できる。
論文 参考訳(メタデータ) (2023-09-22T13:30:26Z) - Learning Visual Tracking and Reaching with Deep Reinforcement Learning
on a UR10e Robotic Arm [2.2168889407389445]
強化学習アルゴリズムは、ロボットがそれらを再プログラミングすることなく、新しいタスクを完了するための最適な解を学習できる可能性を提供する。
強化学習における現在の最先端技術は、最適な性能を達成するために、高速なシミュレーションと並列化に依存している。
本稿では,産業用UR10eロボットへの深部強化学習の適用について概説する。
論文 参考訳(メタデータ) (2023-08-28T15:34:43Z) - Stabilizing Contrastive RL: Techniques for Robotic Goal Reaching from
Offline Data [101.43350024175157]
自己指導型学習は、制御戦略を学ぶのに必要な人間のアノテーションとエンジニアリングの労力を減らす可能性がある。
我々の研究は、強化学習(RL)自体が自己監督的な問題であることを示す先行研究に基づいている。
コントラスト学習に基づく自己教師付きRLアルゴリズムは,実世界の画像に基づくロボット操作タスクを解くことができることを示す。
論文 参考訳(メタデータ) (2023-06-06T01:36:56Z) - Quality-Diversity Optimisation on a Physical Robot Through
Dynamics-Aware and Reset-Free Learning [4.260312058817663]
本研究では,リセットフリーQD(RF-QD)アルゴリズムを用いて,物理ロボット上で直接コントローラを学習する。
本手法は,ロボットと環境との相互作用から学習したダイナミクスモデルを用いて,ロボットの動作を予測する。
RF-QDには、ロボットが外を歩いたときに安全なゾーンに戻すリカバリポリシーも含まれており、継続的な学習を可能にしている。
論文 参考訳(メタデータ) (2023-04-24T13:24:00Z) - Dexterous Manipulation from Images: Autonomous Real-World RL via Substep
Guidance [71.36749876465618]
本稿では,ユーザが新しいタスクを定義するための"プログラミング不要"なアプローチを提供する,視覚に基づくデクスタラスな操作システムについて述べる。
本システムには,最終タスクと中間タスクを画像例で定義するためのフレームワークが組み込まれている。
実世界における多段階物体操作の4指ロボットハンドラーによる実験結果
論文 参考訳(メタデータ) (2022-12-19T22:50:40Z) - Active Predicting Coding: Brain-Inspired Reinforcement Learning for
Sparse Reward Robotic Control Problems [79.07468367923619]
ニューラルジェネレーティブ・コーディング(NGC)の神経認知計算フレームワークによるロボット制御へのバックプロパゲーションフリーアプローチを提案する。
我々は、スパース報酬から動的オンライン学習を容易にする強力な予測符号化/処理回路から完全に構築されたエージェントを設計する。
提案するActPCエージェントは,スパース(外部)報酬信号に対して良好に動作し,複数の強力なバックプロップベースのRLアプローチと競合し,性能が優れていることを示す。
論文 参考訳(メタデータ) (2022-09-19T16:49:32Z) - SAGCI-System: Towards Sample-Efficient, Generalizable, Compositional,
and Incremental Robot Learning [41.19148076789516]
上記の4つの要件を満たすために,SAGCIシステムと呼ばれる体系的な学習フレームワークを導入する。
本システムはまず,ロボットの手首に搭載されたカメラによって収集された生点雲を入力とし,URDFに代表される周囲環境の初期モデリングを生成する。
そのロボットは、対話的な知覚を利用して環境と対話し、URDFのオンライン検証と修正を行う。
論文 参考訳(メタデータ) (2021-11-29T16:53:49Z) - Neural Dynamic Policies for End-to-End Sensorimotor Learning [51.24542903398335]
感覚運動制御における現在の主流パラダイムは、模倣であれ強化学習であれ、生の行動空間で政策を直接訓練することである。
軌道分布空間の予測を行うニューラル・ダイナミック・ポリシー(NDP)を提案する。
NDPは、いくつかのロボット制御タスクにおいて、効率と性能の両面で、これまでの最先端よりも優れている。
論文 参考訳(メタデータ) (2020-12-04T18:59:32Z) - DREAM Architecture: a Developmental Approach to Open-Ended Learning in
Robotics [44.62475518267084]
我々は、この再記述プロセス段階を段階的にブートストラップし、適切なモチベーションを持った新しい状態表現を構築し、獲得した知識をドメインやタスク、さらにはロボット間で伝達するための発達的認知アーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-05-13T09:29:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。