論文の概要: Baby Sophia: A Developmental Approach to Self-Exploration through Self-Touch and Hand Regard
- arxiv url: http://arxiv.org/abs/2511.09727v1
- Date: Fri, 14 Nov 2025 01:06:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.443526
- Title: Baby Sophia: A Developmental Approach to Self-Exploration through Self-Touch and Hand Regard
- Title(参考訳): Baby Sophia: セルフタッチとハンドコンディションによる自己探索のための開発アプローチ
- Authors: Stelios Zarifis, Ioannis Chalkiadakis, Artemis Chardouveli, Vasiliki Moutzouri, Aggelos Sotirchos, Katerina Papadimitriou, Panagiotis Filntisis, Niki Efthymiou, Petros Maragos, Katerina Pastra,
- Abstract要約: 本研究では,ロボットエージェントBaby Sophiaにおける自律的自己探索のための強化学習フレームワークを提案する。
エージェントは、幼児の好奇心を駆使した自身の身体の探索を模した本質的な報酬を通じて、自己触知と自尊心の行動を学ぶ。
- 参考スコア(独自算出の注目度): 16.432856040952327
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Inspired by infant development, we propose a Reinforcement Learning (RL) framework for autonomous self-exploration in a robotic agent, Baby Sophia, using the BabyBench simulation environment. The agent learns self-touch and hand regard behaviors through intrinsic rewards that mimic an infant's curiosity-driven exploration of its own body. For self-touch, high-dimensional tactile inputs are transformed into compact, meaningful representations, enabling efficient learning. The agent then discovers new tactile contacts through intrinsic rewards and curriculum learning that encourage broad body coverage, balance, and generalization. For hand regard, visual features of the hands, such as skin-color and shape, are learned through motor babbling. Then, intrinsic rewards encourage the agent to perform novel hand motions, and follow its hands with its gaze. A curriculum learning setup from single-hand to dual-hand training allows the agent to reach complex visual-motor coordination. The results of this work demonstrate that purely curiosity-based signals, with no external supervision, can drive coordinated multimodal learning, imitating an infant's progression from random motor babbling to purposeful behaviors.
- Abstract(参考訳): 幼児の発達にインスパイアされたロボットエージェントBaby Sophiaにおける自己探索のための強化学習(Reinforcement Learning, RL)フレームワークを,BabyBenchシミュレーション環境を用いて提案する。
エージェントは、幼児の好奇心を駆使した自身の身体の探索を模した本質的な報酬を通じて、自己触知と自尊心の行動を学ぶ。
セルフタッチでは、高次元の触覚入力はコンパクトで意味のある表現に変換され、効率的な学習を可能にする。
エージェントは、内在的な報酬やカリキュラム学習を通じて新しい触覚接触を発見し、幅広い身体カバレッジ、バランス、一般化を促進する。
手の皮膚の色や形状などの視覚的特徴は、運動バブリングによって学習される。
そして、本質的な報酬は、エージェントに新しい手の動きをさせ、その目で手に従うことを奨励する。
シングルハンドからダブルハンドトレーニングまでのカリキュラム学習のセットアップにより、エージェントは複雑な視覚運動調整を行うことができる。
この研究の結果は、純粋に好奇心に基づく信号は、外部の監督なしに、ランダムな運動バブリングから目的のある行動への幼児の進歩を模倣して、協調したマルチモーダル学習を駆動できることを示した。
関連論文リスト
- Emergent Active Perception and Dexterity of Simulated Humanoids from Visual Reinforcement Learning [69.71072181304066]
本稿では,擬似ヒューマノイドを用いた視覚駆動全身制御フレームワークであるPerceptive Dexterous Control (PDC)を紹介する。
PDCは、タスク仕様のためのエゴセントリックなビジョンのみを運用し、ビジュアルキューによるオブジェクト検索、ターゲット配置、スキル選択を可能にする。
強化学習によるスクラッチからのトレーニングは,能動探索などの創発的な行動を引き起こす可能性があることを示す。
論文 参考訳(メタデータ) (2025-05-18T07:33:31Z) - A computational model of infant sensorimotor exploration in the mobile paradigm [13.666777211441286]
移動パラダイム」における幼児の行動を決定するメカニズムの計算モデルを提案する。
このパラダイムでは、移動体は幼児の四肢の1つに接続され、幼児はその「接続された」四肢を優先的に移動させる。
本モデルでは, ニューラルネットワーク, アクションアウトカム予測, 探索, 運動騒音, 望ましい活動レベル, 生物学的にインスパイアされた運動制御が組み込まれている。
論文 参考訳(メタデータ) (2025-04-24T21:02:06Z) - Toddlers' Active Gaze Behavior Supports Self-Supervised Object Learning [4.612042044544857]
幼児の視線戦略が不変物体表現の学習を支援することを示す。
本研究は,幼児の視線行動が視覚不変物体認識の発達にどう役立つかを明らかにする。
論文 参考訳(メタデータ) (2024-11-04T10:44:46Z) - MIMo: A Multi-Modal Infant Model for Studying Cognitive Development [3.5009119465343033]
コンピュータシミュレーションによる早期認知発達研究のためのオープンソースの幼児モデルMIMoを提案する。
MIMOはその周囲を両眼視、前庭系、前立腺、そして全身の仮想皮膚を通して知覚する。
論文 参考訳(メタデータ) (2023-12-07T14:21:31Z) - Active Vision Reinforcement Learning under Limited Visual Observability [46.99501921691587]
本研究では,動作型視覚強化学習(ActiveVision-RL)において,実施エージェントが同時にタスクの動作方針を学習すると同時に,部分的に観察可能な環境下での視覚的観察を制御する。
運動と感覚のポリシーを個別にモデル化するフレームワークであるSUGARLを提案するが、本質的な感覚モチーフ報酬を用いて共同で学習する。
論文 参考訳(メタデータ) (2023-06-01T17:59:05Z) - Developmental Curiosity and Social Interaction in Virtual Agents [2.8894038270224858]
我々は、仮想幼児エージェントを作成し、外部の報酬を伴わずに、発達にインスパイアされた3D環境に配置する。
我々は、人間の探索を促進するために提案されたモチベーションに類似した本質的な報酬関数をテストする。
注意深い介護者の存在下で世界モデルを学ぶことは、幼児エージェントがシナリオを予測する方法を学ぶのに役立ちます。
論文 参考訳(メタデータ) (2023-05-22T18:17:07Z) - Incremental procedural and sensorimotor learning in cognitive humanoid
robots [52.77024349608834]
本研究は,手順を段階的に学習する認知エージェントを提案する。
各サブステージで必要とされる認知機能と, エージェントが未解決の課題に, 新たな機能の追加がどう対処するかを示す。
結果は、このアプローチが複雑なタスクを段階的に解くことができることを示している。
論文 参考訳(メタデータ) (2023-04-30T22:51:31Z) - Dexterous Manipulation from Images: Autonomous Real-World RL via Substep
Guidance [71.36749876465618]
本稿では,ユーザが新しいタスクを定義するための"プログラミング不要"なアプローチを提供する,視覚に基づくデクスタラスな操作システムについて述べる。
本システムには,最終タスクと中間タスクを画像例で定義するためのフレームワークが組み込まれている。
実世界における多段階物体操作の4指ロボットハンドラーによる実験結果
論文 参考訳(メタデータ) (2022-12-19T22:50:40Z) - Development of collective behavior in newborn artificial agents [0.0]
我々は、深層強化学習と好奇心駆動学習を用いて、集団行動を発達させる新しい人工エージェントを構築する。
我々のエージェントは、本質的なモチベーション(好奇心)のみを用いて、外部の報酬なしに集団行動を学ぶ。
この研究は、高次元の感覚入力と集団行動の分離を橋渡しし、その結果、集合動物の行動のピクセル間相互作用モデルをもたらす。
論文 参考訳(メタデータ) (2021-11-06T03:46:31Z) - Backprop-Free Reinforcement Learning with Active Neural Generative
Coding [84.11376568625353]
動的環境におけるエラー(バックプロップ)のバックプロパゲーションを伴わない行動駆動型生成モデルの学習のための計算フレームワークを提案する。
我々は、まばらな報酬でも機能するインテリジェントエージェントを開発し、推論として計画の認知理論からインスピレーションを得ている。
我々のエージェントの堅牢な性能は、神経推論と学習のためのバックプロップフリーアプローチがゴール指向の行動を促進するという有望な証拠を提供する。
論文 参考訳(メタデータ) (2021-07-10T19:02:27Z) - AGENT: A Benchmark for Core Psychological Reasoning [60.35621718321559]
直観心理学は、観察可能な行動を駆動する隠された精神変数を推論する能力です。
他のエージェントを推論する機械エージェントに対する近年の関心にもかかわらず、そのようなエージェントが人間の推論を駆動するコア心理学の原則を学ぶか保持するかは明らかではない。
本稿では,プロシージャが生成する3dアニメーション,エージェントを4つのシナリオで構成したベンチマークを提案する。
論文 参考訳(メタデータ) (2021-02-24T14:58:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。