論文の概要: SoccerDiffusion: Toward Learning End-to-End Humanoid Robot Soccer from Gameplay Recordings
- arxiv url: http://arxiv.org/abs/2504.20808v1
- Date: Tue, 29 Apr 2025 14:21:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.92998
- Title: SoccerDiffusion: Toward Learning End-to-End Humanoid Robot Soccer from Gameplay Recordings
- Title(参考訳): Soccer Diffusion: ゲームのレコーディングからエンド・ツー・エンドのヒューマノイド・ロボットサッカーを学ぶ
- Authors: Florian Vahl, Jörn Griepenburg, Jan Gutsche, Jasper Güldenstein, Jianwei Zhang,
- Abstract要約: SoccerDiffusionは、ヒューマノイドロボットサッカーのエンドツーエンド制御ポリシーを学ぶためのトランスフォーマーベースの拡散モデルである。
組み込みプラットフォーム上でリアルタイムな推論を可能にするため,蒸留技術を採用している。
本研究は,シミュレーションおよび物理ロボット上での複雑な動作挙動を再現するモデルの有効性を実証するものである。
- 参考スコア(独自算出の注目度): 2.572390511592254
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This paper introduces SoccerDiffusion, a transformer-based diffusion model designed to learn end-to-end control policies for humanoid robot soccer directly from real-world gameplay recordings. Using data collected from RoboCup competitions, the model predicts joint command trajectories from multi-modal sensor inputs, including vision, proprioception, and game state. We employ a distillation technique to enable real-time inference on embedded platforms that reduces the multi-step diffusion process to a single step. Our results demonstrate the model's ability to replicate complex motion behaviors such as walking, kicking, and fall recovery both in simulation and on physical robots. Although high-level tactical behavior remains limited, this work provides a robust foundation for subsequent reinforcement learning or preference optimization methods. We release the dataset, pretrained models, and code under: https://bit-bots.github.io/SoccerDiffusion
- Abstract(参考訳): 本稿では,人間型ロボットサッカーのエンド・ツー・エンド制御ポリシを現実のゲームプレイ記録から直接学習するトランスフォーマーに基づく拡散モデルであるFocoDiffusionを紹介する。
RoboCupコンペティションから収集したデータを用いて、ビジョン、プロプレセプション、ゲーム状態を含むマルチモーダルセンサー入力から、ジョイントコマンドトラジェクトリを予測する。
我々は,多段拡散過程を1段階に短縮する,組込みプラットフォーム上でのリアルタイム推論を可能にする蒸留技術を用いている。
以上の結果から,歩行,蹴り,転倒などの複雑な動作行動をシミュレーションと物理ロボットの両方で再現できることが示唆された。
高レベルの戦術的行動は依然として限られているが、この研究はその後の強化学習や選好最適化手法の堅牢な基盤を提供する。
データセット、事前トレーニングされたモデル、および下記のコードをリリースします。
関連論文リスト
- VidBot: Learning Generalizable 3D Actions from In-the-Wild 2D Human Videos for Zero-Shot Robotic Manipulation [53.63540587160549]
VidBotは、WildのモノクルなRGBのみの人間ビデオから学習した3Dアベイランスを使って、ゼロショットロボット操作を可能にするフレームワークである。
VidBotは、人間の日常的なビデオを利用してロボットの学習をよりスケーラブルにする。
論文 参考訳(メタデータ) (2025-03-10T10:04:58Z) - DIRIGENt: End-To-End Robotic Imitation of Human Demonstrations Based on a Diffusion Model [16.26334759935617]
本研究では,人間の実演の観察から共同価値を生成するための新しいエンドツーエンド拡散手法であるDIRIGENtを紹介する。
我々は、人間がロボットを模倣するデータセットを作成し、この収集されたデータを使って、ロボットが人間を模倣できる拡散モデルを訓練する。
論文 参考訳(メタデータ) (2025-01-28T09:05:03Z) - VidMan: Exploiting Implicit Dynamics from Video Diffusion Model for Effective Robot Manipulation [79.00294932026266]
VidManは、安定性を高め、データ利用効率を向上させるために、2段階のトレーニングメカニズムを使用する新しいフレームワークである。
我々のフレームワークは、CALVINベンチマークで最先端のベースラインモデルGR-1を上回り、11.7%の相対的な改善を実現し、OXEの小規模データセットで9%以上の精度向上を示す。
論文 参考訳(メタデータ) (2024-11-14T03:13:26Z) - RDT-1B: a Diffusion Foundation Model for Bimanual Manipulation [23.554917579133576]
本稿では,ロボット拡散変換器(RDT)について述べる。
RDTは、マルチモーダリティを効果的に表現するために拡散モデルを構築し、スケーラブルトランスフォーマーの革新的な設計である。
さらに,様々なロボットの動作表現を統一する物理解釈可能な統一行動空間を導入する。
論文 参考訳(メタデータ) (2024-10-10T12:33:46Z) - DexDribbler: Learning Dexterous Soccer Manipulation via Dynamic Supervision [26.9579556496875]
移動物体の協調操作と,サッカーなどの足による移動は,学習コミュニティにおいて目立たない注目を集める。
出力をダイナミックな関節レベル移動監視として使用し,必要な身体レベルの動きを正確に計算するフィードバック制御ブロックを提案する。
我々は,我々の学習手法が政策ネットワークをより早く収束させるだけでなく,サッカーロボットが高度な操作を行うことを可能にすることを観察した。
論文 参考訳(メタデータ) (2024-03-21T11:16:28Z) - Humanoid Locomotion as Next Token Prediction [84.21335675130021]
我々のモデルは感覚運動軌道の自己回帰予測によって訓練された因果変換器である。
われわれのモデルでは、フルサイズのヒューマノイドがサンフランシスコでゼロショットで歩けることが示されている。
われわれのモデルは、わずか27時間の歩行データで訓練された場合でも現実世界に移行でき、後方歩行のような訓練中に見えないコマンドを一般化することができる。
論文 参考訳(メタデータ) (2024-02-29T18:57:37Z) - Learning an Actionable Discrete Diffusion Policy via Large-Scale Actionless Video Pre-Training [69.54948297520612]
ジェネラリストの具体化エージェントを学ぶことは、主にアクションラベル付きロボットデータセットの不足に起因して、課題を提起する。
これらの課題に対処するための新しい枠組みを導入し、人間のビデオにおける生成前トレーニングと、少数のアクションラベル付きロボットビデオのポリシー微調整を組み合わせるために、統一された離散拡散を利用する。
提案手法は, 従来の最先端手法と比較して, 高忠実度な今後の計画ビデオを生成し, 細調整されたポリシーを強化する。
論文 参考訳(メタデータ) (2024-02-22T09:48:47Z) - PlayFusion: Skill Acquisition via Diffusion from Language-Annotated Play [47.052953955624886]
構造化されていない、未計算のデータから学ぶことは、言語とビジョンにおける生成的アプローチの主要なパラダイムとなっている。
本研究では,非構造化プレイデータからゴール指向スキルポリシーを学習する問題について検討する。
具体的には、拡散モデルの進歩を活用してマルチタスク拡散モデルを学び、プレイデータからロボットスキルを抽出する。
論文 参考訳(メタデータ) (2023-12-07T18:59:14Z) - DiffuseBot: Breeding Soft Robots With Physics-Augmented Generative
Diffusion Models [102.13968267347553]
本稿では,様々なタスクにおいて優れたソフトロボット形態を生成する物理拡張拡散モデルであるDiffuseBotを提案する。
我々は、その能力とともに、シミュレーションされた、そして製造された様々なロボットを紹介します。
論文 参考訳(メタデータ) (2023-11-28T18:58:48Z) - Robot Learning with Sensorimotor Pre-training [98.7755895548928]
ロボット工学のための自己教師型感覚運動器事前学習手法を提案する。
我々のモデルはRTTと呼ばれ、センサモレータトークンのシーケンスで動作するトランスフォーマーである。
感覚運動の事前学習は、ゼロからトレーニングを一貫して上回り、優れたスケーリング特性を持ち、さまざまなタスク、環境、ロボット間での移動を可能にしている。
論文 参考訳(メタデータ) (2023-06-16T17:58:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。