論文の概要: IRIS: Learning-Driven Task-Specific Cinema Robot Arm for Visuomotor Motion Control
- arxiv url: http://arxiv.org/abs/2602.17537v1
- Date: Thu, 19 Feb 2026 16:50:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-20 15:21:29.220076
- Title: IRIS: Learning-Driven Task-Specific Cinema Robot Arm for Visuomotor Motion Control
- Title(参考訳): IRIS: 視覚運動制御のための学習駆動型タスク特異的シネマロボットアーム
- Authors: Qilong Cheng, Matthew Mackay, Ali Bereyhi,
- Abstract要約: IRISは、軽量で完全に3Dプリントされたハードウェアデザインと、目標条件付きビズモータ模倣学習フレームワークを統合している。
このシステムは、人間のデモから直接、オブジェクト認識と知覚的にスムーズなカメラ軌跡を学習する。
完全なプラットフォームは1,000ドル以下で、1.5kgのペイロードをサポートし、約1mmの再現性を実現している。
- 参考スコア(独自算出の注目度): 7.745271598212898
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Robotic camera systems enable dynamic, repeatable motion beyond human capabilities, yet their adoption remains limited by the high cost and operational complexity of industrial-grade platforms. We present the Intelligent Robotic Imaging System (IRIS), a task-specific 6-DOF manipulator designed for autonomous, learning-driven cinematic motion control. IRIS integrates a lightweight, fully 3D-printed hardware design with a goal-conditioned visuomotor imitation learning framework based on Action Chunking with Transformers (ACT). The system learns object-aware and perceptually smooth camera trajectories directly from human demonstrations, eliminating the need for explicit geometric programming. The complete platform costs under $1,000 USD, supports a 1.5 kg payload, and achieves approximately 1 mm repeatability. Real-world experiments demonstrate accurate trajectory tracking, reliable autonomous execution, and generalization across diverse cinematic motions.
- Abstract(参考訳): ロボットカメラシステムは、人間の能力を超えた動的かつ反復的な動きを可能にするが、産業レベルのプラットフォームの高コストと運用上の複雑さによって、採用は制限されている。
本稿では,自律型学習駆動型動画像制御のためのタスク固有の6-DOFマニピュレータであるIntelligent Robotic Imaging System (IRIS)を提案する。
IRISは、軽量で完全に3Dプリントされたハードウェア設計と、Action Chunking with Transformers (ACT)に基づく目標条件付きビズモータ模倣学習フレームワークを統合している。
このシステムは、人間のデモから直接、オブジェクト認識と知覚的に滑らかなカメラ軌跡を学習し、明示的な幾何学的プログラミングの必要性を排除している。
完全なプラットフォームは1,000ドル以下で、1.5kgのペイロードをサポートし、約1mmの再現性を実現している。
実世界の実験では、正確な軌道追跡、信頼性の高い自律実行、様々な映画の動きの一般化が実証されている。
関連論文リスト
- MeshMimic: Geometry-Aware Humanoid Motion Learning through 3D Scene Reconstruction [54.36564144414704]
MeshMimicは、3Dシーンの再構築とインテリジェンスを組み込んだ革新的なフレームワークで、ヒューマノイドロボットがビデオから直接「モーション・テライン」インタラクションを学習できるようにする。
現状の3次元視覚モデルを活用することで、我々のフレームワークは、人間の軌跡と基礎となる地形や物体の3次元幾何学の両方を正確にセグメント化し再構築する。
論文 参考訳(メタデータ) (2026-02-17T17:09:45Z) - ZEST: Zero-shot Embodied Skill Transfer for Athletic Robot Control [37.4764082674475]
本稿では,多種多様な情報源からの強化学習を通じて政策を訓練する動きの合理化フレームワークであるZESTを紹介する。
ZESTは、連絡先ラベル、参照または観察ウィンドウ、状態推定器、広範囲な報酬形成を避けながら、行動やプラットフォームをまたいで一般化する。
ボストン・ダイナミクスのアトラス・ヒューマノイドで、ZESTはモーションキャプチャーからダイナミックでマルチコンタクトのスキル(例えば、陸軍のクロール、ブレイクダンス)を学ぶ。
論文 参考訳(メタデータ) (2026-01-30T23:35:02Z) - SONIC: Supersizing Motion Tracking for Natural Humanoid Whole-Body Control [85.91101551600978]
モデルキャパシティ,データ,計算のスケールアップにより,自然かつ堅牢な体の動きを生成できる汎用的なヒューマノイドコントローラが得られることを示す。
我々は、ネットワークサイズ、データセットボリューム、計算の3つの軸に沿ってスケーリングすることで、モーショントラッキングのための基礎モデルを構築します。
本研究では,(1)動作追跡を下流タスク実行にブリッジし,自然かつインタラクティブな制御を可能にするリアルタイムユニバーサルキネマティックプランナ,(2)様々な動作入力インタフェースをサポートする統一トークン空間の2つのメカニズムにより,モデルの実用性を示す。
論文 参考訳(メタデータ) (2025-11-11T04:37:40Z) - Implicit Kinodynamic Motion Retargeting for Human-to-humanoid Imitation Learning [35.8296790596745]
Implicit Kinodynamic Motion Retargeting (IKMR)は、キネマティクスとダイナミックスの両方を考慮した、効率的でスケーラブルなフレームワークである。
IKMRは、モーション領域マッピングを学ぶために、モーショントポロジ表現とデュアルエンコーダデコーダアーキテクチャを事前訓練する。
実物大のヒューマノイドロボットでシミュレータと実物ロボットの両方で実験を行う。
論文 参考訳(メタデータ) (2025-09-18T21:34:02Z) - Learning Dolly-In Filming From Demonstration Using a Ground-Based Robot [3.8803818210315733]
本稿では,GAIL (Generative Adversarial Imitation Learning) を用いたLearning from Demonstration (LfD) アプローチを提案する。
私たちのパイプラインは、クリエイティブなプロフェッショナルの範囲内で、直感的でスタイリッシュなカメラコントロールを提供し、芸術的な意図とロボットの自律性の間のギャップを埋めます。
論文 参考訳(メタデータ) (2025-08-30T17:54:48Z) - Phoenix: A Motion-based Self-Reflection Framework for Fine-grained Robotic Action Correction [10.38090975412416]
ロボットが障害から回復するためには、一般化可能な自己補正システムの構築が不可欠である。
我々は,高レベルな意味的反射と低レベルなロボット動作補正を接続するブリッジとして動作指示を利用するPhoenixフレームワークを構築した。
RoboMimicシミュレーションと実世界のシナリオの両方で実施された実験は、我々のフレームワークのより優れた一般化とロバスト性を証明する。
論文 参考訳(メタデータ) (2025-04-20T12:30:43Z) - Taccel: Scaling Up Vision-based Tactile Robotics via High-performance GPU Simulation [34.47272224723296]
ロボット,触覚センサ,物体を精度と前例のない速度でモデル化するために,IPCとABDを統合した高性能なシミュレーションプラットフォームであるTaccelを提案する。
並列化が制限されたサブリアルタイム速度で動作する従来のシミュレータとは異なり、Taccelは正確な物理シミュレーションとリアルな触覚信号を提供する。
これらの能力は、触覚ロボットの研究と開発を拡大するための強力なツールとして、Taccelを位置づけている。
論文 参考訳(メタデータ) (2025-04-17T12:57:11Z) - VidBot: Learning Generalizable 3D Actions from In-the-Wild 2D Human Videos for Zero-Shot Robotic Manipulation [53.63540587160549]
VidBotは、WildのモノクルなRGBのみの人間ビデオから学習した3Dアベイランスを使って、ゼロショットロボット操作を可能にするフレームワークである。
VidBotは、人間の日常的なビデオを利用してロボットの学習をよりスケーラブルにする。
論文 参考訳(メタデータ) (2025-03-10T10:04:58Z) - Robot See Robot Do: Imitating Articulated Object Manipulation with Monocular 4D Reconstruction [51.49400490437258]
本研究は,1つの単分子RGB人間の実演から音声による物体操作を模倣する手法を開発した。
まず,モノクロ映像から3次元部分運動を復元する4次元微分可能部品モデル(4D-DPM)を提案する。
この4D再構成を前提として、ロボットは物体の軌道を再現し、両腕の動きを計画し、実証された物体部分の動きを誘導する。
両用するYuMiロボットを用いて,4D-DPMの3D追跡精度を実写3D部分軌跡に基づいて評価し,9つのオブジェクトに対してRSRDの物理的実行性能を評価した。
論文 参考訳(メタデータ) (2024-09-26T17:57:16Z) - IRASim: A Fine-Grained World Model for Robot Manipulation [24.591694756757278]
本稿では,ロボットとオブジェクトのインタラクションの詳細を詳細に表現したビデオを生成する新しい世界モデルIRASimを提案する。
拡散変圧器を訓練し、各変圧器ブロック内に新しいフレームレベル動作条件モジュールを導入し、アクションフレームアライメントを明示的にモデル化し強化する。
論文 参考訳(メタデータ) (2024-06-20T17:50:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。