論文の概要: APOLLO Blender: A Robotics Library for Visualization and Animation in Blender
- arxiv url: http://arxiv.org/abs/2512.23103v2
- Date: Tue, 30 Dec 2025 22:40:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:40.542138
- Title: APOLLO Blender: A Robotics Library for Visualization and Animation in Blender
- Title(参考訳): APOLLO Blender: Blenderの可視化とアニメーションのためのロボティクスライブラリ
- Authors: Peter Messina, Daniel Rakita,
- Abstract要約: 高品質な可視化はロボティクス研究の不可欠な部分であり、図形、アニメーション、デモビデオを通じて結果の明確なコミュニケーションを可能にする。
Blenderは強力で自由に利用できる3Dグラフィックプラットフォームだが、学習曲線の急激さとロボティクスにフォーカスした統合の欠如により、研究者が効果的に使うのが難しくて時間がかかる。
このギャップを埋める軽量なソフトウェアライブラリを導入し、一般的なロボティクス可視化タスクのためのシンプルなスクリプティングインターフェースを提供する。
- 参考スコア(独自算出の注目度): 2.707154152696381
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High-quality visualizations are an essential part of robotics research, enabling clear communication of results through figures, animations, and demonstration videos. While Blender is a powerful and freely available 3D graphics platform, its steep learning curve and lack of robotics-focused integrations make it difficult and time-consuming for researchers to use effectively. In this work, we introduce a lightweight software library that bridges this gap by providing simple scripting interfaces for common robotics visualization tasks. The library offers three primary capabilities: (1) importing robots and environments directly from standardized descriptions such as URDF; (2) Python-based scripting tools for keyframing robot states and visual attributes; and (3) convenient generation of primitive 3D shapes for schematic figures and animations. Together, these features allow robotics researchers to rapidly create publication-ready images, animations, and explanatory schematics without needing extensive Blender expertise. We demonstrate the library through a series of proof-of-concept examples and conclude with a discussion of current limitations and opportunities for future extensions.
- Abstract(参考訳): 高品質な可視化はロボティクス研究の不可欠な部分であり、図形、アニメーション、デモビデオを通じて結果の明確なコミュニケーションを可能にする。
Blenderは強力で自由に利用できる3Dグラフィックプラットフォームだが、学習曲線の急激さとロボティクスにフォーカスした統合の欠如により、研究者が効果的に使うのが難しくて時間がかかる。
本研究では,このギャップを埋める軽量なソフトウェアライブラリを導入し,一般的なロボットの可視化タスクのためのシンプルなスクリプティングインタフェースを提供する。
このライブラリには,(1)URDFなどの標準化された記述からロボットや環境を直接インポートする,(2)キーフレーミングロボットの状態や視覚属性をPythonで記述する,(3)図形やアニメーションのプリミティブな3D形状を生成する,という3つの主要な機能がある。
これらの機能により、ロボット研究者たちはBlenderの専門知識を必要とせずに、出版可能な画像、アニメーション、説明スキーマを迅速に作成できる。
本稿では,一連の概念実証事例を通じて図書館を実演し,今後の拡張の限界と機会について論じる。
関連論文リスト
- SceneFoundry: Generating Interactive Infinite 3D Worlds [22.60801815197924]
SceneFoundryは、機能的な家具を備えたアパートスケールの3Dワールドを生成する言語誘導拡散フレームワークである。
本フレームワークは,多様なシーンタイプや環境にまたがって,構造的に妥当でセマンティック・コヒーレントで,機能的にインタラクティブな環境を生成する。
論文 参考訳(メタデータ) (2026-01-09T14:33:10Z) - 3DProxyImg: Controllable 3D-Aware Animation Synthesis from Single Image via 2D-3D Aligned Proxy Embedding [46.75707405618843]
外観合成から幾何学的制御を分離する軽量な3Dアニメーションフレームワークを提案する。
提案手法は,低消費電力プラットフォーム上での効率的なアニメーション生成を実現する。
論文 参考訳(メタデータ) (2025-12-17T06:38:07Z) - Lyra: Generative 3D Scene Reconstruction via Video Diffusion Model Self-Distillation [87.91642226587294]
現在の学習に基づく3D再構成手法は、キャプチャーされた実世界のマルチビューデータに頼っている。
本稿では,ビデオ拡散モデルにおける暗黙的な3次元知識を,明示的な3次元ガウススプラッティング(3DGS)表現に蒸留する自己蒸留フレームワークを提案する。
本フレームワークは静的・動的3次元シーン生成における最先端性能を実現する。
論文 参考訳(メタデータ) (2025-09-23T17:58:01Z) - RoboPearls: Editable Video Simulation for Robot Manipulation [81.18434338506621]
RoboPearlsは、ロボット操作のための編集可能なビデオシミュレーションフレームワークである。
3D Gaussian Splatting (3DGS)に基づいて構築されたRoboPearlsは、フォトリアリスティックでビュー一貫性のあるシミュレーションの構築を可能にする。
我々は、RLBench、COLOSSEUM、Ego4D、Open X-Embodiment、現実世界のロボットなど、複数のデータセットやシーンで広範な実験を行う。
論文 参考訳(メタデータ) (2025-06-28T05:03:31Z) - PromptVFX: Text-Driven Fields for Open-World 3D Gaussian Animation [49.91188543847175]
フィールド予測タスクとして3Dアニメーションを再構成し、3Dガウスに作用する時間変化の4Dフロー場を推定するテキスト駆動フレームワークを導入する。
大規模言語モデル(LLM)と視覚言語モデル(VLM)を関数生成に活用することにより,任意のプロンプトを解釈し,色,不透明度,位置をリアルタイムで更新する。
論文 参考訳(メタデータ) (2025-06-01T17:22:59Z) - VidBot: Learning Generalizable 3D Actions from In-the-Wild 2D Human Videos for Zero-Shot Robotic Manipulation [53.63540587160549]
VidBotは、WildのモノクルなRGBのみの人間ビデオから学習した3Dアベイランスを使って、ゼロショットロボット操作を可能にするフレームワークである。
VidBotは、人間の日常的なビデオを利用してロボットの学習をよりスケーラブルにする。
論文 参考訳(メタデータ) (2025-03-10T10:04:58Z) - VRKitchen2.0-IndoorKit: A Tutorial for Augmented Indoor Scene Building
in Omniverse [77.52012928882928]
INDOORKITはNVIDIA OMNIVERSEの組み込みツールキットである。
屋内シーンビルディング、シーンランダム化、アニメーションコントロールのための柔軟なパイプラインを提供する。
論文 参考訳(メタデータ) (2022-06-23T17:53:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。