論文の概要: Motion Planning on Visual Manifolds
- arxiv url: http://arxiv.org/abs/2210.04047v1
- Date: Sat, 8 Oct 2022 15:09:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 17:01:48.588698
- Title: Motion Planning on Visual Manifolds
- Title(参考訳): ヴィジュアルマニフォールドの運動計画
- Authors: M Seetha Ramaiah
- Abstract要約: 我々は、Visual Configuration Space (VCS)と呼ばれる、構成空間の概念の代替的な特徴付けを提案する。
この新たな特徴付けにより、エンボディエージェント(例えばロボット)は、自身の身体構造を発見し、ランダムなポーズで自身のイメージのセットを使用して、その周囲空間で障害物のない動きを計画することができる。
a)ロボットの運動計画のための幾何学的自由モデルの構築と作業におけるVCSの有用性、(b)人間の赤ちゃんが運動バブリングによって周囲空間の物体にどのように到達するか、(c)自然界の頭部を自動生成する方法について説明する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this thesis, we propose an alternative characterization of the notion of
Configuration Space, which we call Visual Configuration Space (VCS). This new
characterization allows an embodied agent (e.g., a robot) to discover its own
body structure and plan obstacle-free motions in its peripersonal space using a
set of its own images in random poses. Here, we do not assume any knowledge of
geometry of the agent, obstacles or the environment. We demonstrate the
usefulness of VCS in (a) building and working with geometry-free models for
robot motion planning, (b) explaining how a human baby might learn to reach
objects in its peripersonal space through motor babbling, and (c) automatically
generating natural looking head motion animations for digital avatars in
virtual environments. This work is based on the formalism of manifolds and
manifold learning using the agent's images and hence we call it Motion Planning
on Visual Manifolds.
- Abstract(参考訳): 本稿では,視覚構成空間 (visual configuration space,vcs) と呼ばれる構成空間の概念の代替的キャラクタリゼーションを提案する。
この新しい特徴付けにより、身体的エージェント(例えばロボット)は自身の身体構造を発見し、ランダムなポーズで自身のイメージセットを使用して、身近な空間で障害物のない動きを計画できる。
ここでは,エージェントや障害物,環境の幾何学的知識を前提としない。
我々はVCSの有用性を実証する。
(a)ロボット運動計画のための幾何学自由モデルの構築と作業
b)ヒトの赤ちゃんが運動バブリングを通して、周囲の空間で物体に到達する方法を説明し、
(c)仮想環境におけるデジタルアバターのための自然なヘッドモーションアニメーションを自動生成する。
この研究は、エージェントの画像を用いた多様体と多様体学習の形式主義に基づいており、視覚多様体の運動計画(Motion Planning on Visual Manifolds)と呼ぶ。
関連論文リスト
- AvatarGO: Zero-shot 4D Human-Object Interaction Generation and Animation [60.5897687447003]
AvatarGOはテキスト入力からリアルな4D HOIシーンを生成するために設計された新しいフレームワークである。
我々のフレームワークは、コヒーレントな構成運動を生成するだけでなく、問題に対処する上でより堅牢性を示す。
4Dアバターをオブジェクトインタラクションで合成する最初の試みとして、AvatarGOが人間中心の4Dコンテンツを作るための新しい扉を開くことを願っている。
論文 参考訳(メタデータ) (2024-10-09T17:58:56Z) - PlaMo: Plan and Move in Rich 3D Physical Environments [68.75982381673869]
シーン認識型パスプランナで,ロバストな物理制御系であるPlaMoについて紹介する。
プランナーは、シーンが動きに課す様々な制限を考慮して、一連の動き経路を生成する。
私たちのコントロールポリシーは、計画に忠実なリッチでリアルな物理運動を生成します。
論文 参考訳(メタデータ) (2024-06-26T10:41:07Z) - AgentAvatar: Disentangling Planning, Driving and Rendering for
Photorealistic Avatar Agents [16.544688997764293]
我々のフレームワークはLLMを利用してアバターエージェントの顔の動きを詳細に記述する。
これらの記述はタスク非依存の駆動エンジンによって連続的な動作埋め込みに処理される。
我々の枠組みは、モナディックとディヤディックの両方において、様々な非言語アバター相互作用に適応する。
論文 参考訳(メタデータ) (2023-11-29T09:13:00Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - High-Degrees-of-Freedom Dynamic Neural Fields for Robot Self-Modeling and Motion Planning [6.229216953398305]
ロボットの自己モデル(英: Robot self-model)は、ロボットの運動計画タスクに使用できる身体形態の表現である。
本研究では,高次自由度を条件とした動的オブジェクト中心シーンのためのエンコーダに基づくニューラル密度場アーキテクチャを提案する。
7-DOFロボットテストセットでは、学習された自己モデルは、ロボットの次元ワークスペースの2%のChamfer-L2距離を達成する。
論文 参考訳(メタデータ) (2023-10-05T16:01:29Z) - AvatarGen: a 3D Generative Model for Animatable Human Avatars [108.11137221845352]
アバタージェネレーション(AvatarGen)は、多様な外観を持つ非剛体世代だけでなく、ポーズや視点の完全な制御を可能にする最初の方法である。
非剛性力学をモデル化するために、正準空間におけるポーズ依存的な変形を学習するための変形ネットワークを導入する。
提案手法は,高品質な外観と幾何モデルを備えたアニマタブルな人体アバターを生成でき,従来の3D GANよりも大幅に優れていた。
論文 参考訳(メタデータ) (2022-08-01T01:27:02Z) - 3D Neural Scene Representations for Visuomotor Control [78.79583457239836]
我々は2次元視覚観測から動的3次元シーンのモデルを純粋に学習する。
学習した表現空間上に構築された動的モデルにより,操作課題に対するビジュモータ制御が可能となる。
論文 参考訳(メタデータ) (2021-07-08T17:49:37Z) - Task-Generic Hierarchical Human Motion Prior using VAEs [44.356707509079044]
人間の動きを記述する深い生成モデルは、幅広いコンピュータビジョンやグラフィックタスクに役立てることができる。
本稿では,グローバル・ローカル・ラテント・スペースの組み合わせを用いて,特定のタスクに依存しない複雑な人間の動作を学習する手法を提案する。
映像に基づく人間のポーズ推定を含む様々なタスクにおいて,階層的な動き変動自動エンコーダの有効性を実証する。
論文 参考訳(メタデータ) (2021-06-07T23:11:42Z) - Latent Space Roadmap for Visual Action Planning of Deformable and Rigid
Object Manipulation [74.88956115580388]
プランニングは、イメージを埋め込んだ低次元の潜在状態空間で行われる。
我々のフレームワークは2つの主要なコンポーネントで構成されており、画像のシーケンスとして視覚的な計画を生成するビジュアル・フォレスト・モジュール(VFM)と、それら間のアクションを予測するアクション・プロポーザル・ネットワーク(APN)である。
論文 参考訳(メタデータ) (2020-03-19T18:43:26Z) - 3D Dynamic Scene Graphs: Actionable Spatial Perception with Places,
Objects, and Humans [27.747241700017728]
動作可能な空間知覚のための統一表現として,3次元ダイナミックシーングラフを提案する。
3D Dynamic Scene Graphsは、計画と意思決定、人間とロボットのインタラクション、長期的な自律性、シーン予測に大きな影響を与える可能性がある。
論文 参考訳(メタデータ) (2020-02-15T00:46:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。