論文の概要: A Grammar for the Representation of Unmanned Aerial Vehicles with 3D
Topologies
- arxiv url: http://arxiv.org/abs/2302.13980v1
- Date: Mon, 27 Feb 2023 17:18:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-28 14:43:08.837460
- Title: A Grammar for the Representation of Unmanned Aerial Vehicles with 3D
Topologies
- Title(参考訳): 3次元トポロジを持つ無人航空機の表現のための文法
- Authors: Piergiuseppe Mallozzi, Hussein Sibai, Inigo Incer, Sanjit A. Seshia,
Alberto Sangiovanni-Vincentelli
- Abstract要約: 本研究では,3次元ロボットの設計空間を体系的に探索するための文脈感性文法を提案する。
3Dグリッド上でモデル化された不完全な設計トポロジにコンポーネントを追加する生産ルールを定義する。
文法は単純で、既存のUAVや新しいUAVをモデル化できる。
- 参考スコア(独自算出の注目度): 6.570756672947345
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a context-sensitive grammar for the systematic exploration of the
design space of the topology of 3D robots, particularly unmanned aerial
vehicles. It defines production rules for adding components to an incomplete
design topology modeled over a 3D grid. The rules are local. The grammar is
simple, yet capable of modeling most existing UAVs as well as novel ones. It
can be easily generalized to other robotic platforms. It can be thought of as a
building block for any design exploration and optimization algorithm.
- Abstract(参考訳): 本研究では,3次元ロボット,特に無人航空機の設計空間を体系的に探索するための文脈依存文法を提案する。
3Dグリッド上でモデル化された不完全な設計トポロジにコンポーネントを追加する生産ルールを定義する。
ルールはローカルです。
この文法は単純だが、既存のuavの多くと新しいものをモデル化することができる。
他のロボットプラットフォームに簡単に一般化できる。
任意の設計探索と最適化アルゴリズムのためのビルディングブロックと考えることができる。
関連論文リスト
- GaussianGrasper: 3D Language Gaussian Splatting for Open-vocabulary Robotic Grasping [27.835192127214032]
本稿では,ガウス的原始体のコレクションとして3次元シーンを表現したガウス的グラッパーについて述べる。
提案手法では,RGB-Dビューを限定的に取得し,タイルベースのスプラッティング技術を用いて特徴フィールドを作成する。
ガウス場の再構成幾何を用いて,事前学習したグルーピングモデルにより,衝突のないグルーピングポーズ候補を生成することができる。
論文 参考訳(メタデータ) (2024-03-14T17:59:46Z) - L3GO: Language Agents with Chain-of-3D-Thoughts for Generating
Unconventional Objects [53.4874127399702]
本稿では,3Dメッシュ生成を推論可能な3Dメッシュ生成手法であるL3GO(チェーン・オブ・3D思想)を用いた言語エージェントを提案する。
我々は,新しいベンチマークである Unconventionally Feasible Objects (UFO) と,Blender上に構築されたSimpleBlenv を開発した。
提案手法は,ShapeNet上での3Dメッシュ生成のための標準GPT-4および他の言語エージェントを上回る。
論文 参考訳(メタデータ) (2024-02-14T09:51:05Z) - PonderV2: Pave the Way for 3D Foundation Model with A Universal
Pre-training Paradigm [114.47216525866435]
本稿では,効率的な3D表現の獲得を容易にするために,新しいユニバーサル3D事前学習フレームワークを提案する。
PonderV2は、11の室内および屋外ベンチマークで最先端のパフォーマンスを達成したことで、その効果が示唆された。
論文 参考訳(メタデータ) (2023-10-12T17:59:57Z) - ConceptGraphs: Open-Vocabulary 3D Scene Graphs for Perception and
Planning [125.90002884194838]
ConceptGraphsはオープンな3Dシーン用のグラフ構造化表現である。
2Dファウンデーションモデルを活用し、マルチビューアソシエーションによってアウトプットを3Dに融合することで構築される。
我々は,この表現の有用性を,下流の計画タスクを通じて実証する。
論文 参考訳(メタデータ) (2023-09-28T17:53:38Z) - Distilled Feature Fields Enable Few-Shot Language-Guided Manipulation [44.58709274218105]
この研究は、蒸留された特徴場を利用して2次元基礎モデルのリッチなセマンティクスと正確な3次元幾何学を組み合わせることにより、ロボット操作のための2次元から3次元のギャップを橋渡しする。
そこで本研究では,これらの空間的および意味的先行性を利用した6-DOFの把握と配置のための数ショットの学習手法を提案する。
論文 参考訳(メタデータ) (2023-07-27T17:59:14Z) - NaviNeRF: NeRF-based 3D Representation Disentanglement by Latent
Semantic Navigation [61.95333838274848]
3D表現のゆがみは、3Dデータの基本的な説明因子を特定し、分解し、操作することを目的としている。
NeRFは生成するNeRFパイプライン上に構築されており、アウターナビゲーションブランチとインナーリファインメントブランチを備えている。
NaviNeRFは、従来の3D対応モデルよりもきめ細かい3Dディスタングル能力が優れている。
論文 参考訳(メタデータ) (2023-04-22T07:48:17Z) - Improving 3D-aware Image Synthesis with A Geometry-aware Discriminator [68.0533826852601]
3Dを意識した画像合成は、画像のリアルな2D画像の描画が可能な生成モデルを学ぶことを目的としている。
既存の方法では、適度な3D形状が得られない。
本稿では,3次元GANの改良を目的とした幾何学的識別器を提案する。
論文 参考訳(メタデータ) (2022-09-30T17:59:37Z) - Extracting Zero-shot Common Sense from Large Language Models for Robot
3D Scene Understanding [25.270772036342688]
本稿では,ラベリングルームのための大規模言語モデルに埋め込まれた共通感覚を活用する新しい手法を提案する。
提案アルゴリズムは,現代の空間認識システムによって生成された3次元シーングラフで動作する。
論文 参考訳(メタデータ) (2022-06-09T16:05:35Z) - LanguageRefer: Spatial-Language Model for 3D Visual Grounding [72.7618059299306]
3次元視覚的グラウンドリング問題に対する空間言語モデルを構築した。
本稿では,ReferIt3Dが提案する視覚言語データセットに対して,本モデルが競合的に動作することを示す。
論文 参考訳(メタデータ) (2021-07-07T18:55:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。