論文の概要: A Grammar for the Representation of Unmanned Aerial Vehicles with 3D
Topologies
- arxiv url: http://arxiv.org/abs/2302.13980v1
- Date: Mon, 27 Feb 2023 17:18:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-28 14:43:08.837460
- Title: A Grammar for the Representation of Unmanned Aerial Vehicles with 3D
Topologies
- Title(参考訳): 3次元トポロジを持つ無人航空機の表現のための文法
- Authors: Piergiuseppe Mallozzi, Hussein Sibai, Inigo Incer, Sanjit A. Seshia,
Alberto Sangiovanni-Vincentelli
- Abstract要約: 本研究では,3次元ロボットの設計空間を体系的に探索するための文脈感性文法を提案する。
3Dグリッド上でモデル化された不完全な設計トポロジにコンポーネントを追加する生産ルールを定義する。
文法は単純で、既存のUAVや新しいUAVをモデル化できる。
- 参考スコア(独自算出の注目度): 6.570756672947345
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a context-sensitive grammar for the systematic exploration of the
design space of the topology of 3D robots, particularly unmanned aerial
vehicles. It defines production rules for adding components to an incomplete
design topology modeled over a 3D grid. The rules are local. The grammar is
simple, yet capable of modeling most existing UAVs as well as novel ones. It
can be easily generalized to other robotic platforms. It can be thought of as a
building block for any design exploration and optimization algorithm.
- Abstract(参考訳): 本研究では,3次元ロボット,特に無人航空機の設計空間を体系的に探索するための文脈依存文法を提案する。
3Dグリッド上でモデル化された不完全な設計トポロジにコンポーネントを追加する生産ルールを定義する。
ルールはローカルです。
この文法は単純だが、既存のuavの多くと新しいものをモデル化することができる。
他のロボットプラットフォームに簡単に一般化できる。
任意の設計探索と最適化アルゴリズムのためのビルディングブロックと考えることができる。
関連論文リスト
- SUGAR: Pre-training 3D Visual Representations for Robotics [85.55534363501131]
ロボット工学のための新しい3D事前学習フレームワークSUGARを紹介した。
SUGARは3次元の点雲を通してオブジェクトの意味的、幾何学的、および余分な特性をキャプチャする。
SuGARの3D表現は最先端の2Dおよび3D表現よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-04-01T21:23:03Z) - OpenOcc: Open Vocabulary 3D Scene Reconstruction via Occupancy Representation [30.76201018651464]
従来の3Dシーン理解アプローチでは、高価なラベル付き3Dデータセットを使用して、単一のタスクに対してモデルのトレーニングと監視を行う。
我々は,3次元シーン再構成とオープン語彙理解をニューラルラディアンスフィールドで統合する新しいフレームワークOpenOccを提案する。
提案手法は3次元シーン理解タスクにおいて,特に小型・長距離オブジェクトにおいて,競争性能が向上することを示す。
論文 参考訳(メタデータ) (2024-03-18T13:53:48Z) - GaussianGrasper: 3D Language Gaussian Splatting for Open-vocabulary Robotic Grasping [27.835192127214032]
本稿では,ガウス的原始体のコレクションとして3次元シーンを表現したガウス的グラッパーについて述べる。
提案手法では,RGB-Dビューを限定的に取得し,タイルベースのスプラッティング技術を用いて特徴フィールドを作成する。
ガウス場の再構成幾何を用いて,事前学習したグルーピングモデルにより,衝突のないグルーピングポーズ候補を生成することができる。
論文 参考訳(メタデータ) (2024-03-14T17:59:46Z) - L3GO: Language Agents with Chain-of-3D-Thoughts for Generating
Unconventional Objects [53.4874127399702]
本稿では,3Dメッシュ生成を推論可能な3Dメッシュ生成手法であるL3GO(チェーン・オブ・3D思想)を用いた言語エージェントを提案する。
我々は,新しいベンチマークである Unconventionally Feasible Objects (UFO) と,Blender上に構築されたSimpleBlenv を開発した。
提案手法は,ShapeNet上での3Dメッシュ生成のための標準GPT-4および他の言語エージェントを上回る。
論文 参考訳(メタデータ) (2024-02-14T09:51:05Z) - PonderV2: Pave the Way for 3D Foundation Model with A Universal
Pre-training Paradigm [114.47216525866435]
本稿では,効率的な3D表現の獲得を容易にするために,新しいユニバーサル3D事前学習フレームワークを提案する。
PonderV2は、11の室内および屋外ベンチマークで最先端のパフォーマンスを達成したことで、その効果が示唆された。
論文 参考訳(メタデータ) (2023-10-12T17:59:57Z) - ConceptGraphs: Open-Vocabulary 3D Scene Graphs for Perception and
Planning [125.90002884194838]
ConceptGraphsはオープンな3Dシーン用のグラフ構造化表現である。
2Dファウンデーションモデルを活用し、マルチビューアソシエーションによってアウトプットを3Dに融合することで構築される。
我々は,この表現の有用性を,下流の計画タスクを通じて実証する。
論文 参考訳(メタデータ) (2023-09-28T17:53:38Z) - Improving 3D-aware Image Synthesis with A Geometry-aware Discriminator [68.0533826852601]
3Dを意識した画像合成は、画像のリアルな2D画像の描画が可能な生成モデルを学ぶことを目的としている。
既存の方法では、適度な3D形状が得られない。
本稿では,3次元GANの改良を目的とした幾何学的識別器を提案する。
論文 参考訳(メタデータ) (2022-09-30T17:59:37Z) - Extracting Zero-shot Common Sense from Large Language Models for Robot
3D Scene Understanding [25.270772036342688]
本稿では,ラベリングルームのための大規模言語モデルに埋め込まれた共通感覚を活用する新しい手法を提案する。
提案アルゴリズムは,現代の空間認識システムによって生成された3次元シーングラフで動作する。
論文 参考訳(メタデータ) (2022-06-09T16:05:35Z) - LanguageRefer: Spatial-Language Model for 3D Visual Grounding [72.7618059299306]
3次元視覚的グラウンドリング問題に対する空間言語モデルを構築した。
本稿では,ReferIt3Dが提案する視覚言語データセットに対して,本モデルが競合的に動作することを示す。
論文 参考訳(メタデータ) (2021-07-07T18:55:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。