論文の概要: Mates2Motion: Learning How Mechanical CAD Assemblies Work
- arxiv url: http://arxiv.org/abs/2208.01779v1
- Date: Tue, 2 Aug 2022 23:12:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-04 13:36:30.714543
- Title: Mates2Motion: Learning How Mechanical CAD Assemblies Work
- Title(参考訳): mates2motion: 機械的なcad集合の仕組みを学ぶ
- Authors: James Noeckel, Benjamin T. Jones, Karl Willis, Brian Curless, Adriana
Schulz
- Abstract要約: 我々はCAD部品と仲間からなる実世界の機械組立体の大規模なデータセットを用いてモデルを訓練する。
組立の動作をよりよく反映できるように、また、運動の軸を狭めるために、これらの仲間を再定義する方法を提案する。
- 参考スコア(独自算出の注目度): 7.987370879817241
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We describe our work on inferring the degrees of freedom between mated parts
in mechanical assemblies using deep learning on CAD representations. We train
our model using a large dataset of real-world mechanical assemblies consisting
of CAD parts and mates joining them together. We present methods for
re-defining these mates to make them better reflect the motion of the assembly,
as well as narrowing down the possible axes of motion. We also conduct a user
study to create a motion-annotated test set with more reliable labels.
- Abstract(参考訳): 本稿では,CAD表現の深層学習を用いて,機械組立体における交配部分間の自由度を推定する作業について述べる。
我々はCAD部品と仲間からなる実世界の機械集合の大規模なデータセットを用いてモデルを訓練する。
我々は, 集合体の運動をよりよく反映し, 運動軸を狭めるために, これらの配偶子を再定義する手法を提案する。
また,より信頼性の高いラベル付きモーションアノテートテストセットを作成するためのユーザスタディも実施する。
関連論文リスト
- LLARVA: Vision-Action Instruction Tuning Enhances Robot Learning [50.99807031490589]
LLARVAは,ロボット学習タスク,シナリオ,環境を統一するための,新しい指導指導法で訓練されたモデルである。
我々は,Open X-Embodimentデータセットから8.5Mの画像-視覚的トレースペアを生成し,モデルを事前学習する。
実験によって強い性能が得られ、LLARVAは現代のいくつかのベースラインと比較してよく機能することを示した。
論文 参考訳(メタデータ) (2024-06-17T17:55:29Z) - Self-supervised Graph Neural Network for Mechanical CAD Retrieval [29.321027284348272]
GC-CADは、機械的CAD検索のための、自己教師付きコントラストグラフニューラルネットワークに基づく手法である。
提案手法は, 精度を向上し, ベースライン法よりも100倍の効率向上を実現している。
論文 参考訳(メタデータ) (2024-06-13T06:56:49Z) - RPMArt: Towards Robust Perception and Manipulation for Articulated Objects [56.73978941406907]
本稿では,Articulated Objects (RPMArt) のロバスト知覚と操作のためのフレームワークを提案する。
RPMArtは、調音パラメータを推定し、雑音の多い点雲から調音部分を操作することを学習する。
我々は,シミュレート・トゥ・リアル・トランスファーの能力を高めるための調音認識型分類手法を提案する。
論文 参考訳(メタデータ) (2024-03-24T05:55:39Z) - Learning Reusable Manipulation Strategies [86.07442931141634]
人間は「トリック」を習得し、一般化する素晴らしい能力を実証する
本稿では,機械が1つの実演と自己演奏によってこのような操作スキルを習得することを可能にするフレームワークを提案する。
これらの学習メカニズムとサンプルは、標準的なタスクやモーションプランナにシームレスに統合できる。
論文 参考訳(メタデータ) (2023-11-06T17:35:42Z) - Kinematic-aware Prompting for Generalizable Articulated Object
Manipulation with LLMs [53.66070434419739]
汎用的なオブジェクト操作は、ホームアシストロボットにとって不可欠である。
本稿では,物体のキネマティックな知識を持つ大規模言語モデルに対して,低レベル動作経路を生成するキネマティック・アウェア・プロンプト・フレームワークを提案する。
我々のフレームワークは8つのカテゴリで従来の手法よりも優れており、8つの未確認対象カテゴリに対して強力なゼロショット能力を示している。
論文 参考訳(メタデータ) (2023-11-06T03:26:41Z) - Self-Supervised Representation Learning for CAD [19.5326204665895]
本研究は,教師付き学習課題にラベルのないCAD幾何を活用することを提案する。
我々は、B-Rep幾何学のための新しい、ハイブリッドな暗黙的/明示的な表面表現を学ぶ。
論文 参考訳(メタデータ) (2022-10-19T18:00:18Z) - JoinABLe: Learning Bottom-up Assembly of Parametric CAD Joints [34.15876903985372]
JoinABLeは、パーツを組み立ててジョイントを形成する学習ベースの方法である。
以上の結果から, ソリッドモデルのグラフ表現上でネットワーク予測を行うことで, 精度79.53%の精度で複数のベースライン法を上回り, 性能80%に近づいた。
論文 参考訳(メタデータ) (2021-11-24T20:05:59Z) - V-MAO: Generative Modeling for Multi-Arm Manipulation of Articulated
Objects [51.79035249464852]
本稿では,音声による物体のマルチアーム操作を学習するためのフレームワークを提案する。
本フレームワークは,各ロボットアームの剛部上の接触点分布を学習する変動生成モデルを含む。
論文 参考訳(メタデータ) (2021-11-07T02:31:09Z) - SB-GCN: Structured BREP Graph Convolutional Network for Automatic Mating
of CAD Assemblies [3.732457298487595]
アセンブリモデリングは、現代のCADにおける支配的なデータ構造であるパラメトリック境界表現(BREP)を反映しているため、現代のCADシステムには直接適用されない。
本稿では,部品のトポロジ的構造を保持するBREPの表現学習手法であるSB-GCNを提案する。
論文 参考訳(メタデータ) (2021-05-25T22:07:55Z) - Reconstructing Interactive 3D Scenes by Panoptic Mapping and CAD Model
Alignments [81.38641691636847]
エンボディエージェントの観点から,シーン再構築の問題を再考する。
rgb-dデータストリームを用いてインタラクティブシーンを再構築する。
この再構成されたシーンは、密集したパノプティカルマップのオブジェクトメッシュを、部分ベースのCADモデルに置き換える。
論文 参考訳(メタデータ) (2021-03-30T05:56:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。