論文の概要: Mates2Motion: Learning How Mechanical CAD Assemblies Work
- arxiv url: http://arxiv.org/abs/2208.01779v1
- Date: Tue, 2 Aug 2022 23:12:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-04 13:36:30.714543
- Title: Mates2Motion: Learning How Mechanical CAD Assemblies Work
- Title(参考訳): mates2motion: 機械的なcad集合の仕組みを学ぶ
- Authors: James Noeckel, Benjamin T. Jones, Karl Willis, Brian Curless, Adriana
Schulz
- Abstract要約: 我々はCAD部品と仲間からなる実世界の機械組立体の大規模なデータセットを用いてモデルを訓練する。
組立の動作をよりよく反映できるように、また、運動の軸を狭めるために、これらの仲間を再定義する方法を提案する。
- 参考スコア(独自算出の注目度): 7.987370879817241
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We describe our work on inferring the degrees of freedom between mated parts
in mechanical assemblies using deep learning on CAD representations. We train
our model using a large dataset of real-world mechanical assemblies consisting
of CAD parts and mates joining them together. We present methods for
re-defining these mates to make them better reflect the motion of the assembly,
as well as narrowing down the possible axes of motion. We also conduct a user
study to create a motion-annotated test set with more reliable labels.
- Abstract(参考訳): 本稿では,CAD表現の深層学習を用いて,機械組立体における交配部分間の自由度を推定する作業について述べる。
我々はCAD部品と仲間からなる実世界の機械集合の大規模なデータセットを用いてモデルを訓練する。
我々は, 集合体の運動をよりよく反映し, 運動軸を狭めるために, これらの配偶子を再定義する手法を提案する。
また,より信頼性の高いラベル付きモーションアノテートテストセットを作成するためのユーザスタディも実施する。
関連論文リスト
- Learning Reusable Manipulation Strategies [86.07442931141634]
人間は「トリック」を習得し、一般化する素晴らしい能力を実証する
本稿では,機械が1つの実演と自己演奏によってこのような操作スキルを習得することを可能にするフレームワークを提案する。
これらの学習メカニズムとサンプルは、標準的なタスクやモーションプランナにシームレスに統合できる。
論文 参考訳(メタデータ) (2023-11-06T17:35:42Z) - Kinematic-aware Prompting for Generalizable Articulated Object
Manipulation with LLMs [53.66070434419739]
汎用的なオブジェクト操作は、ホームアシストロボットにとって不可欠である。
本稿では,物体のキネマティックな知識を持つ大規模言語モデルに対して,低レベル動作経路を生成するキネマティック・アウェア・プロンプト・フレームワークを提案する。
我々のフレームワークは8つのカテゴリで従来の手法よりも優れており、8つの未確認対象カテゴリに対して強力なゼロショット能力を示している。
論文 参考訳(メタデータ) (2023-11-06T03:26:41Z) - RoboTAP: Tracking Arbitrary Points for Few-Shot Visual Imitation [36.43143326197769]
Track-Any-Point (TAP) モデルは、デモ中の関連する動きを分離し、低レベルのコントローラをパラメータ化して、シーン構成の変化をまたいでこの動きを再現する。
この結果は,形状整合,積み重ね,さらには接着や物体の付着といった完全な経路追従といった複雑な物体配置タスクを解くことのできるロバストなロボットポリシーで示される。
論文 参考訳(メタデータ) (2023-08-30T11:57:04Z) - Self-Supervised Representation Learning for CAD [19.5326204665895]
本研究は,教師付き学習課題にラベルのないCAD幾何を活用することを提案する。
我々は、B-Rep幾何学のための新しい、ハイブリッドな暗黙的/明示的な表面表現を学ぶ。
論文 参考訳(メタデータ) (2022-10-19T18:00:18Z) - JoinABLe: Learning Bottom-up Assembly of Parametric CAD Joints [34.15876903985372]
JoinABLeは、パーツを組み立ててジョイントを形成する学習ベースの方法である。
以上の結果から, ソリッドモデルのグラフ表現上でネットワーク予測を行うことで, 精度79.53%の精度で複数のベースライン法を上回り, 性能80%に近づいた。
論文 参考訳(メタデータ) (2021-11-24T20:05:59Z) - A Differentiable Recipe for Learning Visual Non-Prehensile Planar
Manipulation [63.1610540170754]
視覚的非包括的平面操作の問題に焦点をあてる。
本稿では,ビデオデコードニューラルモデルと接触力学の先行情報を組み合わせた新しいアーキテクチャを提案する。
モジュラーで完全に差別化可能なアーキテクチャは、目に見えないオブジェクトやモーションの学習専用手法よりも優れていることが分かりました。
論文 参考訳(メタデータ) (2021-11-09T18:39:45Z) - V-MAO: Generative Modeling for Multi-Arm Manipulation of Articulated
Objects [51.79035249464852]
本稿では,音声による物体のマルチアーム操作を学習するためのフレームワークを提案する。
本フレームワークは,各ロボットアームの剛部上の接触点分布を学習する変動生成モデルを含む。
論文 参考訳(メタデータ) (2021-11-07T02:31:09Z) - SB-GCN: Structured BREP Graph Convolutional Network for Automatic Mating
of CAD Assemblies [3.732457298487595]
アセンブリモデリングは、現代のCADにおける支配的なデータ構造であるパラメトリック境界表現(BREP)を反映しているため、現代のCADシステムには直接適用されない。
本稿では,部品のトポロジ的構造を保持するBREPの表現学習手法であるSB-GCNを提案する。
論文 参考訳(メタデータ) (2021-05-25T22:07:55Z) - Reconstructing Interactive 3D Scenes by Panoptic Mapping and CAD Model
Alignments [81.38641691636847]
エンボディエージェントの観点から,シーン再構築の問題を再考する。
rgb-dデータストリームを用いてインタラクティブシーンを再構築する。
この再構成されたシーンは、密集したパノプティカルマップのオブジェクトメッシュを、部分ベースのCADモデルに置き換える。
論文 参考訳(メタデータ) (2021-03-30T05:56:58Z) - Where2Act: From Pixels to Actions for Articulated 3D Objects [54.19638599501286]
可動部を有する関節物体の押出しや引抜き等の基本動作に関連する高度に局所化された動作可能な情報を抽出する。
シミュレーションでネットワークをトレーニングできるオンラインデータサンプリング戦略を備えた学習から対話までのフレームワークを提案します。
私たちの学習モデルは、現実世界のデータにも転送します。
論文 参考訳(メタデータ) (2021-01-07T18:56:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。