論文の概要: Fit2Form: 3D Generative Model for Robot Gripper Form Design
- arxiv url: http://arxiv.org/abs/2011.06498v1
- Date: Thu, 12 Nov 2020 17:09:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 06:14:07.684617
- Title: Fit2Form: 3D Generative Model for Robot Gripper Form Design
- Title(参考訳): Fit2Form:ロボットグリッパー形状設計のための3次元生成モデル
- Authors: Huy Ha, Shubham Agrawal, Shuran Song
- Abstract要約: ロボットのエンドエフェクターの3次元形状は、その機能と全体的な性能を決定する上で重要な役割を果たす。
多くの産業アプリケーションは、システムの堅牢性と正確性を保証するためにタスク固有のグリッパー設計に依存している。
この研究の目的は、機械学習アルゴリズムを使用してタスク固有のグリップパー指の設計を自動化することである。
- 参考スコア(独自算出の注目度): 17.77153086504066
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The 3D shape of a robot's end-effector plays a critical role in determining
it's functionality and overall performance. Many industrial applications rely
on task-specific gripper designs to ensure the system's robustness and
accuracy. However, the process of manual hardware design is both costly and
time-consuming, and the quality of the resulting design is dependent on the
engineer's experience and domain expertise, which can easily be out-dated or
inaccurate. The goal of this work is to use machine learning algorithms to
automate the design of task-specific gripper fingers. We propose Fit2Form, a 3D
generative design framework that generates pairs of finger shapes to maximize
design objectives (i.e., grasp success, stability, and robustness) for target
grasp objects. We model the design objectives by training a Fitness network to
predict their values for pairs of gripper fingers and their corresponding grasp
objects. This Fitness network then provides supervision to a 3D Generative
network that produces a pair of 3D finger geometries for the target grasp
object. Our experiments demonstrate that the proposed 3D generative design
framework generates parallel jaw gripper finger shapes that achieve more stable
and robust grasps compared to other general-purpose and task-specific gripper
design algorithms. Video can be found at https://youtu.be/utKHP3qb1bg.
- Abstract(参考訳): ロボットのエンドエフェクターの3次元形状は、その機能と全体的な性能を決定する上で重要な役割を果たす。
多くの産業アプリケーションは、システムの堅牢性と正確性を保証するためにタスク固有のグリッパー設計に依存している。
しかし、手動のハードウェア設計のプロセスはコストも時間もかかり、結果として得られる設計の質はエンジニアの経験やドメインの専門知識に依存するため、時代遅れや不正確なことが容易にできる。
この研究の目標は、機械学習アルゴリズムを使用してタスク固有のグリッパー指の設計を自動化することである。
対象物に対する設計目的(成功,安定性,堅牢性)を最大化するために,指形状のペアを生成する3次元生成設計フレームワークFit2Formを提案する。
本研究では, 適応ネットワークを訓練し, グリッパー指のペアと対応する把持対象の値を予測することにより, 設計目標をモデル化する。
このFitnessネットワークは、3D生成ネットワークを監督し、ターゲットの把握対象に対して一対の3Dフィンガージオメトリを生成する。
提案手法は,他の汎用およびタスク固有のグリップパー設計アルゴリズムと比較して,より安定かつ頑健なグリップを達成できる並列顎グリップパー形状を生成する。
ビデオはhttps://youtu.be/utKHP3qb1bgで見ることができる。
関連論文リスト
- ShapeCraft: Body-Aware and Semantics-Aware 3D Object Design [19.543575491040375]
本稿では,ベースメッシュから身体を意識した3Dオブジェクトを合成する手法を提案する。
生成されたオブジェクトは、仮想文字でシミュレートしたり、現実世界での使用のために製造することができる。
論文 参考訳(メタデータ) (2024-12-05T05:41:34Z) - Robust 3D Tracking with Quality-Aware Shape Completion [67.9748164949519]
そこで本研究では,高密度および完全点の雲からなる合成対象表現について,ロバストな3次元追跡のための形状完備化により正確に表現する。
具体的には, 形状が整ったボキセル化3次元追跡フレームワークを設計し, ノイズのある歴史的予測の悪影響を軽減するために, 品質に配慮した形状完備化機構を提案する。
論文 参考訳(メタデータ) (2023-12-17T04:50:24Z) - Learning Effective NeRFs and SDFs Representations with 3D Generative Adversarial Networks for 3D Object Generation [27.068337487647156]
ICCV 2023 OmniObject3D Challengeの3次元オブジェクト生成ソリューションを提案する。
本研究では,3次元オブジェクト生成のための3次元生成支援ネットワーク(GAN)を用いた学習効率の高いNeRFとSDFの表現について検討する。
このソリューションはICCV 2023 OmniObject3D Challengeでトップ3に入っている。
論文 参考訳(メタデータ) (2023-09-28T02:23:46Z) - SketchMetaFace: A Learning-based Sketching Interface for High-fidelity
3D Character Face Modeling [69.28254439393298]
SketchMetaFaceは、アマチュアユーザーを対象に、高忠実度3D顔を数分でモデリングするスケッチシステムである。
我々は"Implicit and Depth Guided Mesh Modeling"(IDGMM)と呼ばれる新しい学習ベース手法を開発した。
メッシュ、暗黙、深度表現の利点を融合させ、高い効率で高品質な結果を達成する。
論文 参考訳(メタデータ) (2023-07-03T07:41:07Z) - DeformerNet: Learning Bimanual Manipulation of 3D Deformable Objects [13.138509669247508]
弾性、3次元変形可能な物体の解析モデルは、物体の形状を決定する際に存在する潜在的無限の自由度を記述するために、多数のパラメータを必要とする。
従来の3D形状制御の試みは、オブジェクト形状を表現するために手作りの特徴に依存しており、オブジェクト固有の制御モデルの訓練が必要である。
DeformerNetニューラルネットワークアーキテクチャは、操作対象の部分ビューポイントクラウドと目標形状のポイントクラウドで動作する。
この形状埋め込みにより、ロボットは必要なロボットのエンドエフェクタ動作を計算するビジュアルサーボコントローラを学習することができる。
論文 参考訳(メタデータ) (2023-05-08T04:08:06Z) - Can We Solve 3D Vision Tasks Starting from A 2D Vision Transformer? [111.11502241431286]
視覚変換器(ViT)は2次元画像理解タスクの解決に有効であることが証明されている。
2Dおよび3Dタスク用のViTは、これまでほとんど転送できない、非常に異なるアーキテクチャ設計を採用してきた。
本稿では,標準的な2D ViTアーキテクチャを用いて,3次元視覚世界を理解するという魅力的な約束を示す。
論文 参考訳(メタデータ) (2022-09-15T03:34:58Z) - Learning Visual Shape Control of Novel 3D Deformable Objects from
Partial-View Point Clouds [7.1659268120093635]
弾性、3次元変形可能な物体の解析モデルは、物体の形状を決定する際に存在する潜在的無限の自由度を記述するために、多数のパラメータを必要とする。
従来の3D形状制御の試みは、オブジェクト形状を表現するために手作りの特徴に依存しており、オブジェクト固有の制御モデルの訓練が必要である。
DeformerNetニューラルネットワークアーキテクチャは、操作対象の部分的な視点クラウドと目標形状の点クラウドで動作し、オブジェクト形状の低次元表現を学習する。
論文 参考訳(メタデータ) (2021-10-10T02:34:57Z) - 3D Neural Scene Representations for Visuomotor Control [78.79583457239836]
我々は2次元視覚観測から動的3次元シーンのモデルを純粋に学習する。
学習した表現空間上に構築された動的モデルにより,操作課題に対するビジュモータ制御が可能となる。
論文 参考訳(メタデータ) (2021-07-08T17:49:37Z) - Unsupervised Learning of Visual 3D Keypoints for Control [104.92063943162896]
高次元画像からの感覚運動制御ポリシーの学習は、基礎となる視覚表現の品質に大きく依存する。
本稿では,画像から3次元幾何学的構造を直接教師なしで学習するフレームワークを提案する。
これらの発見された3Dキーポイントは、時間と3D空間の両方で一貫した方法で、ロボットの関節と物体の動きを有意義にキャプチャする傾向がある。
論文 参考訳(メタデータ) (2021-06-14T17:59:59Z) - Building-GAN: Graph-Conditioned Architectural Volumetric Design
Generation [10.024367148266721]
本稿では,入力プログラムグラフに基づくボリュームデザイン生成について述べる。
密度の高い3次元ボクセルを出力する代わりに、ジオメトリを構築するためにコンパクトかつ表現性の高い新しい3次元表現であるボクセルグラフを提案する。
私たちのジェネレータは、入力プログラムグラフと出力ボキセルグラフを接続するためのポインタメカニズムを使用するクロスモーダルグラフニューラルネットワークであり、パイプライン全体が逆のフレームワークを使用して訓練されます。
論文 参考訳(メタデータ) (2021-04-27T16:49:34Z) - Interactive Annotation of 3D Object Geometry using 2D Scribbles [84.51514043814066]
本稿では,ポイントクラウドデータとRGB画像から3次元オブジェクト形状をアノテートする対話型フレームワークを提案する。
当社のフレームワークは,芸術的,グラフィック的専門知識のないナイーブユーザを対象としている。
論文 参考訳(メタデータ) (2020-08-24T21:51:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。