論文の概要: Prompt2Craft: Generating Functional Craft Assemblies with LLMs
- arxiv url: http://arxiv.org/abs/2512.04568v1
- Date: Thu, 04 Dec 2025 08:32:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-05 21:11:46.072675
- Title: Prompt2Craft: Generating Functional Craft Assemblies with LLMs
- Title(参考訳): Prompt2Craft: LLMによる関数型クラフトアセンブリの生成
- Authors: Vitor Hideyo Isume, Takuya Kiyokawa, Natsuki Yamanobe, Yukiyasu Domae, Weiwei Wan, Kensuke Harada,
- Abstract要約: Craft Assembly Taskは、特定のターゲットオブジェクトの正確な表現を構築することを含む、ロボットアセンブリタスクである。
本研究は,対象物のRGB画像が野生である場合に,最終工芸品の利用可能なオブジェクトのサブセットを選択することに焦点を当てる。
我々は,すべての組み合わせを考慮に入れた比較のためのベースラインを開発し,前景地図やマスク精度で使用される共通指標の最高スコアの組み合わせを選択する。
- 参考スコア(独自算出の注目度): 11.638479761286382
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Inspired by traditional handmade crafts, where a person improvises assemblies based on the available objects, we formally introduce the Craft Assembly Task. It is a robotic assembly task that involves building an accurate representation of a given target object using the available objects, which do not directly correspond to its parts. In this work, we focus on selecting the subset of available objects for the final craft, when the given input is an RGB image of the target in the wild. We use a mask segmentation neural network to identify visible parts, followed by retrieving labeled template meshes. These meshes undergo pose optimization to determine the most suitable template. Then, we propose to simplify the parts of the transformed template mesh to primitive shapes like cuboids or cylinders. Finally, we design a search algorithm to find correspondences in the scene based on local and global proportions. We develop baselines for comparison that consider all possible combinations, and choose the highest scoring combination for common metrics used in foreground maps and mask accuracy. Our approach achieves comparable results to the baselines for two different scenes, and we show qualitative results for an implementation in a real-world scenario.
- Abstract(参考訳): 従来の手作り工芸品にインスパイアされ、利用可能なオブジェクトに基づいてアセンブリを即興で行うことで、クラフトアセンブリータスクを正式に導入する。
ロボット組立作業であり、使用可能なオブジェクトを使用して、そのパーツに直接対応しない所定の対象オブジェクトの正確な表現を構築する。
本研究は,対象物のRGB画像が野生である場合に,最終工芸品の利用可能なオブジェクトのサブセットを選択することに焦点を当てる。
マスクセグメンテーションニューラルネットワークを用いて可視な部分を識別し,次いでラベル付きテンプレートメッシュを検索する。
これらのメッシュは、最も適切なテンプレートを決定するために最適化される。
そこで本研究では,テンプレートメッシュの一部をキュービドやシリンダーなどの原始的な形状に簡略化することを提案する。
最後に,ローカルとグローバルの比率に基づいて,シーン内の対応関係を見つけるための探索アルゴリズムを設計する。
我々は,すべての組み合わせを考慮に入れた比較のためのベースラインを開発し,前景地図やマスク精度で使用される共通指標の最高スコアの組み合わせを選択する。
提案手法は2つの異なるシーンのベースラインに匹敵する結果を達成し,実世界のシナリオにおける実装の質的な結果を示す。
関連論文リスト
- IAAO: Interactive Affordance Learning for Articulated Objects in 3D Environments [56.85804719947]
IAAOは知的エージェントのための明示的な3Dモデルを構築するフレームワークで,対話を通して環境内の明瞭な物体の理解を得る。
マスク特徴とビュー一貫性ラベルを多視点画像から抽出し,まず3次元ガウススティング(3DGS)を用いて各オブジェクト状態の階層的特徴とラベルフィールドを構築する。
次に、3Dガウスプリミティブ上でオブジェクトと部分レベルのクエリを実行し、静的および明瞭な要素を識別し、大域的な変換と局所的な調音パラメータをアベイランスとともに推定する。
論文 参考訳(メタデータ) (2025-04-09T12:36:48Z) - LAC-Net: Linear-Fusion Attention-Guided Convolutional Network for Accurate Robotic Grasping Under the Occlusion [79.22197702626542]
本稿では, 乱れ場面におけるロボットグルーピングのためのアモーダルセグメンテーションを探求する枠組みを提案する。
線形融合注意誘導畳み込みネットワーク(LAC-Net)を提案する。
その結果,本手法が最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2024-08-06T14:50:48Z) - Component Selection for Craft Assembly Tasks [15.060298659447348]
Craft Assembly Taskは、特定のターゲットオブジェクトの正確な表現を構築することを含む、ロボットアセンブリタスクである。
本研究は,対象物のRGB画像が野生である場合に,最終工芸品の利用可能なオブジェクトのサブセットを選択することに焦点を当てる。
我々は,すべての組み合わせを考慮に入れた比較のためのベースラインを開発し,前景地図やマスク精度で使用される共通指標の最高スコアの組み合わせを選択する。
論文 参考訳(メタデータ) (2024-07-19T03:22:04Z) - ICGNet: A Unified Approach for Instance-Centric Grasping [42.92991092305974]
オブジェクト中心の把握のためのエンドツーエンドアーキテクチャを導入する。
提案手法の有効性を,合成データセット上での最先端手法に対して広範囲に評価することにより示す。
論文 参考訳(メタデータ) (2024-01-18T12:41:41Z) - Learning Co-segmentation by Segment Swapping for Retrieval and Discovery [67.6609943904996]
この研究の目的は、一対のイメージから視覚的に類似したパターンを効率的に識別することである。
画像中のオブジェクトセグメントを選択し、それを別の画像にコピーペーストすることで、合成トレーニングペアを生成する。
提案手法は,Brueghelデータセット上でのアートワークの詳細検索に対して,明確な改善をもたらすことを示す。
論文 参考訳(メタデータ) (2021-10-29T16:51:16Z) - RICE: Refining Instance Masks in Cluttered Environments with Graph
Neural Networks [53.15260967235835]
本稿では,インスタンスマスクのグラフベース表現を利用して,そのような手法の出力を改良する新しいフレームワークを提案する。
我々は、セグメンテーションにスマートな摂動をサンプリングできるディープネットワークと、オブジェクト間の関係をエンコード可能なグラフニューラルネットワークを訓練し、セグメンテーションを評価する。
本稿では,本手法によって生成された不確実性推定を用いてマニピュレータを誘導し,乱れたシーンを効率的に理解するアプリケーションについて紹介する。
論文 参考訳(メタデータ) (2021-06-29T20:29:29Z) - Compositional Sketch Search [91.84489055347585]
フリーハンドスケッチを用いて画像コレクションを検索するアルゴリズムを提案する。
シーン構成全体を特定するための簡潔で直感的な表現として描画を利用する。
論文 参考訳(メタデータ) (2021-06-15T09:38:09Z) - Localization and Mapping using Instance-specific Mesh Models [12.235379548921061]
本論文では,モノラルカメラを用いて,物体のポーズや形状を含むセマンティックマップの構築に焦点を当てる。
私たちの貢献は,カメラ画像から抽出した意味情報に基づいてオンラインに最適化可能な,オブジェクト形状のインスタンス固有メッシュモデルである。
論文 参考訳(メタデータ) (2021-03-08T00:24:23Z) - AutoSweep: Recovering 3D Editable Objectsfrom a Single Photograph [54.701098964773756]
セマンティックな部分で3Dオブジェクトを復元し、直接編集することを目的としている。
我々の研究は、一般化された立方体と一般化されたシリンダーという、2種類の原始的な形状の物体を回収する試みである。
提案アルゴリズムは,高品質な3Dモデルを復元し,既存手法のインスタンスセグメンテーションと3D再構成の両方で性能を向上する。
論文 参考訳(メタデータ) (2020-05-27T12:16:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。