論文の概要: AutoSew: A Geometric Approach to Stitching Prediction with Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2602.22052v1
- Date: Wed, 25 Feb 2026 16:03:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.894332
- Title: AutoSew: A Geometric Approach to Stitching Prediction with Graph Neural Networks
- Title(参考訳): AutoSew: グラフニューラルネットワークによるスティッチ予測のための幾何学的アプローチ
- Authors: Pablo Ríos-Navarro, Elena Garces, Jorge Lopez-Moreno,
- Abstract要約: AutoSewは2Dパターンの輪郭から直接縫合を予測するための完全に自動化された幾何学に基づくアプローチである。
以上の結果から,幾何学だけで縫合予測を堅牢に導くことができ,手動入力なしで衣服の組立が可能であることが示唆された。
- 参考スコア(独自算出の注目度): 7.313535700970323
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Automating garment assembly from sewing patterns remains a significant challenge due to the lack of standardized annotation protocols and the frequent absence of semantic cues. Existing methods often rely on panel labels or handcrafted heuristics, which limit their applicability to real-world, non-conforming patterns. We present AutoSew, a fully automatic, geometry-based approach for predicting stitch correspondences directly from 2D pattern contours. AutoSew formulates the problem as a graph matching task, leveraging a Graph Neural Network to capture local and global geometric context, and employing a differentiable optimal transport solver to infer stitching relationships-including multi-edge connections. To support this task, we update the GarmentCodeData dataset modifying over 18k patterns with realistic multi-edge annotations, reflecting industrial assembly scenarios. AutoSew achieves 96% F1-score and successfully assembles 73.3% of test garments without error, outperforming existing methods while relying solely on geometric input. Our results demonstrate that geometry alone can robustly guide stitching prediction, enabling scalable garment assembly without manual input.
- Abstract(参考訳): 縫製パターンからの衣服の集合の自動化は、標準化されたアノテーションプロトコルの欠如と、セマンティック・キューの頻繁な欠如により、依然として大きな課題である。
既存の手法は、しばしばパネルラベルや手作りのヒューリスティックに頼っている。
本稿では2次元パターン輪郭から縫合文を直接予測する完全自動幾何に基づく手法AutoSewを提案する。
AutoSewは、グラフマッチングタスクとして問題を定式化し、グラフニューラルネットワークを利用して局所的およびグローバルな幾何学的コンテキストを捉える。
このタスクをサポートするため、産業的なアセンブリシナリオを反映して、現実的なマルチエッジアノテーションで18Kパターンを修正したGarmentCodeDataデータセットを更新します。
AutoSewは96%のF1スコアを獲得し、73.3%のテスト服を誤りなく組み立てることに成功した。
以上の結果から,手動入力を使わずに縫合予測を堅牢に導出できることが示唆された。
関連論文リスト
- Automated rock joint trace mapping using a supervised learning model trained on synthetic data generated by parametric modelling [2.0299248281970956]
本稿では,画像からの岩盤跡の自動マッピングのための地質学習手法を提案する。
この手法は、地質モデリング、合成データ生成、教師付きイメージセグメンテーションを組み合わせて、限られた実データとクラス不均衡に対処する。
論文 参考訳(メタデータ) (2026-02-07T15:37:02Z) - AutoPrune: Each Complexity Deserves a Pruning Policy [58.448785378705566]
Complexity Pruning(AutoPrune)は、プルングポリシーをさまざまなサンプルやタスクの複雑さに合わせて調整する、トレーニングフリーのプラグイン・アンド・プレイフレームワークである。
我々はAutoPruneを、標準的な視覚適応タスクと、自律運転のためのビジョン・ランゲージ・アクションモデルで評価する。
論文 参考訳(メタデータ) (2025-09-28T15:09:00Z) - Neural Semantic Surface Maps [52.61017226479506]
本稿では,2つの属とゼロの形状の地図を自動計算する手法を提案する。
提案手法は,手動のアノテーションや3Dトレーニングデータ要求を排除し,意味的表面-表面マップを生成する。
論文 参考訳(メタデータ) (2023-09-09T16:21:56Z) - Graph Auto-Encoders for Network Completion [6.1074304332419675]
本稿では,ネットワークの観測部分から学習した接続パターンを用いてグラフ全体を完成させるモデルを提案する。
提案モデルでは,少ない情報で競合性能を達成できた。
論文 参考訳(メタデータ) (2022-04-25T05:24:45Z) - Exploring Edge Disentanglement for Node Classification [34.81248024048974]
実世界のグラフのエッジは、典型的には様々な要因によって形成され、多様な関係意味論を持つ。
本稿では,3つの前提条件を提案し,それに対応する3つのタスクを設計する。
DisGNNは、さまざまなニューラルネットワークに簡単に組み込むことができ、現実世界のデータセットで6ドル(約6,300円)で実験を行います。
論文 参考訳(メタデータ) (2022-02-23T00:31:37Z) - RNGDet: Road Network Graph Detection by Transformer in Aerial Images [19.141279413414082]
道路ネットワークグラフは、自動運転車アプリケーションにとって重要な情報を提供する。
手動でアノテートする道路ネットワークグラフは非効率で労働集約的です。
RNGDetという変圧器と模倣学習に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2022-02-16T01:59:41Z) - Primal-Dual Mesh Convolutional Neural Networks [62.165239866312334]
本稿では,グラフ・ニューラル・ネットワークの文献からトライアングル・メッシュへ引き起こされた原始双対のフレームワークを提案する。
提案手法は,3次元メッシュのエッジと顔の両方を入力として特徴付け,動的に集約する。
メッシュ単純化の文献から得られたツールを用いて、我々のアプローチに関する理論的知見を提供する。
論文 参考訳(メタデータ) (2020-10-23T14:49:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。