論文の概要: Freehand Sketch Generation from Mechanical Components
- arxiv url: http://arxiv.org/abs/2408.05966v2
- Date: Wed, 21 Aug 2024 10:28:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-22 21:36:42.797617
- Title: Freehand Sketch Generation from Mechanical Components
- Title(参考訳): 機械部品からのフリーハンドスケッチ生成
- Authors: Zhichao Liao, Di Huang, Heming Fang, Yue Ma, Fengyuan Piao, Xinghui Li, Long Zeng, Pingfa Feng,
- Abstract要約: MSFormerは、機械部品用に調整されたヒューマノイドフリーハンドスケッチを初めて製作した。
第1段階では、機械部品からマルチビューの輪郭スケッチを得るためにOpen CASCADE技術を採用している。
第2段階では、輪郭スケッチをトランスフォーマーベースのジェネレータによるフリーハンドスケッチに変換する。
- 参考スコア(独自算出の注目度): 16.761960706420066
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Drawing freehand sketches of mechanical components on multimedia devices for AI-based engineering modeling has become a new trend. However, its development is being impeded because existing works cannot produce suitable sketches for data-driven research. These works either generate sketches lacking a freehand style or utilize generative models not originally designed for this task resulting in poor effectiveness. To address this issue, we design a two-stage generative framework mimicking the human sketching behavior pattern, called MSFormer, which is the first time to produce humanoid freehand sketches tailored for mechanical components. The first stage employs Open CASCADE technology to obtain multi-view contour sketches from mechanical components, filtering perturbing signals for the ensuing generation process. Meanwhile, we design a view selector to simulate viewpoint selection tasks during human sketching for picking out information-rich sketches. The second stage translates contour sketches into freehand sketches by a transformer-based generator. To retain essential modeling features as much as possible and rationalize stroke distribution, we introduce a novel edge-constraint stroke initialization. Furthermore, we utilize a CLIP vision encoder and a new loss function incorporating the Hausdorff distance to enhance the generalizability and robustness of the model. Extensive experiments demonstrate that our approach achieves state-of-the-art performance for generating freehand sketches in the mechanical domain. Project page: https://mcfreeskegen.github.io .
- Abstract(参考訳): AIベースのエンジニアリングモデリングのためのマルチメディアデバイス上の機械部品のフリーハンドスケッチは、新しいトレンドとなっている。
しかし、既存の研究はデータ駆動研究に適したスケッチを作成できないため、その開発は妨げられている。
これらの作品はフリーハンドスタイルを欠いたスケッチを生成するか、そもそもこのタスクのために設計されていない生成モデルを利用するかのいずれかで、効果は低い。
この問題を解決するために,機械部品に適したヒューマノイドフリーハンドスケッチを初めて作成したMSFormerという,人間のスケッチ動作パターンを模倣した2段階の生成フレームワークを設計した。
第1段階では、Open CASCADE技術を用いて、機械部品からマルチビューの輪郭スケッチを取得し、続く生成プロセスのために摂動信号をフィルタリングする。
一方、情報豊富なスケッチを抽出するために、人間のスケッチ中に視点選択タスクをシミュレートするビューセレクタを設計する。
第2ステージでは、輪郭スケッチをトランスフォーマーベースのジェネレータによるフリーハンドスケッチに変換する。
できるだけ重要なモデリング機能を維持し,脳卒中分布を合理化するために,新しいエッジ制約脳卒中初期化を導入する。
さらに,CLIPビジョンエンコーダとハウスドルフ距離を組み込んだ新たな損失関数を用いて,モデルの一般化性とロバスト性を向上させる。
機械的領域におけるフリーハンドスケッチを生成するために,本手法が最先端の性能を実現することを実証した。
プロジェクトページ: https://mcfreeskegen.github.io 。
関連論文リスト
- Customize StyleGAN with One Hand Sketch [0.0]
本稿では,単一のユーザスケッチでスタイルGAN画像を制御するフレームワークを提案する。
我々は、エネルギーベース学習により、事前学習したStyleGANモデルの潜在空間における条件分布を学習する。
我々のモデルは、入力スケッチにセマンティックに整合したマルチモーダル画像を生成することができる。
論文 参考訳(メタデータ) (2023-10-29T09:32:33Z) - SENS: Part-Aware Sketch-based Implicit Neural Shape Modeling [124.3266213819203]
SENSは手描きスケッチから3Dモデルを生成し編集するための新しい手法である。
SENSはスケッチを分析し、部品をViTパッチエンコーディングにエンコードする。
SENSは部分再構成による精細化をサポートし、微調整とアーティファクトの除去を可能にする。
論文 参考訳(メタデータ) (2023-06-09T17:50:53Z) - ExtrudeNet: Unsupervised Inverse Sketch-and-Extrude for Shape Parsing [46.778258706603005]
本稿では,逆スケッチ・アンド・エクスクルードによる点雲形状の学習問題について検討する。
本稿では,ポイントクラウドからスケッチを発見して抽出する,教師なしのエンドツーエンドネットワークであるExtrudeNetを提案する。
論文 参考訳(メタデータ) (2022-09-30T17:58:11Z) - I Know What You Draw: Learning Grasp Detection Conditioned on a Few
Freehand Sketches [74.63313641583602]
そこで本研究では,スケッチ画像に関連のある潜在的な把握構成を生成する手法を提案する。
私たちのモデルは、現実世界のアプリケーションで簡単に実装できるエンドツーエンドで訓練され、テストされています。
論文 参考訳(メタデータ) (2022-05-09T04:23:36Z) - Vitruvion: A Generative Model of Parametric CAD Sketches [22.65229769427499]
本稿では,パラメトリックCADスケッチの生成モデルを提案する。
我々のモデルは、SketchGraphsデータセットから実世界のデザインを訓練し、スケッチをプリミティブのシーケンスとして自動回帰的に合成する。
我々は、部分スケッチ(プライマー)や手描きスケッチのイメージなど、様々な文脈でモデルを条件付けする。
論文 参考訳(メタデータ) (2021-09-29T01:02:30Z) - Engineering Sketch Generation for Computer-Aided Design [10.732102570751392]
エンジニアリングスケッチ生成のための2つの生成モデルであるCurveGenとTurtleGenを提案する。
どちらのモデルも、スケッチ制約を解く必要なしに曲線プリミティブを生成する。
私たちは、CurveGenとTurtleGenの両方がより現実的なエンジニアリングスケッチを生成する人間の被験者を使用して知覚評価で見つける。
論文 参考訳(メタデータ) (2021-04-19T20:38:36Z) - B\'ezierSketch: A generative model for scalable vector sketches [132.5223191478268]
B'ezierSketchは、完全ベクトルスケッチのための新しい生成モデルであり、自動的にスケーラブルで高解像度である。
まず,各ストロークを最適なB'ezier曲線に埋め込むようにエンコーダを訓練する。
これにより、スケッチをパラマタライズされたストロークの短いシーケンスとして扱うことができ、これにより、より長いスケッチのために、より多くのキャパシティを持つ再帰的なスケッチジェネレータを訓練することができる。
論文 参考訳(メタデータ) (2020-07-04T21:30:52Z) - Deep Self-Supervised Representation Learning for Free-Hand Sketch [51.101565480583304]
フリーハンドスケッチにおける自己指導型表現学習の課題に対処する。
自己教師型学習パラダイムの成功の鍵は、スケッチ固有の設計にある。
提案手法は最先端の教師なし表現学習法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-02-03T16:28:29Z) - Deep Plastic Surgery: Robust and Controllable Image Editing with
Human-Drawn Sketches [133.01690754567252]
スケッチベースの画像編集は、人間の描いたスケッチによって提供される構造情報に基づいて、写真を合成し、修正することを目的としている。
Deep Plastic Surgeryは、手書きのスケッチ入力を使って画像のインタラクティブな編集を可能にする、新しくて堅牢で制御可能な画像編集フレームワークである。
論文 参考訳(メタデータ) (2020-01-09T08:57:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。