論文の概要: McGAN: Generating Manufacturable Designs by Embedding Manufacturing Rules into Conditional Generative Adversarial Network
- arxiv url: http://arxiv.org/abs/2407.16943v1
- Date: Wed, 24 Jul 2024 02:23:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-25 15:02:58.574409
- Title: McGAN: Generating Manufacturable Designs by Embedding Manufacturing Rules into Conditional Generative Adversarial Network
- Title(参考訳): McGAN: 製造ルールを条件付き生成逆ネットワークに組み込むことで製造可能な設計を創出する
- Authors: Zhichao Wang, Xiaoliang Yan, Shreyes Melkote, David Rosen,
- Abstract要約: 本稿では,DFMルールを符号化するためにディープニューラルネットワークを用いた新しいジェネレーティブデザイン(GD)手法を提案する。
条件付き生成反転ニューラルネットワーク(cGAN)Pix2Pixは、製造不可能なサブリージョンを製造不能なサブリージョンに変換する。
結果は,既存の製造不可能な設計を変換して,対応する製造不可能な設計を自動生成できることを示唆している。
- 参考スコア(独自算出の注目度): 9.482982161281999
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative design (GD) methods aim to automatically generate a wide variety of designs that satisfy functional or aesthetic design requirements. However, research to date generally lacks considerations of manufacturability of the generated designs. To this end, we propose a novel GD approach by using deep neural networks to encode design for manufacturing (DFM) rules, thereby modifying part designs to make them manufacturable by a given manufacturing process. Specifically, a three-step approach is proposed: first, an instance segmentation method, Mask R-CNN, is used to decompose a part design into subregions. Second, a conditional generative adversarial neural network (cGAN), Pix2Pix, transforms unmanufacturable decomposed subregions into manufacturable subregions. The transformed subregions of designs are subsequently reintegrated into a unified manufacturable design. These three steps, Mask-RCNN, Pix2Pix, and reintegration, form the basis of the proposed Manufacturable conditional GAN (McGAN) framework. Experimental results show that McGAN can transform existing unmanufacturable designs to generate their corresponding manufacturable counterparts automatically that realize the specified manufacturing rules in an efficient and robust manner. The effectiveness of McGAN is demonstrated through two-dimensional design case studies of an injection molding process.
- Abstract(参考訳): ジェネレーティブデザイン(ジェネレーティブデザイン、Generative Design、GD)は、機能的あるいは審美的な設計要件を満たす幅広いデザインを自動的に生成することを目的としている。
しかしながら、これまでの研究は、生成した設計の製作可能性に関する考慮を欠いている。
そこで本研究では,深層ニューラルネットワークを用いてDFMルールを符号化し,部品設計を改良し,製造プロセスで製造できるようにする,新しいGD手法を提案する。
具体的には、3段階のアプローチが提案されている。まず、部分設計をサブリージョンに分解するために、インスタンスセグメンテーション手法であるMask R-CNNを使用する。
第2に、条件付き生成逆境ニューラルネットワーク(cGAN)Pix2Pixは、製造不可能な分解されたサブリージョンを製造不能なサブリージョンに変換する。
設計の変換されたサブリージョンはその後、統一された製造可能な設計に再統合される。
これらの3つのステップ、Mask-RCNN、Pix2Pix、再統合は、提案されたManufacturable Conditional GAN(McGAN)フレームワークの基礎となる。
実験結果から,McGANは既存の製造不可能な設計を変換して対応する製造不可能な設計を自動生成し,特定の製造ルールを効率的かつ堅牢に実現できることが示唆された。
射出成形プロセスの2次元設計ケーススタディにより, マクカンの有効性を実証した。
関連論文リスト
- Pre-training Point Cloud Compact Model with Partial-aware Reconstruction [51.403810709250024]
本稿では, 部分認識型textbfReconstruction を用いた, Point-CPR という事前学習型クラウド圧縮モデルを提案する。
我々のモデルは様々なタスクにおいて強い性能を示し、特にパラメータの2%しか持たない主要なMPMベースモデルであるPointGPT-Bを上回っている。
論文 参考訳(メタデータ) (2024-07-12T15:18:14Z) - Flatten Anything: Unsupervised Neural Surface Parameterization [76.4422287292541]
本研究では,FAM(Flatten Anything Model)を導入し,グローバルな自由境界面パラメータ化を実現する。
従来の手法と比較して,FAMは接続情報を活用することなく,個別の面上で直接動作する。
当社のFAMは前処理を必要とせずに完全に自動化されており,高度に複雑なトポロジを扱うことができる。
論文 参考訳(メタデータ) (2024-05-23T14:39:52Z) - Part-aware Shape Generation with Latent 3D Diffusion of Neural Voxel Fields [50.12118098874321]
ニューラルボクセル場に対する潜在3次元拡散過程を導入し,高分解能で生成を可能にする。
部分符号を神経ボクセル場に統合し、正確な部分分解を導出するために、部分認識形状復号器を導入する。
その結果,既存の最先端手法よりも優れた部品認識形状生成において,提案手法の優れた生成能力を示した。
論文 参考訳(メタデータ) (2024-05-02T04:31:17Z) - SMPLer: Taming Transformers for Monocular 3D Human Shape and Pose Estimation [74.07836010698801]
この問題に対処するために,SMPLベースのトランスフォーマーフレームワーク(SMPLer)を提案する。
SMPLerは、切り離された注意操作とSMPLベースのターゲット表現の2つの重要な要素を組み込んでいる。
SMPLerの既存の3次元人体形状に対する効果とポーズ推定方法の実証実験を行った。
論文 参考訳(メタデータ) (2024-04-23T17:59:59Z) - Deep Generative Design for Mass Production [17.60251862841578]
本稿では, ダイカストおよび射出成形に関連する制約をジェネレーティブ・デザインに組み込むことにより, 製造可能性の懸念に対処する革新的な枠組みを導入する。
この方法は複雑な3次元幾何学を製造可能なプロファイルに単純化し、製造不可能なオーバーハングのような実現不可能な特徴を除去する。
従来の3次元形状生成法よりも効率的な2次元生成モデルを採用することで、このアプローチをさらに強化する。
論文 参考訳(メタデータ) (2024-03-16T01:32:00Z) - Make-A-Shape: a Ten-Million-scale 3D Shape Model [55.34451258972251]
本稿では,大規模な効率的なトレーニングを目的とした新しい3次元生成モデルであるMake-A-Shapeを紹介する。
まずウェーブレットツリー表現を革新し、サブバンド係数フィルタリングスキームを定式化して形状をコンパクトに符号化する。
我々は、粗いウェーブレット係数の生成を効果的に学習するために、我々のモデルを訓練するためのサブバンド適応型トレーニング戦略を導出する。
論文 参考訳(メタデータ) (2024-01-20T00:21:58Z) - Latent Diffusion Models for Structural Component Design [11.342098118480802]
本稿では,構造部品の生成設計のための枠組みを提案する。
我々は、問題固有の負荷条件のセットを満たすことができるコンポーネントの潜在的な設計を生成するために、遅延拡散モデルを用いる。
論文 参考訳(メタデータ) (2023-09-20T19:28:45Z) - Adversarial Latent Autoencoder with Self-Attention for Structural Image
Synthesis [4.798729057063112]
本稿では, 複雑な工学部品の設計画像を生成可能な, 自己注意適応遅延オートエンコーダ (SA-ALAE) を提案する。
SA-ALAEでは、ユーザーは既存のデザインの新しいバリエーションを探索できるだけでなく、潜在空間で操作することで生成プロセスを制御できる。
論文 参考訳(メタデータ) (2023-07-19T17:50:03Z) - Sem2NeRF: Converting Single-View Semantic Masks to Neural Radiance
Fields [49.41982694533966]
本稿では,1つの単一ビューセマンティックマスクを入力として条件付けしたSemantic-to-NeRF変換を提案する。
特に、Sem2NeRFは、事前訓練されたデコーダの3Dシーン表現を制御する潜在コードにセマンティックマスクをエンコードすることで、非常に困難なタスクに対処する。
提案したSem2NeRFの有効性を検証し、2つのベンチマークデータセット上でいくつかの強いベースラインを上回ります。
論文 参考訳(メタデータ) (2022-03-21T09:15:58Z) - MO-PaDGAN: Generating Diverse Designs with Multivariate Performance
Enhancement [13.866787416457454]
深部生成モデルは自動設計合成と設計空間探索に有用であることが証明されている。
1) 生成した設計には多様性が欠けていること,2) 生成した設計のすべての性能指標を明示的に改善することが困難であること,3) 既存のモデルは一般に高性能な新規設計を生成できないこと,の3つの課題に直面する。
多様性と性能の確率的モデリングのための新しい決定点プロセスに基づく損失関数を含むMO-PaDGANを提案する。
論文 参考訳(メタデータ) (2020-07-07T21:57:29Z) - PaDGAN: A Generative Adversarial Network for Performance Augmented
Diverse Designs [13.866787416457454]
本研究では, 優れた設計空間を網羅した新規な高品質な設計を創出可能な, 高性能拡張多言語生成ネットワーク(Performance Augmented Diverse Generative Adversarial Network) または PaDGAN を開発した。
バニラ生成適応ネットワークと比較して、平均的な平均品質スコアが28%高く、多様性が大きく、モード崩壊の問題がないサンプルを生成する。
論文 参考訳(メタデータ) (2020-02-26T04:53:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。