論文の概要: ShapeGen3DCP: A Deep Learning Framework for Layer Shape Prediction in 3D Concrete Printing
- arxiv url: http://arxiv.org/abs/2510.02009v1
- Date: Thu, 02 Oct 2025 13:30:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 14:32:17.277735
- Title: ShapeGen3DCP: A Deep Learning Framework for Layer Shape Prediction in 3D Concrete Printing
- Title(参考訳): ShapeGen3DCP:3次元コンクリート印刷における層形状予測のための深層学習フレームワーク
- Authors: Giacomo Rizzieri, Federico Lanteri, Liberato Ferrara, Massimiliano Cremonesi,
- Abstract要約: 本研究は3次元コンクリート印刷におけるフィラメント断面形状予測のための深層学習フレームワークであるShapeGen3DCPを紹介する(3DCP)。
このフレームワークは、流体状態(密度、降伏応力、塑性粘度)の材料特性とプロセスパラメータ(ノズル径、ノズル高さ、印刷速度、流れ速度)の両方を入力として、押出層形状を直接予測するニューラルネットワークアーキテクチャに基づいている。
トレーニングデータセットは、3DCPの確立されたパーティクル有限要素(PFEM)モデルを用いて合成され、実験データの不足を克服した。
- 参考スコア(独自算出の注目度): 0.4666493857924357
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This work introduces ShapeGen3DCP, a deep learning framework for fast and accurate prediction of filament cross-sectional geometry in 3D Concrete Printing (3DCP). The method is based on a neural network architecture that takes as input both material properties in the fluid state (density, yield stress, plastic viscosity) and process parameters (nozzle diameter, nozzle height, printing and flow velocities) to directly predict extruded layer shapes. To enhance generalization, some inputs are reformulated into dimensionless parameters that capture underlying physical principles. Predicted geometries are compactly represented using Fourier descriptors, which enforce smooth, closed, and symmetric profiles while reducing the prediction task to a small set of coefficients. The training dataset was synthetically generated using a well-established Particle Finite Element (PFEM) model of 3DCP, overcoming the scarcity of experimental data. Validation against diverse numerical and experimental cases shows strong agreement, confirming the framework's accuracy and reliability. This opens the way to practical uses ranging from pre-calibration of print settings, minimizing or even eliminating trial-and-error adjustments, to toolpath optimization for more advanced designs. Looking ahead, coupling the framework with simulations and sensor feedback could enable closed-loop digital twins for 3DCP, driving real-time process optimization, defect detection, and adaptive control of printing parameters.
- Abstract(参考訳): 本研究では, 3次元コンクリート印刷におけるフィラメント断面形状の高速かつ正確な予測を行うためのディープラーニングフレームワークであるShapeGen3DCPを紹介する。
この方法は、流体状態(密度、降伏応力、塑性粘度)の材料特性とプロセスパラメータ(ノズル径、ノズル高さ、印刷速度、流れ速度)の両方を入力として、押出層形状を直接予測するニューラルネットワークアーキテクチャに基づいている。
一般化を強化するために、いくつかの入力は、基礎となる物理原理を捉えた次元のないパラメータに再構成される。
予測されたジオメトリは、滑らかで閉かつ対称なプロファイルを強制するフーリエ記述子を用いてコンパクトに表現され、予測タスクを小さな係数の集合に還元する。
トレーニングデータセットは、3DCPの確立されたパーティクル有限要素(PFEM)モデルを用いて合成され、実験データの不足を克服した。
多様な数値および実験事例に対する検証は、フレームワークの正確性と信頼性を確認し、強い一致を示している。
これにより、印刷設定の事前校正、試行錯誤調整の最小化、さらには排除まで、より高度な設計のためのツールパス最適化まで、実用的利用の道を開くことができる。
今後は、シミュレーションやセンサフィードバックと組み合わせることで、3DCPのためのクローズループデジタルツイン、リアルタイムプロセス最適化、欠陥検出、印刷パラメータの適応制御が可能になるだろう。
関連論文リスト
- PI3DETR: Parametric Instance Detection of 3D Point Cloud Edges with a Geometry-Aware 3DETR [0.0]
本稿では,原点雲から3次元パラメトリック曲線を直接予測するエンドツーエンドフレームワークPI3DETRを提案する。
PI3DETRはABCデータセットに新たな最先端技術を設定し、実際のセンサデータに効果的に一般化し、3Dエッジと曲線推定のためのシンプルで強力なソリューションを提供する。
論文 参考訳(メタデータ) (2025-09-03T12:24:25Z) - Adaptive Point-Prompt Tuning: Fine-Tuning Heterogeneous Foundation Models for 3D Point Cloud Analysis [51.37795317716487]
本稿では,パラメータの少ない事前学習モデルを微調整するAdaptive Point-Prompt Tuning (APPT)法を提案する。
局所幾何学を集約することで原点雲を点埋め込みに変換し、空間的特徴を捉える。
任意のモダリティのソース領域から3Dへの自己アテンションを校正するために,重みを点埋め込みモジュールと共有するプロンプトジェネレータを導入する。
論文 参考訳(メタデータ) (2025-08-30T06:02:21Z) - Pseudo Depth Meets Gaussian: A Feed-forward RGB SLAM Baseline [64.42938561167402]
本稿では,3次元ガウス型SLAMとフィードフォワードリカレント予測モジュールを組み合わせたオンライン3次元再構成手法を提案する。
このアプローチは、遅いテスト時間の最適化を高速なネットワーク推論に置き換え、トラッキング速度を大幅に改善する。
提案手法は,最先端のSplaTAMと同等の性能を示しながら,追跡時間を90%以上削減する。
論文 参考訳(メタデータ) (2025-08-06T16:16:58Z) - GraphCompNet: A Position-Aware Model for Predicting and Compensating Shape Deviations in 3D Printing [46.76421610124468]
本稿では、添加性製造(AM)における形状偏差のモデル化と補償のためのデータ駆動アルゴリズムを提案する。
機械学習(ML)の最近の進歩により補償精度は向上しているが、複雑な地形をまたいで一般化し、位置依存的な変化に適応する問題は残っている。
本稿では,グラフベースニューラルネットワークとGAN(Generative Adversarial Network)にインスパイアされたトレーニングプロセスを組み合わせた計算フレームワークであるGraphCompNetを用いて,粉体層融合プロセスの新しいアプローチを提案する。
論文 参考訳(メタデータ) (2025-02-11T20:22:00Z) - Regularized interpolation in 4D neural fields enables optimization of 3D printed geometries [0.0]
3Dプリンティングには、例外的なデザインの自由と複雑さが特徴だ。
また、その潜在能力を最大限に発揮するためには、幾何学的な欠陥やその他の欠陥も解決しなければならない。
論文 参考訳(メタデータ) (2025-02-03T16:50:57Z) - Data-Driven, Parameterized Reduced-order Models for Predicting Distortion in Metal 3D Printing [39.58317527488534]
本研究では, レーザ粉層融合(LPBF)における歪み予測のためのデータ駆動型パラメータ化低次モデル(ROM)を提案する。
本稿では,正規直交分解(POD)とガウスプロセス回帰(GPR)を組み合わせたROMフレームワークを提案し,その性能をディープラーニングに基づくパラメータ化グラフ畳み込みオートエンコーダ(GCA)と比較する。
POD-GPRモデルは高い精度を示し、pm0.001mm$以内の歪みを予測し、約1800倍の計算速度を提供する。
論文 参考訳(メタデータ) (2024-12-05T19:47:25Z) - Flatten Anything: Unsupervised Neural Surface Parameterization [76.4422287292541]
本研究では,FAM(Flatten Anything Model)を導入し,グローバルな自由境界面パラメータ化を実現する。
従来の手法と比較して,FAMは接続情報を活用することなく,個別の面上で直接動作する。
当社のFAMは前処理を必要とせずに完全に自動化されており,高度に複雑なトポロジを扱うことができる。
論文 参考訳(メタデータ) (2024-05-23T14:39:52Z) - Scene Synthesis via Uncertainty-Driven Attribute Synchronization [52.31834816911887]
本稿では,3次元シーンの多様な特徴パターンを捉えるニューラルシーン合成手法を提案する。
提案手法は,ニューラルネットワークと従来のシーン合成手法の双方の長所を結合する。
論文 参考訳(メタデータ) (2021-08-30T19:45:07Z) - Reinforced Axial Refinement Network for Monocular 3D Object Detection [160.34246529816085]
モノクロ3次元物体検出は、2次元入力画像から物体の位置と特性を抽出することを目的としている。
従来のアプローチでは、空間から3D境界ボックスをサンプリングし、対象オブジェクトと各オブジェクトの関係を推定するが、有効サンプルの確率は3D空間で比較的小さい。
我々は,まず最初の予測から始めて,各ステップで1つの3dパラメータだけを変えて,基礎的真理に向けて徐々に洗練することを提案する。
これは、いくつかのステップの後に報酬を得るポリシーを設計する必要があるため、最適化するために強化学習を採用します。
論文 参考訳(メタデータ) (2020-08-31T17:10:48Z) - A Deep Learning Framework for Simulation and Defect Prediction Applied
in Microelectronics [3.8698051494433043]
本稿では,3次元畳み込みニューラルネットワーク(DCNN)に基づくアーキテクチャを提案し,製造パラメータの幾何学的変動をモデル化する。
我々は最近発表されたPCBスキャンデータセットを用いて,マイクロエレクトロニクスのユースケースに関する枠組みを検証する。
論文 参考訳(メタデータ) (2020-02-25T15:54:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。