論文の概要: Technology prediction of a 3D model using Neural Network
- arxiv url: http://arxiv.org/abs/2505.04241v2
- Date: Thu, 04 Sep 2025 08:23:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-05 14:03:58.72395
- Title: Technology prediction of a 3D model using Neural Network
- Title(参考訳): ニューラルネットワークによる3次元モデルの予測
- Authors: Grzegorz Miebs, Rafał A. Bachorz,
- Abstract要約: 本稿では、露光したジオメトリを持つ製品の3次元モデルから製造工程とその持続時間を直接予測するデータ駆動型アプローチを提案する。
モデルを複数の2Dイメージにレンダリングし、Generative Query Networkにインスパイアされたニューラルネットワークを活用することにより、事前に定義された生産段階の幾何学的特徴を3秒以下の平均絶対誤差で時間推定にマッピングすることを学ぶ。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate estimation of production times is critical for effective manufacturing scheduling, yet traditional methods relying on expert analysis or historical data often fall short in dynamic or customized production environments. This paper introduces a data-driven approach that predicts manufacturing steps and their durations directly from 3D models of products with exposed geometries. By rendering the model into multiple 2D images and leveraging a neural network inspired by the Generative Query Network, the method learns to map geometric features into time estimates for predefined production steps with a mean absolute error below 3 seconds making planning across varied product types easier.
- Abstract(参考訳): 生産時間の正確な推定は、効率的な製造スケジューリングには不可欠であるが、専門家分析や過去のデータに依存する従来の手法は、動的またはカスタマイズされた生産環境では不足することが多い。
本稿では、露光したジオメトリを持つ製品の3次元モデルから製造工程とその持続時間を直接予測するデータ駆動型アプローチを提案する。
複数の2D画像にモデルをレンダリングし、Generative Query Networkにインスパイアされたニューラルネットワークを活用することにより、事前に定義された生産工程の時間推定に幾何学的特徴をマッピングし、平均絶対誤差を3秒未満とすることで、さまざまな製品タイプでの計画がより簡単になる。
関連論文リスト
- Geometry and Perception Guided Gaussians for Multiview-consistent 3D Generation from a Single Image [10.648593818811976]
既存のアプローチはしばしば、微調整された事前訓練された2D拡散モデルや、高速ネットワーク推論を通じて直接3D情報を生成することに依存している。
本稿では,新たなモデルトレーニングを必要とせず,幾何学と知覚情報をシームレスに統合する新しい手法を提案する。
実験結果から,新しい視点合成法や3次元再構成法よりも優れ,頑健で一貫した3次元オブジェクト生成を実証した。
論文 参考訳(メタデータ) (2025-06-26T11:22:06Z) - Sparse Attention-driven Quality Prediction for Production Process Optimization in Digital Twins [53.70191138561039]
データ駆動方式で運用ロジックを符号化することで,生産ラインのディジタルツインをデプロイすることを提案する。
我々は,自己注意型時間畳み込みニューラルネットワークに基づく生産プロセスの品質予測モデルを採用する。
本手法は,本手法により,仮想及び実生産ライン間のシームレスな統合を促進できることを示す。
論文 参考訳(メタデータ) (2024-05-20T09:28:23Z) - GeoWizard: Unleashing the Diffusion Priors for 3D Geometry Estimation from a Single Image [94.56927147492738]
単一画像から幾何学的属性を推定するための新しい生成基盤モデルであるGeoWizardを紹介する。
拡散前処理の活用は,資源利用における一般化,詳細な保存,効率性を著しく向上させることが示唆された。
本稿では,様々なシーンの複雑なデータ分布を,個別のサブディストリビューションに分離する,シンプルかつ効果的な戦略を提案する。
論文 参考訳(メタデータ) (2024-03-18T17:50:41Z) - 3DiffTection: 3D Object Detection with Geometry-Aware Diffusion Features [70.50665869806188]
3DiffTectionは、単一の画像から3Dオブジェクトを検出する最先端の方法である。
拡散モデルを微調整し、単一の画像に条件付けされた新しいビュー合成を行う。
さらに、検出監視により、ターゲットデータ上でモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-11-07T23:46:41Z) - Interpretable 2D Vision Models for 3D Medical Images [47.75089895500738]
本研究では,3次元画像処理における中間特徴表現を用いた2次元ネットワークの適応手法を提案する。
我々は、ベンチマークとして3D MedMNISTデータセットと、既存の手法に匹敵する数百の高分解能CTまたはMRIスキャンからなる2つの実世界のデータセットを示す。
論文 参考訳(メタデータ) (2023-07-13T08:27:09Z) - Randomized 3D Scene Generation for Generalizable Self-Supervised
Pre-Training [0.0]
球面高調波を用いた3次元シーン生成手法を提案する。
従来の定式化法をクリアマージンで上回り、実世界のスキャンとCADモデルを用いた手法を用いて、中間結果を得る。
論文 参考訳(メタデータ) (2023-06-07T08:28:38Z) - An adaptive human-in-the-loop approach to emission detection of Additive
Manufacturing processes and active learning with computer vision [76.72662577101988]
In-situ monitoring and process control in Additive Manufacturing (AM) は大量の排出データを収集することを可能にする。
このデータは、3Dプリントされた部品の3Dおよび2D表現への入力として使用できる。
本研究の目的は,機械学習技術を用いた適応型ヒューマン・イン・ザ・ループ手法を提案することである。
論文 参考訳(メタデータ) (2022-12-12T15:11:18Z) - Statistical process monitoring of artificial neural networks [1.3213490507208525]
機械学習では、入力と出力の間の学習された関係は、モデルのデプロイの間も有効でなければならない。
本稿では,データストリームの非定常化開始時刻を決定するために,ANNが生成するデータ(埋め込み)の潜在的特徴表現について検討する。
論文 参考訳(メタデータ) (2022-09-15T16:33:36Z) - Gait Recognition in the Wild with Multi-hop Temporal Switch [81.35245014397759]
野生での歩行認識は、より実践的な問題であり、マルチメディアとコンピュータビジョンのコミュニティの注目を集めています。
本稿では,現実のシーンにおける歩行パターンの効果的な時間的モデリングを実現するために,新しいマルチホップ時間スイッチ方式を提案する。
論文 参考訳(メタデータ) (2022-09-01T10:46:09Z) - Training and Tuning Generative Neural Radiance Fields for Attribute-Conditional 3D-Aware Face Generation [66.21121745446345]
本稿では,特定の属性ラベルを入力として統合した条件付きGNeRFモデルを提案する。
提案手法は, 事前学習した3次元顔モデルに基づいており, 条件付き正規化フローモジュールをトレーニングするためのTraining as Init and fidelity for Tuning (TRIOT) 方式を提案する。
本実験は,ビューの整合性を高めた高品質な編集を行う能力を示すとともに,本モデルの有効性を実証するものである。
論文 参考訳(メタデータ) (2022-08-26T10:05:39Z) - Dynamic Iterative Refinement for Efficient 3D Hand Pose Estimation [87.54604263202941]
本稿では,従来の推定値の修正に部分的レイヤを反復的に活用する,小さなディープニューラルネットワークを提案する。
学習したゲーティング基準を用いて、ウェイトシェアリングループから抜け出すかどうかを判断し、モデルにサンプルごとの適応を可能にする。
提案手法は,広く使用されているベンチマークの精度と効率の両面から,最先端の2D/3Dハンドポーズ推定手法より一貫して優れている。
論文 参考訳(メタデータ) (2021-11-11T23:31:34Z) - Learning 3D Mineral Prospectivity from 3D Geological Models with
Convolutional Neural Networks: Application to a Structure-controlled
Hydrothermal Gold Deposit [4.647073295455922]
本稿では、畳み込みニューラルネットワーク(CNN)を利用して、3次元地質モデルから3次元鉱物の分布を学習する新しい手法を提案する。
具体的には、入力を構造化すべきCNNを用いて非構造化の3次元地質モデルを探究するため、2次元CNNフレームワークを開発した。
これにより、予測モデルは鉱石形成過程を近似しながら、CNNを効果的かつ効率的に訓練することができる。
論文 参考訳(メタデータ) (2021-09-02T07:34:10Z) - Scene Synthesis via Uncertainty-Driven Attribute Synchronization [52.31834816911887]
本稿では,3次元シーンの多様な特徴パターンを捉えるニューラルシーン合成手法を提案する。
提案手法は,ニューラルネットワークと従来のシーン合成手法の双方の長所を結合する。
論文 参考訳(メタデータ) (2021-08-30T19:45:07Z) - Multi-view Depth Estimation using Epipolar Spatio-Temporal Networks [87.50632573601283]
一つのビデオから多視点深度を推定する新しい手法を提案する。
提案手法は,新しいEpipolar Spatio-Temporal Transformer(EST)を用いて時間的コヒーレントな深度推定を行う。
最近のMixture-of-Expertsモデルにインスパイアされた計算コストを削減するため、我々はコンパクトなハイブリッドネットワークを設計する。
論文 参考訳(メタデータ) (2020-11-26T04:04:21Z) - A Deep Learning Framework for Simulation and Defect Prediction Applied
in Microelectronics [3.8698051494433043]
本稿では,3次元畳み込みニューラルネットワーク(DCNN)に基づくアーキテクチャを提案し,製造パラメータの幾何学的変動をモデル化する。
我々は最近発表されたPCBスキャンデータセットを用いて,マイクロエレクトロニクスのユースケースに関する枠組みを検証する。
論文 参考訳(メタデータ) (2020-02-25T15:54:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。