論文の概要: PerfCam: Digital Twinning for Production Lines Using 3D Gaussian Splatting and Vision Models
- arxiv url: http://arxiv.org/abs/2504.18165v1
- Date: Fri, 25 Apr 2025 08:29:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:53.696447
- Title: PerfCam: Digital Twinning for Production Lines Using 3D Gaussian Splatting and Vision Models
- Title(参考訳): PerfCam:3次元ガウスプラッティングとビジョンモデルを用いた生産ラインのデジタルツインニング
- Authors: Michel Gokan Khan, Renan Guarese, Fabian Johnson, Xi Vincent Wang, Anders Bergman, Benjamin Edvinsson, Mario Romero, Jérémy Vachier, Jan Kronqvist,
- Abstract要約: PerfCamは、デジタルツインニング、オブジェクトトラッキング、産業生産ラインにおけるキーパフォーマンス指標(KPI)抽出のためのフレームワークである。
PerfCamは、オブジェクト追跡と空間マッピングに対する半自動アプローチを提供する。
製薬業界における現実的なテスト生産ラインへの実践的展開を通じて,PerfCamの有効性を検証する。
- 参考スコア(独自算出の注目度): 0.7778012639255726
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce PerfCam, an open source Proof-of-Concept (PoC) digital twinning framework that combines camera and sensory data with 3D Gaussian Splatting and computer vision models for digital twinning, object tracking, and Key Performance Indicators (KPIs) extraction in industrial production lines. By utilizing 3D reconstruction and Convolutional Neural Networks (CNNs), PerfCam offers a semi-automated approach to object tracking and spatial mapping, enabling digital twins that capture real-time KPIs such as availability, performance, Overall Equipment Effectiveness (OEE), and rate of conveyor belts in the production line. We validate the effectiveness of PerfCam through a practical deployment within realistic test production lines in the pharmaceutical industry and contribute an openly published dataset to support further research and development in the field. The results demonstrate PerfCam's ability to deliver actionable insights through its precise digital twin capabilities, underscoring its value as an effective tool for developing usable digital twins in smart manufacturing environments and extracting operational analytics.
- Abstract(参考訳): 本稿では, デジタルツインニング, オブジェクト追跡, キーパフォーマンス指標(KPI)抽出のための3次元ガウススプラッティングとコンピュータビジョンモデルを組み合わせた, デジタルツインニング(PoC)のオープンソースフレームワークであるPerfCamを紹介する。
3D再構成と畳み込みニューラルネットワーク(CNN)を利用することで、PerfCamはオブジェクト追跡と空間マッピングに対する半自動アプローチを提供し、可用性、パフォーマンス、総合的有効性(OEE)、生産ラインにおけるコンベアベルトの速度などのリアルタイムKPIをキャプチャするデジタルツインを可能にする。
製薬業界における現実的なテスト生産ラインへの実践的展開を通じてPerfCamの有効性を検証するとともに,この分野におけるさらなる研究・開発を支援するために,公開データセットの提供を行った。
結果は、PerfCamが正確なデジタルツイン機能を通じて実行可能な洞察を提供する能力を示し、スマート製造環境で使用可能なデジタルツインを開発し、運用分析を抽出するための効果的なツールとしての価値を強調した。
関連論文リスト
- Implicit-Zoo: A Large-Scale Dataset of Neural Implicit Functions for 2D Images and 3D Scenes [65.22070581594426]
Implicit-Zoo"は、この分野の研究と開発を容易にするために、数千のGPUトレーニング日を必要とする大規模なデータセットである。
1)トランスモデルのトークン位置を学習すること、(2)NeRFモデルに関して直接3Dカメラが2D画像のポーズを取ること、である。
これにより、画像分類、セマンティックセグメンテーション、および3次元ポーズ回帰の3つのタスクすべてのパフォーマンスが向上し、研究のための新たな道が開けることになる。
論文 参考訳(メタデータ) (2024-06-25T10:20:44Z) - Sparse Attention-driven Quality Prediction for Production Process Optimization in Digital Twins [53.70191138561039]
データ駆動方式で運用ロジックを符号化することで,生産ラインのディジタルツインをデプロイすることを提案する。
我々は,自己注意型時間畳み込みニューラルネットワークに基づく生産プロセスの品質予測モデルを採用する。
本手法は,本手法により,仮想及び実生産ライン間のシームレスな統合を促進できることを示す。
論文 参考訳(メタデータ) (2024-05-20T09:28:23Z) - Dual-Camera Smooth Zoom on Mobile Phones [55.4114152554769]
我々は、スムーズなズームプレビューを実現するために、新しいタスク、すなわちデュアルカメラスムーズズーム(DCSZ)を導入する。
フレームモデル (FI) 技術は潜在的な解決法であるが、地軸収集に苦慮している。
連続型仮想カメラを組み込んだデータファクトリソリューションを提案し,シーンの再構成された3DモデルをレンダリングしてDCSZデータを生成する。
論文 参考訳(メタデータ) (2024-04-07T10:28:01Z) - Scalable Vision-Based 3D Object Detection and Monocular Depth Estimation
for Autonomous Driving [5.347428263669927]
この論文は、視覚に基づく3D知覚技術の進歩への多面的な貢献である。
第1節では、この論文はモノクロとステレオの両方のオブジェクト検出アルゴリズムに構造的拡張を導入している。
第2のセグメントは、データ駆動戦略と、3D視覚検出における実世界の応用に特化している。
論文 参考訳(メタデータ) (2024-03-04T13:42:54Z) - Vision-Assisted Digital Twin Creation for mmWave Beam Management [9.608394183713717]
本稿では,1台のカメラと位置情報にのみ依存する,実用的なDigital Twin生成パイプラインとチャネルシミュレータを提案する。
本研究では,ビーム取得における下流サブタスクにおいて,3次元環境を明示的にモデル化しない手法と比較して,性能上の利点を示す。
論文 参考訳(メタデータ) (2024-01-31T12:23:55Z) - Multi-Modal Dataset Acquisition for Photometrically Challenging Object [56.30027922063559]
本稿では,3次元視覚タスクにおける現在のデータセットの限界について,精度,サイズ,リアリズム,および光度に挑戦する対象に対する適切な画像モダリティの観点から検討する。
既存の3次元認識と6次元オブジェクトポーズデータセットを強化する新しいアノテーションと取得パイプラインを提案する。
論文 参考訳(メタデータ) (2023-08-21T10:38:32Z) - AutoDecoding Latent 3D Diffusion Models [95.7279510847827]
本稿では,3次元オートデコーダをコアとした静的・明瞭な3次元アセットの生成に対して,新しいアプローチを提案する。
3D Autodecoderフレームワークは、ターゲットデータセットから学んだプロパティを潜時空間に埋め込む。
次に、適切な中間体積潜在空間を特定し、ロバストな正規化と非正規化演算を導入する。
論文 参考訳(メタデータ) (2023-07-07T17:59:14Z) - 3D Data Augmentation for Driving Scenes on Camera [50.41413053812315]
本稿では,Drive-3DAugと呼ばれる3次元データ拡張手法を提案する。
まずNeural Radiance Field(NeRF)を用いて,背景および前景の3次元モデルの再構成を行う。
そして、予め定義された背景の有効領域に適応した位置と向きの3Dオブジェクトを配置することにより、拡張駆動シーンを得ることができる。
論文 参考訳(メタデータ) (2023-03-18T05:51:05Z) - Digital Twin Tracking Dataset (DTTD): A New RGB+Depth 3D Dataset for
Longer-Range Object Tracking Applications [3.9776693020673677]
デジタルツイン(Digital twin)は、実際のオブジェクトをデジタルオブジェクトで拡張する問題である。
優れたデジタルツインシステムにおける重要なコンポーネントは、リアルタイムで正確な3Dオブジェクト追跡である。
この研究で、Digital Twin Tracking dataset(DTTD)と呼ばれる新しいRGB-Dデータセットを作成します。
論文 参考訳(メタデータ) (2023-02-12T20:06:07Z) - HUM3DIL: Semi-supervised Multi-modal 3D Human Pose Estimation for
Autonomous Driving [95.42203932627102]
3Dの人間のポーズ推定は、自動運転車が歩行者の微妙で複雑な振る舞いを知覚し理解できるようにする新しい技術である。
提案手法は,これらの補完信号を半教師付き方式で効率的に利用し,既存の手法よりも大きなマージンで性能を向上する。
具体的には、LiDAR点を画素整列マルチモーダル特徴に埋め込み、トランスフォーマーの精細化段階を経る。
論文 参考訳(メタデータ) (2022-12-15T11:15:14Z) - Domain Adaptive 3D Pose Augmentation for In-the-wild Human Mesh Recovery [32.73513554145019]
Domain Adaptive 3D Pose Augmentation (DAPA)は、Wildのシナリオにおけるモデルの一般化能力を向上するデータ拡張手法である。
DAPAによる微調整が3DPWとAGORAのベンチマークの結果を効果的に改善できることを定量的に示す。
論文 参考訳(メタデータ) (2022-06-21T15:02:31Z) - 3D shape sensing and deep learning-based segmentation of strawberries [5.634825161148484]
農業における形状の3次元認識のためのステレオおよび飛行時間カメラを含む最新のセンシング技術を評価する。
本稿では,カメラベースの3Dセンサから得られる情報の組織的性質を利用した,新しい3Dディープニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-11-26T18:43:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。