論文の概要: Unsupervised Multimodal Fusion of In-process Sensor Data for Advanced Manufacturing Process Monitoring
- arxiv url: http://arxiv.org/abs/2410.22558v1
- Date: Tue, 29 Oct 2024 21:52:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-31 14:26:23.524005
- Title: Unsupervised Multimodal Fusion of In-process Sensor Data for Advanced Manufacturing Process Monitoring
- Title(参考訳): 製造プロセスモニタリングのためのインプロセスセンサデータの教師なしマルチモーダル融合
- Authors: Matthew McKinney, Anthony Garland, Dale Cillessen, Jesse Adamczyk, Dan Bolintineanu, Michael Heiden, Elliott Fowler, Brad L. Boyce,
- Abstract要約: 本稿では,製造プロセスにおけるマルチモーダルセンサデータ融合に対する新しいアプローチを提案する。
我々は、ラベル付きデータなしで異なるデータモダリティを相関付けるために、対照的な学習手法を活用している。
本手法は,プロセス制御,異常検出,品質保証などの下流タスクを容易にする。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Effective monitoring of manufacturing processes is crucial for maintaining product quality and operational efficiency. Modern manufacturing environments generate vast amounts of multimodal data, including visual imagery from various perspectives and resolutions, hyperspectral data, and machine health monitoring information such as actuator positions, accelerometer readings, and temperature measurements. However, interpreting this complex, high-dimensional data presents significant challenges, particularly when labeled datasets are unavailable. This paper presents a novel approach to multimodal sensor data fusion in manufacturing processes, inspired by the Contrastive Language-Image Pre-training (CLIP) model. We leverage contrastive learning techniques to correlate different data modalities without the need for labeled data, developing encoders for five distinct modalities: visual imagery, audio signals, laser position (x and y coordinates), and laser power measurements. By compressing these high-dimensional datasets into low-dimensional representational spaces, our approach facilitates downstream tasks such as process control, anomaly detection, and quality assurance. We evaluate the effectiveness of our approach through experiments, demonstrating its potential to enhance process monitoring capabilities in advanced manufacturing systems. This research contributes to smart manufacturing by providing a flexible, scalable framework for multimodal data fusion that can adapt to diverse manufacturing environments and sensor configurations.
- Abstract(参考訳): 製造プロセスの効率的なモニタリングは、製品の品質と運用効率を維持するために不可欠である。
現代の製造環境は、様々な視点と解像度からの視覚画像、ハイパースペクトルデータ、アクチュエータの位置、加速度計の読み取り、温度測定などの機械の健康モニタリング情報を含む膨大なマルチモーダルデータを生成する。
しかし、この複雑な高次元データを解釈すると、特にラベル付きデータセットが利用できない場合、大きな課題が生じる。
本稿では,Contrastive Language-Image Pre-Training(CLIP)モデルに触発された,製造プロセスにおけるマルチモーダルセンサデータ融合に対する新しいアプローチを提案する。
画像,音声信号,レーザー位置(x,y座標),レーザーパワー測定の5つの異なるモードのエンコーダを開発した。
これらの高次元データセットを低次元表現空間に圧縮することにより、プロセス制御、異常検出、品質保証といった下流タスクを容易にする。
提案手法の有効性を実験により評価し, 先進的な製造システムにおけるプロセス監視能力の向上の可能性を示す。
本研究は,多様な製造環境やセンサ構成に適応可能な,多モードデータ融合のためのフレキシブルでスケーラブルなフレームワークを提供することにより,スマートな製造に寄与する。
関連論文リスト
- JEMA: A Joint Embedding Framework for Scalable Co-Learning with Multimodal Alignment [0.0]
JEMA(Joint Embedding with Multimodal Alignment)は、レーザー金属沈着(LMD)に適した新しいコラーニングフレームワークである。
教師付きコントラスト学習と比較して,マルチモーダル・セッティングのパフォーマンスは8%向上し,ユニモーダル・セッティングは1%向上した。
我々のフレームワークは、メタデータとマルチセンサデータを統合する基盤を築き、MDドメイン以降の様々な下流タスクを可能にする。
論文 参考訳(メタデータ) (2024-10-31T14:42:26Z) - Scaling Wearable Foundation Models [54.93979158708164]
センサ基礎モデルのスケーリング特性を計算,データ,モデルサイズにわたって検討する。
最大4000万時間分の心拍数、心拍変動、心電図活動、加速度計、皮膚温度、および1分間のデータを用いて、私たちはLSMを作成します。
この結果から,LSMのスケーリング法則は,時間とセンサの両面において,計算や外挿などのタスクに対して確立されている。
論文 参考訳(メタデータ) (2024-10-17T15:08:21Z) - A Predictive Model Based on Transformer with Statistical Feature Embedding in Manufacturing Sensor Dataset [2.07180164747172]
本研究では,統計的特徴埋め込みとウィンドウ位置符号化を利用したトランスフォーマーに基づく新しい予測モデルを提案する。
モデルの性能は, 断層検出と仮想気象学の2つの問題で評価され, ベースラインモデルよりも優れた結果を示した。
結果は、様々な製造業におけるモデルの適用性を支持し、プロセス管理と収量を高める可能性を示している。
論文 参考訳(メタデータ) (2024-07-09T08:59:27Z) - Sparse Attention-driven Quality Prediction for Production Process Optimization in Digital Twins [53.70191138561039]
データ駆動方式で運用ロジックを符号化することで,生産ラインのディジタルツインをデプロイすることを提案する。
我々は,自己注意型時間畳み込みニューラルネットワークに基づく生産プロセスの品質予測モデルを採用する。
本手法は,本手法により,仮想及び実生産ライン間のシームレスな統合を促進できることを示す。
論文 参考訳(メタデータ) (2024-05-20T09:28:23Z) - A Systematic Review of Available Datasets in Additive Manufacturing [56.684125592242445]
視覚およびその他のセンサー技術を組み込んだその場監視により、追加製造プロセス中に広範なデータセットの収集が可能になる。
これらのデータセットは、製造された出力の品質を判断し、機械学習を使用して欠陥を検出する可能性がある。
本稿では,AMプロセスから派生したオープン画像ベースデータセットの利用可能性について検討する。
論文 参考訳(メタデータ) (2024-01-27T16:13:32Z) - Non-contact Multimodal Indoor Human Monitoring Systems: A Survey [4.048305170077075]
本稿では,室内における人体モニタリングシステムに対するマルチモーダルアプローチに関する総合的な調査を行う。
われわれの調査は、主に非接触技術、特にカメラと無線デバイスに焦点を当てている。
我々は、高齢者ケアの質を高める上での彼らの重要な役割を強調し、非接触モニタリングソリューションの開発に関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2023-12-11T14:57:12Z) - StableLLaVA: Enhanced Visual Instruction Tuning with Synthesized
Image-Dialogue Data [129.92449761766025]
本稿では,視覚的インストラクションチューニングのための画像と対話を同期的に合成する新しいデータ収集手法を提案する。
このアプローチは生成モデルのパワーを活用し、ChatGPTとテキスト・ツー・イメージ生成モデルの能力とを結合する。
本研究は,各種データセットを対象とした総合的な実験を含む。
論文 参考訳(メタデータ) (2023-08-20T12:43:52Z) - DeepTimeAnomalyViz: A Tool for Visualizing and Post-processing Deep
Learning Anomaly Detection Results for Industrial Time-Series [88.12892448747291]
DeTAVIZ インタフェースは Web ブラウザをベースとした可視化ツールで,特定の問題における DL ベースの異常検出の実現可能性の迅速な探索と評価を行う。
DeTAVIZを使えば、ユーザーは複数のポスト処理オプションを簡単かつ迅速に繰り返し、異なるモデルを比較することができ、選択したメトリックに対して手動で最適化できる。
論文 参考訳(メタデータ) (2021-09-21T10:38:26Z) - Auto-encoder based Model for High-dimensional Imbalanced Industrial Data [6.339700878842761]
分散重み付きマルチヘッドオートエンコーダ分類モデルを導入し,高次元および高不均衡なデータによく適合する。
また、出力制御された表現学習とマルチタスク重み付けを利用して、複数の出力を同時に予測する。
論文 参考訳(メタデータ) (2021-08-04T14:34:59Z) - Modeling and Optimizing Laser-Induced Graphene [59.8912133964006]
レーザ誘起グラフェンの生成の最適化を記述したデータセットを提供する。
提供するデータセットに基づいて,3つの課題を提起します。
興味のあるユーザにとっての出発点として、図解的な結果と、それらを生成するためのコードを提示します。
論文 参考訳(メタデータ) (2021-07-29T18:08:24Z) - Machine Learning based Indicators to Enhance Process Monitoring by
Pattern Recognition [0.4893345190925177]
パターンタイプと強度を組み合わせた機械学習に基づく指標のための新しいフレームワークを提案する。
半導体産業のケーススタディでは,従来のプロセス制御を越え,高品質な実験結果を得る。
論文 参考訳(メタデータ) (2021-03-24T10:13:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。