論文の概要: An unsupervised approach towards promptable defect segmentation in
laser-based additive manufacturing by Segment Anything
- arxiv url: http://arxiv.org/abs/2312.04063v1
- Date: Thu, 7 Dec 2023 06:03:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-08 16:05:52.449840
- Title: An unsupervised approach towards promptable defect segmentation in
laser-based additive manufacturing by Segment Anything
- Title(参考訳): Segment Anything によるレーザー添加物製造における高速欠陥分割への教師なしアプローチ
- Authors: Israt Zarin Era, Imtiaz Ahmed, Zhichao Liu, Srinjoy Das
- Abstract要約: 我々は、最先端ビジョン変換器(ViT)ベースのファンデーションモデル(セグメンション・アニーシング・モデル)を用いて、画像分割のためのフレームワークを構築する。
我々は,レーザベース粉体融合を事例として,実時間ポロシティセグメンテーションを行うための枠組みを適用した。
我々は,現在のレーザー添加物製造プロセスに革命をもたらす可能性のある,リアルタイムな異常検出パイプラインの構築を想定する。
- 参考スコア(独自算出の注目度): 7.8529996661104455
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Foundation models are currently driving a paradigm shift in computer vision
tasks for various fields including biology, astronomy, and robotics among
others, leveraging user-generated prompts to enhance their performance. In the
manufacturing domain, accurate image-based defect segmentation is imperative to
ensure product quality and facilitate real-time process control. However, such
tasks are often characterized by multiple challenges including the absence of
labels and the requirement for low latency inference among others. To address
these issues, we construct a framework for image segmentation using a
state-of-the-art Vision Transformer (ViT) based Foundation model (Segment
Anything Model) with a novel multi-point prompt generation scheme using
unsupervised clustering. We apply our framework to perform real-time porosity
segmentation in a case study of laser base powder bed fusion (L-PBF) and obtain
high Dice Similarity Coefficients (DSC) without the necessity for any
supervised fine-tuning in the model. Using such lightweight foundation model
inference in conjunction with unsupervised prompt generation, we envision the
construction of a real-time anomaly detection pipeline that has the potential
to revolutionize the current laser-based additive manufacturing processes,
thereby facilitating the shift towards Industry 4.0 and promoting defect-free
production along with operational efficiency.
- Abstract(参考訳): ファンデーションモデルは現在、生物学、天文学、ロボット工学など様々な分野におけるコンピュータビジョンタスクのパラダイムシフトを推進しており、ユーザー生成プロンプトを活用してパフォーマンスを向上させる。
製造領域では、正確な画像に基づく欠陥分割は製品品質の確保とリアルタイムプロセス制御の促進に不可欠である。
しかしながら、そのようなタスクはラベルの欠如や低レイテンシの推論の要件など、複数の課題によって特徴づけられることが多い。
そこで本研究では,最先端視覚トランスフォーマ (vit) に基づく基礎モデル (segment anything model) を用いた画像分割のためのフレームワークを構築し,教師なしクラスタリングを用いた新しい多点プロンプト生成手法を提案する。
本研究では, レーザベース粉末層融合 (l-pbf) を事例として, 実時間ポロシティセグメンテーションを応用し, 教師付き微調整を必要とせずに高ディス類似度係数 (dsc) を得る。
このような軽量な基礎モデル推論と教師なしの即時生成を併用して、現在のレーザー添加物製造プロセスに革命をもたらす可能性を持つリアルタイム異常検出パイプラインの構築を構想し、産業4.0への移行を容易にし、運転効率とともに欠陥のない生産を促進する。
関連論文リスト
- Efficient generative adversarial networks using linear
additive-attention Transformers [0.9790236766474198]
本稿では,Ladaformerという新しいトランスフォーマーブロック上に構築した,効率的な生成対逆ネットワークであるLadaGANを提案する。
LadaGANは、さまざまな解像度のベンチマークデータセットにおいて、既存の畳み込みGANとTransformer GANを一貫して上回る。
論文 参考訳(メタデータ) (2024-01-17T21:08:41Z) - DeepInspect: An AI-Powered Defect Detection for Manufacturing Industries [0.0]
この技術は、製品写真から複雑な詳細を抽出することによって、欠陥を正確に識別する。
このプロジェクトでは、ディープラーニングフレームワークを活用して、製造プロセスにおけるリアルタイムな欠陥検出を自動化する。
論文 参考訳(メタデータ) (2023-11-07T04:59:43Z) - A Generative Approach for Production-Aware Industrial Network Traffic
Modeling [70.46446906513677]
ドイツにあるTrumpf工場に配備されたレーザー切断機から発生するネットワークトラフィックデータについて検討した。
我々は、トラフィック統計を分析し、マシンの内部状態間の依存関係をキャプチャし、ネットワークトラフィックを生産状態依存プロセスとしてモデル化する。
可変オートエンコーダ(VAE)、条件付き可変オートエンコーダ(CVAE)、生成逆ネットワーク(GAN)など、様々な生成モデルの性能の比較を行った。
論文 参考訳(メタデータ) (2022-11-11T09:46:58Z) - An Adversarial Active Sampling-based Data Augmentation Framework for
Manufacturable Chip Design [55.62660894625669]
リソグラフィーモデリングは、チップ設計マスクが製造可能であることを保証するため、チップ設計において重要な問題である。
機械学習の最近の進歩は、時間を要するリソグラフィーシミュレーションをディープニューラルネットワークに置き換えるための代替ソリューションを提供している。
本稿では,限られたデータのジレンマを解消し,機械学習モデルの性能を向上させるために,データ拡張フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-27T20:53:39Z) - Toward Certified Robustness Against Real-World Distribution Shifts [65.66374339500025]
我々は、データから摂動を学ぶために生成モデルを訓練し、学習したモデルの出力に関して仕様を定義する。
この設定から生じるユニークな挑戦は、既存の検証者がシグモイドの活性化を厳密に近似できないことである。
本稿では,古典的な反例誘導的抽象的洗練の概念を活用するシグモイドアクティベーションを扱うための一般的なメタアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-08T04:09:13Z) - Generative Modeling Helps Weak Supervision (and Vice Versa) [87.62271390571837]
本稿では,弱い監督と生成的敵ネットワークを融合したモデルを提案する。
弱い監督によるラベル推定と並行して、データの離散変数をキャプチャする。
これは、弱い教師付き合成画像と擬似ラベルによるデータ拡張を可能にする最初のアプローチである。
論文 参考訳(メタデータ) (2022-03-22T20:24:21Z) - P-WAE: Generalized Patch-Wasserstein Autoencoder for Anomaly Screening [17.24628770042803]
Patch-wise Wasserstein AutoEncoder (P-WAE) アーキテクチャを提案する。
特に、ジグソーパズルの解法と結合したパッチワイド変分推論モデルを設計する。
MVTec ADデータセットを用いた総合的な実験は、我々のプロポの優れた性能を実証する。
論文 参考訳(メタデータ) (2021-08-09T05:31:45Z) - Machine Learning based Indicators to Enhance Process Monitoring by
Pattern Recognition [0.4893345190925177]
パターンタイプと強度を組み合わせた機械学習に基づく指標のための新しいフレームワークを提案する。
半導体産業のケーススタディでは,従来のプロセス制御を越え,高品質な実験結果を得る。
論文 参考訳(メタデータ) (2021-03-24T10:13:20Z) - Cognitive Visual Inspection Service for LCD Manufacturing Industry [80.63336968475889]
本論文では,現在FPD業界で主流となっている液晶ディスプレイ(LCD)の視覚検査システムについて述べる。
システムは、堅牢/高性能欠陥認識モデルと認知視覚検査サービスアーキテクチャの2つの基礎に基づいています。
論文 参考訳(メタデータ) (2021-01-11T08:14:35Z) - AP-MTL: Attention Pruned Multi-task Learning Model for Real-time
Instrument Detection and Segmentation in Robot-assisted Surgery [23.33984309289549]
高解像度画像の検出とセグメンテーションのためのリアルタイムロボットシステムの訓練は、限られた計算資源で難しい問題となる。
重み付きエンコーダとタスク認識検出とセグメンテーションデコーダを備えた,エンドツーエンドのトレーニング可能なリアルタイムマルチタスク学習モデルを開発した。
我々のモデルは最先端のセグメンテーションモデルや検出モデルよりも優れており、最も優れたモデルもその課題である。
論文 参考訳(メタデータ) (2020-03-10T14:24:51Z) - Estimating the Effects of Continuous-valued Interventions using
Generative Adversarial Networks [103.14809802212535]
我々は,連続的評価介入の効果を推定する問題に対処するため,GAN(Generative Adversarial Network)フレームワークを構築した。
我々のモデルであるSCIGANは柔軟であり、いくつかの異なる継続的な介入に対する対実的な結果の同時推定が可能である。
継続的な介入に移行することによって生じる課題に対処するために、差別者のための新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-02-27T18:46:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。