論文の概要: Trimming the Risk: Towards Reliable Continuous Training for Deep Learning Inspection Systems
- arxiv url: http://arxiv.org/abs/2409.09108v1
- Date: Fri, 13 Sep 2024 15:02:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-17 22:18:51.946647
- Title: Trimming the Risk: Towards Reliable Continuous Training for Deep Learning Inspection Systems
- Title(参考訳): リスクの試行: 深層学習検査システムのための信頼性の高い継続的トレーニングを目指して
- Authors: Altaf Allah Abbassi, Houssem Ben Braiek, Foutse Khomh, Thomas Reid,
- Abstract要約: 産業は、製造検査に深層学習(DL)技術にますます依存している。
有限ラベル付きデータセットは 自然の変化を 包含しないことが多い
我々は,信頼性の高いデータ選択を用いてDLモデルを更新する,頑健なCTベースのメンテナンス手法を開発した。
- 参考スコア(独自算出の注目度): 10.121053770426759
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: The industry increasingly relies on deep learning (DL) technology for manufacturing inspections, which are challenging to automate with rule-based machine vision algorithms. DL-powered inspection systems derive defect patterns from labeled images, combining human-like agility with the consistency of a computerized system. However, finite labeled datasets often fail to encompass all natural variations necessitating Continuous Training (CT) to regularly adjust their models with recent data. Effective CT requires fresh labeled samples from the original distribution; otherwise, selfgenerated labels can lead to silent performance degradation. To mitigate this risk, we develop a robust CT-based maintenance approach that updates DL models using reliable data selections through a two-stage filtering process. The initial stage filters out low-confidence predictions, as the model inherently discredits them. The second stage uses variational auto-encoders and histograms to generate image embeddings that capture latent and pixel characteristics, then rejects the inputs of substantially shifted embeddings as drifted data with erroneous overconfidence. Then, a fine-tuning of the original DL model is executed on the filtered inputs while validating on a mixture of recent production and original datasets. This strategy mitigates catastrophic forgetting and ensures the model adapts effectively to new operational conditions. Evaluations on industrial inspection systems for popsicle stick prints and glass bottles using critical real-world datasets showed less than 9% of erroneous self-labeled data are retained after filtering and used for fine-tuning, improving model performance on production data by up to 14% without compromising its results on original validation data.
- Abstract(参考訳): 業界はますます、製造検査のためのディープラーニング(DL)技術に依存しており、ルールベースのマシンビジョンアルゴリズムでは自動化が難しい。
DLを利用した検査システムはラベル付き画像から欠陥パターンを導出し、人間のような俊敏性とコンピュータシステムの整合性を組み合わせる。
しかし、有限ラベル付きデータセットは、最近のデータでモデルを定期的に調整するために連続訓練(CT)を必要とするすべての自然変動を包含しないことが多い。
有効なCTでは、元の分布から新しくラベル付けされたサンプルが必要であり、そうでなければ、自己生成ラベルは静かな性能劣化を引き起こす可能性がある。
このリスクを軽減するため、我々は2段階のフィルタリングプロセスを通じて信頼性の高いデータ選択を用いてDLモデルを更新する頑健なCTベースの保守手法を開発した。
モデルが本質的にそれらを無視するため、初期ステージは低信頼の予測をフィルタリングする。
第2段階では、可変オートエンコーダとヒストグラムを使用して、潜時特性と画素特性をキャプチャする画像埋め込みを生成し、誤った過信を伴うドリフトデータとして実質的にシフトした埋め込みの入力を拒否する。
次に、フィルタされた入力に対して、最近のプロダクションとオリジナルデータセットの混合を検証しながら、元のDLモデルの微調整を実行する。
この戦略は破滅的な忘れを緩和し、モデルが新しい運用条件に効果的に適応することを保証する。
実世界の重要データセットを用いたアイスキャンシステムとガラスボトルの産業検査システムの評価では, フィルター処理後に誤ラベルデータのうち9%以下を保存し, 微調整に使用し, 製造データ上でのモデル性能を14%向上させることができた。
関連論文リスト
- Leveraging Latent Diffusion Models for Training-Free In-Distribution Data Augmentation for Surface Defect Detection [9.784793380119806]
データ拡張のためのトレーニング不要な拡散型In-Distribution Anomaly GenerationパイプラインであるDIAGを紹介する。
従来の画像生成技術とは異なり、我々は、ドメインの専門家がモデルにマルチモーダルガイダンスを提供する、Human-in-the-loopパイプラインを実装している。
我々は、挑戦的なKSDD2データセットに対する最先端データ拡張アプローチに関して、DIAGの有効性と汎用性を実証する。
論文 参考訳(メタデータ) (2024-07-04T14:28:52Z) - Diffusion Model Driven Test-Time Image Adaptation for Robust Skin Lesion Classification [24.08402880603475]
テストデータ上でのモデルの精度を高めるためのテスト時間画像適応手法を提案する。
拡散モデルを用いて、対象の試験画像をソース領域に投影して修正する。
私たちの手法は、さまざまな汚職、アーキテクチャ、データレシエーションにおいて、堅牢性をより堅牢にします。
論文 参考訳(メタデータ) (2024-05-18T13:28:51Z) - Lazy Layers to Make Fine-Tuned Diffusion Models More Traceable [70.77600345240867]
新たな任意の任意配置(AIAO)戦略は、微調整による除去に耐性を持たせる。
拡散モデルの入力/出力空間のバックドアを設計する既存の手法とは異なり,本手法では,サンプルサブパスの特徴空間にバックドアを埋め込む方法を提案する。
MS-COCO,AFHQ,LSUN,CUB-200,DreamBoothの各データセットに関する実証研究により,AIAOの堅牢性が確認された。
論文 参考訳(メタデータ) (2024-05-01T12:03:39Z) - DetDiffusion: Synergizing Generative and Perceptive Models for Enhanced Data Generation and Perception [78.26734070960886]
現在の知覚モデルは、リソース集約的なデータセットに大きく依存している。
セグメンテーションを通じて知覚認識損失(P.A.損失)を導入し、品質と制御性の両方を改善した。
本手法は,世代間における知覚認識属性(P.A. Attr)の抽出と利用により,データ拡張をカスタマイズする。
論文 参考訳(メタデータ) (2024-03-20T04:58:03Z) - Self-supervised Feature Adaptation for 3D Industrial Anomaly Detection [59.41026558455904]
具体的には,大規模ビジュアルデータセット上で事前学習されたモデルを利用した初期のマルチモーダルアプローチについて検討する。
本研究では,アダプタを微調整し,異常検出に向けたタスク指向の表現を学習するためのLSFA法を提案する。
論文 参考訳(メタデータ) (2024-01-06T07:30:41Z) - Voxel-wise classification for porosity investigation of additive
manufactured parts with 3D unsupervised and (deeply) supervised neural
networks [5.467497693327066]
本研究は,X-CT画像からのAMサンプルの容積解析のための最近の教師付き (UNet, UNet++, UNet 3+, MSS-UNet) と教師なし (VAE, ceVAE, gmVAE, vqVAE) DLモデルを再検討する。
3次元入力データを3次元パッチパイプラインで受け入れるように拡張し、計算要求を低くし、効率と一般化性を改善した。
VAE/ceVAEモデルは、特に後処理技術を利用した場合、優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-13T11:23:00Z) - Confidence Attention and Generalization Enhanced Distillation for
Continuous Video Domain Adaptation [62.458968086881555]
連続ビデオドメイン適応(CVDA、Continuous Video Domain Adaptation)は、ソースモデルが個々の変更対象ドメインに適応する必要があるシナリオである。
CVDAの課題に対処するため,遺伝子組み換え型自己知識解離(CART)を用いた信頼性保証ネットワークを提案する。
論文 参考訳(メタデータ) (2023-03-18T16:40:10Z) - Generative Modeling Helps Weak Supervision (and Vice Versa) [87.62271390571837]
本稿では,弱い監督と生成的敵ネットワークを融合したモデルを提案する。
弱い監督によるラベル推定と並行して、データの離散変数をキャプチャする。
これは、弱い教師付き合成画像と擬似ラベルによるデータ拡張を可能にする最初のアプローチである。
論文 参考訳(メタデータ) (2022-03-22T20:24:21Z) - Efficient remedies for outlier detection with variational autoencoders [8.80692072928023]
深層生成モデルによって計算される類似度は、ラベルなしデータによる外れ値検出の候補メトリックである。
理論的に定位された補正は、VAE推定値による鍵バイアスを容易に改善することを示す。
また,VAEのアンサンブル上で計算される確率の分散により,ロバストな外乱検出が可能となることを示す。
論文 参考訳(メタデータ) (2021-08-19T16:00:58Z) - Self-Tuning for Data-Efficient Deep Learning [75.34320911480008]
セルフチューニングは、データ効率のよいディープラーニングを可能にする新しいアプローチである。
ラベル付きおよびラベルなしデータの探索と事前訓練されたモデルの転送を統一する。
SSLとTLの5つのタスクをシャープなマージンで上回ります。
論文 参考訳(メタデータ) (2021-02-25T14:56:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。