論文の概要: Multi-Level Feature Fusion for Continual Learning in Visual Quality Inspection
- arxiv url: http://arxiv.org/abs/2601.00725v1
- Date: Fri, 02 Jan 2026 15:50:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-05 15:04:33.598541
- Title: Multi-Level Feature Fusion for Continual Learning in Visual Quality Inspection
- Title(参考訳): 視覚品質検査における連続学習のためのマルチレベル特徴融合
- Authors: Johannes C. Bauer, Paul Geng, Stephan Trattnig, Petr Dokládal, Rüdiger Daub,
- Abstract要約: 本研究は,事前学習したネットワークの深さの異なる表現を利用することで,両面を同時に改善することを目的としたマルチレベル特徴融合(MLFF)アプローチを提案する。
提案手法は,異なる品質検査問題に対するエンド・ツー・エンド・トレーニングの性能に適合し,トレーニング可能なパラメータを著しく少なくすることができることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks show great potential for automating various visual quality inspection tasks in manufacturing. However, their applicability is limited in more volatile scenarios, such as remanufacturing, where the inspected products and defect patterns often change. In such settings, deployed models require frequent adaptation to novel conditions, effectively posing a continual learning problem. To enable quick adaptation, the necessary training processes must be computationally efficient while still avoiding effects like catastrophic forgetting. This work presents a multi-level feature fusion (MLFF) approach that aims to improve both aspects simultaneously by utilizing representations from different depths of a pretrained network. We show that our approach is able to match the performance of end-to-end training for different quality inspection problems while using significantly less trainable parameters. Furthermore, it reduces catastrophic forgetting and improves generalization robustness to new product types or defects.
- Abstract(参考訳): ディープニューラルネットワークは、製造における様々な視覚的品質検査タスクを自動化する大きな可能性を示している。
しかし、それらの適用性は、検査された製品や欠陥パターンが頻繁に変化する再製造のような、より不安定なシナリオに制限されている。
このような環境では、デプロイされたモデルは、新しい条件への頻繁な適応を必要とし、継続的な学習問題を効果的に引き起こす。
迅速な適応を可能にするためには、必要なトレーニングプロセスは計算的に効率的でなければならない。
本研究は,事前学習したネットワークの深さの異なる表現を利用することで,両面を同時に改善することを目的としたマルチレベル特徴融合(MLFF)アプローチを提案する。
提案手法は,異なる品質検査問題に対するエンド・ツー・エンド・トレーニングの性能に適合することを示した。
さらに、破滅的な忘れ込みを減らし、新しい製品タイプや欠陥に対する一般化の堅牢性を向上させる。
関連論文リスト
- Bigger, Regularized, Categorical: High-Capacity Value Functions are Efficient Multi-Task Learners [60.75160178669076]
オンライン強化学習におけるタスク干渉の問題に対して,クロスエントロピーを用いて訓練し,学習可能なタスク埋め込みを条件とした高容量値モデルの使用が課題であることを示す。
280以上のユニークなタスクを持つ7つのマルチタスクベンチマークで、高い自由度ヒューマノイド制御と離散視覚ベースのRLにまたがるアプローチを検証した。
論文 参考訳(メタデータ) (2025-05-29T06:41:45Z) - ConsistentFeature: A Plug-and-Play Component for Neural Network Regularization [0.32885740436059047]
過パラメータ化されたニューラルネットワークモデルは、トレーニングとテストセットの間に大きなパフォーマンスの相違をもたらすことが多い。
モデルは異なるデータセットで異なる表現を学習する。
適応的手法であるConsistentFeatureを提案し、同じトレーニングセットのランダムなサブセット間で特徴差を制約することでモデルを正規化する。
論文 参考訳(メタデータ) (2024-12-02T13:21:31Z) - Unlearning as multi-task optimization: A normalized gradient difference approach with an adaptive learning rate [105.86576388991713]
正規化勾配差(NGDiff)アルゴリズムを導入し、目的間のトレードオフをよりよく制御できるようにする。
本研究では,TOFUおよびMUSEデータセットにおける最先端の未学習手法において,NGDiffの優れた性能を実証的に実証し,理論的解析を行った。
論文 参考訳(メタデータ) (2024-10-29T14:41:44Z) - Learning Continually by Spectral Regularization [45.55508032009977]
連続学習アルゴリズムは、ネットワークのトレーニング性を維持しながら、良好な性能を維持することにより、可塑性の損失を軽減する。
我々は,初期化時のニューラルネットワークパラメータの特異値が学習の初期段階におけるトレーニング容易性の重要な要因であることから着想を得た,継続学習を改善するための新しい手法を開発した。
提案するスペクトル正規化器は,連続的な教師付きおよび強化学習環境において,様々なモデルアーキテクチャの訓練性と性能を維持可能であることを示す実験的検討を行った。
論文 参考訳(メタデータ) (2024-06-10T21:34:43Z) - Large Language Models are Miscalibrated In-Context Learners [22.30783674111999]
本研究では,学習方法の異なる選択にまたがる行動の詳細な分析を行う。
低リソース環境における全ての学習手法に誤校正問題が存在することを観察する。
最大確率で自己認識を行うことで,ロバストかつ校正された予測が得られることがわかった。
論文 参考訳(メタデータ) (2023-12-21T11:55:10Z) - A Reusable AI-Enabled Defect Detection System for Railway Using
Ensembled CNN [5.381374943525773]
欠陥検出は、鉄道システムの信頼性を確保するために不可欠である。
現在のアプローチは、CNNのような単一のディープラーニングモデルに依存している。
再利用可能なAI対応欠陥検出手法を提案する。
論文 参考訳(メタデータ) (2023-11-24T19:45:55Z) - Continual Learning with Pretrained Backbones by Tuning in the Input
Space [44.97953547553997]
ディープラーニングモデルを非定常環境に適用することの本質的な困難さは、ニューラルネットワークの実際のタスクへの適用性を制限している。
ネットワークの事前学習部分の更新を回避し、通常の分類ヘッドだけでなく、新たに導入した学習可能なパラメータのセットも学習することで、微調整手順をより効果的にするための新しい戦略を提案する。
論文 参考訳(メタデータ) (2023-06-05T15:11:59Z) - Improving generalization with synthetic training data for deep learning
based quality inspection [0.0]
教師付きディープラーニングは、トレーニングのために大量の注釈付きイメージを必要とする。
実際には、そのようなデータの収集と注釈付けは費用がかかり、手間がかかる。
ランダムに生成した合成訓練画像を用いることで、領域不安定性に対処できることを示す。
論文 参考訳(メタデータ) (2022-02-25T16:51:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。