論文の概要: ContextMix: A context-aware data augmentation method for industrial
visual inspection systems
- arxiv url: http://arxiv.org/abs/2401.10050v1
- Date: Thu, 18 Jan 2024 15:15:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-19 16:12:44.008322
- Title: ContextMix: A context-aware data augmentation method for industrial
visual inspection systems
- Title(参考訳): ContextMix:産業用視覚検査システムのためのコンテキスト対応データ拡張手法
- Authors: Hyungmin Kim, Donghun Kim, Pyunghwan Ahn, Sungho Suh, Hansang Cho, and
Junmo Kim
- Abstract要約: 産業アプリケーションやベンチマークデータセットに適したメソッドであるContextMixを紹介する。
ContextMixは、画像全体をリサイズし、バッチ内の他の画像に統合することで、新しいデータを生成する。
各種ネットワークアーキテクチャを用いて, 分類, 検出, セグメンテーションタスクにまたがる実効性を評価する。
- 参考スコア(独自算出の注目度): 21.35653674563189
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While deep neural networks have achieved remarkable performance, data
augmentation has emerged as a crucial strategy to mitigate overfitting and
enhance network performance. These techniques hold particular significance in
industrial manufacturing contexts. Recently, image mixing-based methods have
been introduced, exhibiting improved performance on public benchmark datasets.
However, their application to industrial tasks remains challenging. The
manufacturing environment generates massive amounts of unlabeled data on a
daily basis, with only a few instances of abnormal data occurrences. This leads
to severe data imbalance. Thus, creating well-balanced datasets is not
straightforward due to the high costs associated with labeling. Nonetheless,
this is a crucial step for enhancing productivity. For this reason, we
introduce ContextMix, a method tailored for industrial applications and
benchmark datasets. ContextMix generates novel data by resizing entire images
and integrating them into other images within the batch. This approach enables
our method to learn discriminative features based on varying sizes from resized
images and train informative secondary features for object recognition using
occluded images. With the minimal additional computation cost of image
resizing, ContextMix enhances performance compared to existing augmentation
techniques. We evaluate its effectiveness across classification, detection, and
segmentation tasks using various network architectures on public benchmark
datasets. Our proposed method demonstrates improved results across a range of
robustness tasks. Its efficacy in real industrial environments is particularly
noteworthy, as demonstrated using the passive component dataset.
- Abstract(参考訳): ディープニューラルネットワークは目覚ましいパフォーマンスを達成したが、ネットワークパフォーマンスを過度に調整し強化するための重要な戦略として、データ拡張が登場した。
これらの技術は工業生産の文脈において特に重要である。
近年,イメージミキシングに基づく手法が導入され,公開ベンチマークデータセットのパフォーマンスが向上している。
しかし、産業業務への応用は依然として困難である。
製造環境は、異常なデータが発生する事例はごくわずかであり、毎日大量の未ラベルデータを生成する。
これは厳しいデータの不均衡につながる。
したがって、ラベル付けに伴う高コストのため、バランスのとれたデータセットの作成は簡単ではない。
それでも、これは生産性を高めるための重要なステップです。
このような理由から,産業アプリケーションやベンチマークデータセットに適したContextMixを導入する。
ContextMixは、画像全体をリサイズし、バッチ内の他の画像に統合することで、新しいデータを生成する。
提案手法は,画像サイズの変化に基づいて識別特徴を学習し,隠蔽画像を用いた物体認識のための情報二次特徴を訓練する。
画像リサイズの計算コストが最小限に抑えられ、contextmixは既存の拡張技術に比べて性能が向上する。
各種ネットワークアーキテクチャを用いて, 分類, 検出, セグメンテーションタスク間での有効性を評価する。
提案手法は, 各種ロバスト性タスクにおける改善結果を示す。
実産業環境での有効性は、受動的コンポーネントデータセットを用いて示されるように、特に注目に値する。
関連論文リスト
- Improving the Effectiveness of Deep Generative Data [5.856292656853396]
下流の画像処理タスクのための純粋合成画像のモデルを訓練すると、実際のデータに対するトレーニングに比べ、望ましくない性能低下が生じる。
本稿では,この現象に寄与する要因を記述した新しい分類法を提案し,CIFAR-10データセットを用いて検討する。
本手法は,合成データと合成データの混合による学習と合成データのみの学習において,下流分類タスクのベースラインに優れる。
論文 参考訳(メタデータ) (2023-11-07T12:57:58Z) - Leaving Reality to Imagination: Robust Classification via Generated
Datasets [24.411444438920988]
近年のロバスト性に関する研究では、テストセットと同様のデータセットでトレーニングされたニューラルイメージ分類器間での顕著なパフォーマンスギャップが明らかになった。
生成したデータセットは、画像分類器の自然な堅牢性にどのように影響するのか?
生成したデータで強化された実データに基づいて訓練された画像ネット分類器は、標準トレーニングよりも精度が高く、効果的に頑健であることがわかった。
論文 参考訳(メタデータ) (2023-02-05T22:49:33Z) - TRoVE: Transforming Road Scene Datasets into Photorealistic Virtual
Environments [84.6017003787244]
本研究では、シミュレーションデータセットに存在する困難とドメインギャップに対処する合成データ生成パイプラインを提案する。
既存のデータセットからアノテーションや視覚的手がかりを利用すれば、自動マルチモーダルデータ生成が容易になることを示す。
論文 参考訳(メタデータ) (2022-08-16T20:46:08Z) - Negative Data Augmentation [127.28042046152954]
負のデータ拡張サンプルは、データ分散のサポートに関する情報を提供することを示す。
我々は、NDAを識別器の合成データの追加源として利用する新しいGAN訓練目標を提案する。
実験により,本手法で訓練したモデルでは,異常検出能力の向上とともに条件付き・条件付き画像生成の改善を実現している。
論文 参考訳(メタデータ) (2021-02-09T20:28:35Z) - ResizeMix: Mixing Data with Preserved Object Information and True Labels [57.00554495298033]
本研究は,データ混合におけるサリエンシー情報の重要性について検討し,サリエンシー情報は増補性能向上のために必要ではないことを見出した。
本稿では,より効率的で実装が容易なresizemix法を提案する。
論文 参考訳(メタデータ) (2020-12-21T03:43:13Z) - Mixup-Transformer: Dynamic Data Augmentation for NLP Tasks [75.69896269357005]
Mixupは、入力例と対応するラベルを線形に補間する最新のデータ拡張技術である。
本稿では,自然言語処理タスクにmixupを適用する方法について検討する。
我々は、様々なNLPタスクに対して、mixup-transformerと呼ばれる、トランスフォーマーベースの事前学習アーキテクチャにmixupを組み込んだ。
論文 参考訳(メタデータ) (2020-10-05T23:37:30Z) - Multi-Spectral Image Synthesis for Crop/Weed Segmentation in Precision
Farming [3.4788711710826083]
本稿では, 精密農業における作物・雑草の分枝化問題に適用し, 共通データ増分法に関する代替手法を提案する。
我々は、最も関連性の高いオブジェクトクラス(作物や雑草)を合成されたクラスに置き換えることで、半人工的なサンプルを作成する。
RGBデータに加えて、近赤外(NIR)情報も考慮し、4つのチャネルマルチスペクトル合成画像を生成する。
論文 参考訳(メタデータ) (2020-09-12T08:49:36Z) - From ImageNet to Image Classification: Contextualizing Progress on
Benchmarks [99.19183528305598]
ImageNet作成プロセスにおける特定の設計選択が、結果のデータセットの忠実性に与える影響について検討する。
私たちの分析では、ノイズの多いデータ収集パイプラインが、結果のベンチマークと、それがプロキシとして機能する実世界のタスクとの間に、体系的なミスアライメントをもたらす可能性があることを指摘しています。
論文 参考訳(メタデータ) (2020-05-22T17:39:16Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z) - Improving Learning Effectiveness For Object Detection and Classification
in Cluttered Backgrounds [6.729108277517129]
本稿では,異種乱雑な背景の学習データセットを自律的に生成するフレームワークを開発する。
提案するフレームワークの学習効率は,複雑で異種な環境で改善されるべきである。
提案フレームワークの性能を実証実験により検討し,COCOデータセットを用いてトレーニングしたモデルと比較した。
論文 参考訳(メタデータ) (2020-02-27T22:28:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。