論文の概要: Inspector Gadget: A Data Programming-based Labeling System for
Industrial Images
- arxiv url: http://arxiv.org/abs/2004.03264v3
- Date: Fri, 21 Aug 2020 04:12:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 22:34:48.938073
- Title: Inspector Gadget: A Data Programming-based Labeling System for
Industrial Images
- Title(参考訳): インスペクタガジェット:産業画像のためのデータプログラミングに基づくラベルシステム
- Authors: Geon Heo, Yuji Roh, Seonghyeon Hwang, Dayun Lee, Steven Euijong Whang
- Abstract要約: インスペクタガジェット(Inspector Gadget)は、クラウドソーシング、データ拡張、データプログラミングを組み合わせて、画像分類のための大規模に弱いラベルを生成するイメージラベリングシステムである。
実産業画像データセットの実験を行い、検査器ガジェットが他の弱いラベル付け技術よりも優れた性能が得られることを示す。
- 参考スコア(独自算出の注目度): 9.087890731629097
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As machine learning for images becomes democratized in the Software 2.0 era,
one of the serious bottlenecks is securing enough labeled data for training.
This problem is especially critical in a manufacturing setting where smart
factories rely on machine learning for product quality control by analyzing
industrial images. Such images are typically large and may only need to be
partially analyzed where only a small portion is problematic (e.g., identifying
defects on a surface). Since manual labeling these images is expensive, weak
supervision is an attractive alternative where the idea is to generate weak
labels that are not perfect, but can be produced at scale. Data programming is
a recent paradigm in this category where it uses human knowledge in the form of
labeling functions and combines them into a generative model. Data programming
has been successful in applications based on text or structured data and can
also be applied to images usually if one can find a way to convert them into
structured data. In this work, we expand the horizon of data programming by
directly applying it to images without this conversion, which is a common
scenario for industrial applications. We propose Inspector Gadget, an image
labeling system that combines crowdsourcing, data augmentation, and data
programming to produce weak labels at scale for image classification. We
perform experiments on real industrial image datasets and show that Inspector
Gadget obtains better performance than other weak-labeling techniques: Snuba,
GOGGLES, and self-learning baselines using convolutional neural networks (CNNs)
without pre-training.
- Abstract(参考訳): 画像の機械学習がSoftware 2.0時代に民主化されるにつれて、深刻なボトルネックの1つは、トレーニングに十分なラベル付きデータを確保することだ。
この問題は、スマートファクトリが産業画像の分析による製品品質管理に機械学習を頼っている製造環境では特に重要である。
このような画像は通常大きめであり、小さな部分しか問題のない部分(例えば表面上の欠陥を識別するなど)で部分的に解析される必要がある。
これらの画像の手動ラベリングは高価であるため、弱い監督は完璧ではないが大規模に作成できる弱いラベルを生成するという魅力的な代替手段である。
データプログラミングはこのカテゴリの最近のパラダイムであり、人間の知識をラベル付け関数の形で使い、それらを生成モデルに組み合わせている。
データプログラミングは、テキストや構造化データに基づくアプリケーションで成功しており、通常、構造化データに変換する方法を見つけることができれば、画像にも適用できる。
本研究では,この変換を必要とせず,直接画像に適用することで,データプログラミングの地平を広げる。
本稿では,クラウドソーシング,データ拡張,データプログラミングを組み合わせた画像ラベルシステムであるインスペクタガジェットを提案する。
本研究は,実産業用画像データセットを用いた実験を行い,プレトレーニングを行わずに畳み込みニューラルネットワーク(cnns)を用いて,他の弱いラベル技術,スヌーバ,ゴーグル,自己学習ベースラインよりも優れた性能が得られることを示す。
関連論文リスト
- Deep Image Composition Meets Image Forgery [0.0]
画像偽造は長年研究されてきた。
ディープラーニングモデルは、トレーニングのために大量のラベル付きデータを必要とする。
本研究では,画像合成深層学習モデルを用いて,実生活における操作の質に近いスプライシング画像を生成する。
論文 参考訳(メタデータ) (2024-04-03T17:54:37Z) - Towards Pragmatic Semantic Image Synthesis for Urban Scenes [4.36080478413575]
合成画像とラベル付きデータセットとラベルなしの実画像付きデータセットが与えられた場合、入力マスクの内容と実際の画像の外観で画像を生成することができるモデルを学ぶことが目的である。
合成画像は, パッチレベルでの高次特徴の違いをペナルティ化することにより, 生成画像の内容のガイドとして活用する。
対象領域のセマンティックな分布に過度に適合する1つの識別器を用いた以前の研究とは対照的に、画像全体の識別器と画像パッチ上のマルチスケール識別器を用いる。
論文 参考訳(メタデータ) (2023-05-16T18:01:12Z) - Losses over Labels: Weakly Supervised Learning via Direct Loss
Construction [71.11337906077483]
プログラム可能な弱い監視は、機械学習のパラダイムとして成長している。
ラベルの中間ステップを経由することなく,直接損失を発生させるため,ラベルのロバスト・オーバー・ラベル(Losses over Labels, LoL)を提案する。
いくつかのベンチマークテキストおよび画像分類タスクにおいて、LoLは既存の弱い監督手法を改善していることを示す。
論文 参考訳(メタデータ) (2022-12-13T22:29:14Z) - Robustar: Interactive Toolbox Supporting Precise Data Annotation for
Robust Vision Learning [53.900911121695536]
ソフトウェアRobustarの初期リリースを紹介します。
それは、データ駆動の観点から視覚分類機械学習モデルの堅牢性を改善することを目的としている。
論文 参考訳(メタデータ) (2022-07-18T21:12:28Z) - Facilitated machine learning for image-based fruit quality assessment in
developing countries [68.8204255655161]
自動画像分類は食品科学における教師あり機械学習の一般的な課題である。
事前学習型視覚変換器(ViT)に基づく代替手法を提案する。
標準的なデバイス上で限られたリソースで簡単に実装できる。
論文 参考訳(メタデータ) (2022-07-10T19:52:20Z) - Alternative Data Augmentation for Industrial Monitoring using
Adversarial Learning [0.0]
本研究では,生成的対向ネットワークを用いたデータ合成の産業的応用について検討する。
2値ラベルの作成には,問題調整三角関数とWGANモデルという2つの異なる手法を適用する。
ラベルはピクセル2ピクセルを使用してカラーイメージに変換され、U-Netのトレーニングに使用される。
論文 参考訳(メタデータ) (2022-05-09T12:16:38Z) - Towards Good Practices for Efficiently Annotating Large-Scale Image
Classification Datasets [90.61266099147053]
多数の画像の分類ラベルを収集するための効率的なアノテーション戦略を検討する。
人間のラベリング作業を最小化するための修正とベストプラクティスを提案します。
ImageNet100の125kイメージサブセットのシミュレーション実験では、平均で0.35のアノテーションで80%のトップ-1の精度でアノテートできることが示されている。
論文 参考訳(メタデータ) (2021-04-26T16:29:32Z) - Semantic Segmentation with Generative Models: Semi-Supervised Learning
and Strong Out-of-Domain Generalization [112.68171734288237]
本論文では,画像とラベルの再生モデルを用いた識別画素レベルのタスクのための新しいフレームワークを提案する。
我々は,共同画像ラベルの分布を捕捉し,未ラベル画像の大規模な集合を用いて効率的に訓練する生成的対向ネットワークを学習する。
ドメイン内性能をいくつかのベースラインと比較し,ドメイン外一般化を極端に示す最初の例である。
論文 参考訳(メタデータ) (2021-04-12T21:41:25Z) - Multi-label Zero-shot Classification by Learning to Transfer from
External Knowledge [36.04579549557464]
マルチラベルゼロショット分類は、入力画像に対する複数の未知のクラスラベルを予測することを目的としている。
本稿では,外部知識の伝達を学習することで,新たなゼロショット分類フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-30T17:26:46Z) - From ImageNet to Image Classification: Contextualizing Progress on
Benchmarks [99.19183528305598]
ImageNet作成プロセスにおける特定の設計選択が、結果のデータセットの忠実性に与える影響について検討する。
私たちの分析では、ノイズの多いデータ収集パイプラインが、結果のベンチマークと、それがプロキシとして機能する実世界のタスクとの間に、体系的なミスアライメントをもたらす可能性があることを指摘しています。
論文 参考訳(メタデータ) (2020-05-22T17:39:16Z) - Generative Adversarial Data Programming [32.2164057862111]
本稿では,ラベル付け機能を用いた遠隔監視信号を用いて,与えられたデータのラベルをほぼ一定時間で取得できることを示す。
このフレームワークは、自己教師付きラベル付き画像生成、ラベル付き画像生成へのゼロショットテキスト、転送学習、マルチタスク学習など、さまざまな設定に拡張されている。
論文 参考訳(メタデータ) (2020-04-30T07:06:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。