論文の概要: From ImageNet to Image Classification: Contextualizing Progress on
Benchmarks
- arxiv url: http://arxiv.org/abs/2005.11295v1
- Date: Fri, 22 May 2020 17:39:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 08:24:28.438330
- Title: From ImageNet to Image Classification: Contextualizing Progress on
Benchmarks
- Title(参考訳): ImageNetから画像分類へ:ベンチマークの文脈化の進展
- Authors: Dimitris Tsipras, Shibani Santurkar, Logan Engstrom, Andrew Ilyas,
Aleksander Madry
- Abstract要約: ImageNet作成プロセスにおける特定の設計選択が、結果のデータセットの忠実性に与える影響について検討する。
私たちの分析では、ノイズの多いデータ収集パイプラインが、結果のベンチマークと、それがプロキシとして機能する実世界のタスクとの間に、体系的なミスアライメントをもたらす可能性があることを指摘しています。
- 参考スコア(独自算出の注目度): 99.19183528305598
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Building rich machine learning datasets in a scalable manner often
necessitates a crowd-sourced data collection pipeline. In this work, we use
human studies to investigate the consequences of employing such a pipeline,
focusing on the popular ImageNet dataset. We study how specific design choices
in the ImageNet creation process impact the fidelity of the resulting
dataset---including the introduction of biases that state-of-the-art models
exploit. Our analysis pinpoints how a noisy data collection pipeline can lead
to a systematic misalignment between the resulting benchmark and the real-world
task it serves as a proxy for. Finally, our findings emphasize the need to
augment our current model training and evaluation toolkit to take such
misalignments into account. To facilitate further research, we release our
refined ImageNet annotations at https://github.com/MadryLab/ImageNetMultiLabel.
- Abstract(参考訳): スケーラブルな方法でリッチな機械学習データセットを構築するには、クラウドソースのデータ収集パイプラインが必要になることが多い。
本研究では,一般的なImageNetデータセットに焦点をあて,そのようなパイプラインを用いた結果を調べるために人間の研究を用いる。
我々は、imagenet作成プロセスにおける特定の設計選択が、得られたデータセットの忠実性にどのように影響するかを研究する。
当社の分析では、ノイズの多いデータ収集パイプラインが、結果のベンチマークと、それがプロキシとして機能する実世界のタスクとの系統的不一致にどのようにつながるかを指摘します。
最後に,このような誤解を考慮に入れたモデルトレーニングと評価ツールキットの強化の必要性を強調する。
さらなる調査を容易にするため、改良されたImageNetアノテーションをhttps://github.com/MadryLab/ImageNetMultiLabel.comでリリースしています。
関連論文リスト
- Rethinking Image Super-Resolution from Training Data Perspectives [54.28824316574355]
画像超解像(SR)におけるトレーニングデータの効果について検討する。
そこで我々は,自動画像評価パイプラインを提案する。
その結果, (i) 圧縮アーチファクトの少ないデータセット, (ii) 被写体数によって判断される画像内多様性の高いデータセット, (iii) ImageNet や PASS からの大量の画像がSR性能に肯定的な影響を与えることがわかった。
論文 参考訳(メタデータ) (2024-09-01T16:25:04Z) - Deep Domain Adaptation: A Sim2Real Neural Approach for Improving Eye-Tracking Systems [80.62854148838359]
眼球画像のセグメンテーションは、最終視線推定に大きな影響を及ぼす眼球追跡の重要なステップである。
対象視線画像と合成訓練データとの重なり合いを測定するために,次元還元法を用いている。
提案手法は,シミュレーションと実世界のデータサンプルの相違に対処する際の頑健で,性能が向上する。
論文 参考訳(メタデータ) (2024-03-23T22:32:06Z) - ContextMix: A context-aware data augmentation method for industrial
visual inspection systems [21.35653674563189]
産業アプリケーションやベンチマークデータセットに適したメソッドであるContextMixを紹介する。
ContextMixは、画像全体をリサイズし、バッチ内の他の画像に統合することで、新しいデータを生成する。
各種ネットワークアーキテクチャを用いて, 分類, 検出, セグメンテーションタスクにまたがる実効性を評価する。
論文 参考訳(メタデータ) (2024-01-18T15:15:32Z) - DreamTeacher: Pretraining Image Backbones with Deep Generative Models [103.62397699392346]
本稿では、下流画像バックボーンの事前学習に生成ネットワークを利用する自己教師付き特徴表現学習フレームワークを提案する。
1)画像Netなどの大規模ラベル付きデータセット上で,これらのバックボーンを事前学習する代替として,学習した生成特徴を対象画像のバックボーンに蒸留する。
私たちのDreamTeacherは、ボード全体で既存の自己指導型表現学習のアプローチを大幅に上回っていることを実証的に見出した。
論文 参考訳(メタデータ) (2023-07-14T17:17:17Z) - BigDatasetGAN: Synthesizing ImageNet with Pixel-wise Annotations [89.42397034542189]
我々は,GAN(Generative Adversarial Network)を介して,大規模ラベル付きデータセットを合成する。
我々は、ImageNetで訓練されたクラス条件生成モデルBigGANの画像サンプルを、すべての1kクラスに対して、クラス毎の5つのイメージを手動でアノテートする。
我々は、追加の8k実画像のセットをラベル付けして、新しいImageNetベンチマークを作成し、様々な設定でセグメンテーション性能を評価する。
論文 参考訳(メタデータ) (2022-01-12T20:28:34Z) - Learning Co-segmentation by Segment Swapping for Retrieval and Discovery [67.6609943904996]
この研究の目的は、一対のイメージから視覚的に類似したパターンを効率的に識別することである。
画像中のオブジェクトセグメントを選択し、それを別の画像にコピーペーストすることで、合成トレーニングペアを生成する。
提案手法は,Brueghelデータセット上でのアートワークの詳細検索に対して,明確な改善をもたらすことを示す。
論文 参考訳(メタデータ) (2021-10-29T16:51:16Z) - Exploiting the relationship between visual and textual features in
social networks for image classification with zero-shot deep learning [0.0]
本稿では,CLIPニューラルネットワークアーキテクチャの伝達可能な学習能力に基づく分類器アンサンブルを提案する。
本研究は,Placesデータセットのラベルによる画像分類タスクに基づいて,視覚的部分のみを考慮した実験である。
画像に関連付けられたテキストを考えることは、目標に応じて精度を向上させるのに役立つ。
論文 参考訳(メタデータ) (2021-07-08T10:54:59Z) - Automated Cleanup of the ImageNet Dataset by Model Consensus,
Explainability and Confident Learning [0.0]
ImageNetは、ILSVRC12Netでトレーニングされた様々な畳み込みニューラルネットワーク(CNN)のバックボーンである。
本稿では,モデルのコンセンサス,説明可能性,自信のある学習に基づく自動アプリケーションについて述べる。
ImageNet-CleanはSqueezeNetおよびEfficientNet-B0モデルのモデルパフォーマンスを2-2.4%向上させる。
論文 参考訳(メタデータ) (2021-03-30T13:16:35Z) - Unsupervised machine learning via transfer learning and k-means
clustering to classify materials image data [0.0]
本稿では,画像分類のための高性能な教師なし機械学習システムの構築,利用,評価について述べる。
我々は、自然画像のImageNetデータセット上に事前訓練されたVGG16畳み込みニューラルネットワークを用いて、各マイクログラフの特徴表現を抽出する。
このアプローチは、99.4% pm 0.16%$の精度を実現し、結果として得られたモデルは、再トレーニングせずに、新しい画像の分類に使うことができる。
論文 参考訳(メタデータ) (2020-07-16T14:36:04Z) - Multi-task pre-training of deep neural networks for digital pathology [8.74883469030132]
私たちはまず、多くのデジタル病理データセットを22の分類タスクと約900kの画像のプールに組み立て、変換しました。
特徴抽出器として使用されるモデルは、ImageNet事前訓練されたモデルよりも大幅に改善されるか、同等のパフォーマンスを提供するかを示す。
論文 参考訳(メタデータ) (2020-05-05T08:50:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。