論文の概要: Tune It or Don't Use It: Benchmarking Data-Efficient Image
Classification
- arxiv url: http://arxiv.org/abs/2108.13122v1
- Date: Mon, 30 Aug 2021 11:24:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-31 18:46:46.962214
- Title: Tune It or Don't Use It: Benchmarking Data-Efficient Image
Classification
- Title(参考訳): Tune it or Don't Use: データ効率の良い画像分類のベンチマーク
- Authors: Lorenzo Brigato, Bj\"orn Barz, Luca Iocchi, Joachim Denzler
- Abstract要約: 様々な領域にまたがる6つの多様なデータセットからなるデータ効率画像分類のためのベンチマークを設計する。
我々は、2017年から2021年にかけて、標準のクロスエントロピーベースラインとデータ効率の高いディープラーニングの8つの手法を再評価した。
学習率、ウェイト崩壊、バッチサイズを個別の検証で調整すると、高い競争力を持つベースラインとなる。
- 参考スコア(独自算出の注目度): 9.017660524497389
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data-efficient image classification using deep neural networks in settings,
where only small amounts of labeled data are available, has been an active
research area in the recent past. However, an objective comparison between
published methods is difficult, since existing works use different datasets for
evaluation and often compare against untuned baselines with default
hyper-parameters. We design a benchmark for data-efficient image classification
consisting of six diverse datasets spanning various domains (e.g., natural
images, medical imagery, satellite data) and data types (RGB, grayscale,
multispectral). Using this benchmark, we re-evaluate the standard cross-entropy
baseline and eight methods for data-efficient deep learning published between
2017 and 2021 at renowned venues. For a fair and realistic comparison, we
carefully tune the hyper-parameters of all methods on each dataset.
Surprisingly, we find that tuning learning rate, weight decay, and batch size
on a separate validation split results in a highly competitive baseline, which
outperforms all but one specialized method and performs competitively to the
remaining one.
- Abstract(参考訳): 少数のラベル付きデータしか利用できない設定において、ディープニューラルネットワークを用いたデータ効率の高い画像分類は、近年、活発な研究分野となっている。
しかし、既存の研究では異なるデータセットを使用して評価し、デフォルトのハイパーパラメータで未修正のベースラインと比較することが多いため、公開メソッドの客観的比較は難しい。
我々は,様々な領域(自然画像,医用画像,衛星データなど)とデータタイプ(rgb,grayscale,multispectral)にまたがる6つの多様なデータセットからなる,データ効率の高い画像分類のためのベンチマークを設計した。
このベンチマークを用いて、2017年から2021年にかけて、標準的なクロスエントロピーベースラインとデータ効率の高いディープラーニングの8つの手法を再評価した。
公平かつ現実的な比較のために、各データセット上のすべてのメソッドのハイパーパラメータを慎重に調整する。
意外なことに、個別の検証で学習率、重み付け、バッチサイズを調整すると、高い競争力を持つベースラインが出来上がり、1つの専門的手法以外を上回り、残りの手法と競合する結果が得られます。
関連論文リスト
- Additional Look into GAN-based Augmentation for Deep Learning COVID-19
Image Classification [57.1795052451257]
我々は,GANに基づく拡張性能のデータセットサイズ依存性について,小サンプルに着目して検討した。
両方のセットでStyleGAN2-ADAをトレーニングし、生成した画像の品質を検証した後、マルチクラス分類問題における拡張アプローチの1つとしてトレーニングされたGANを使用する。
GANベースの拡張アプローチは、中規模および大規模データセットでは古典的な拡張に匹敵するが、より小さなデータセットでは不十分である。
論文 参考訳(メタデータ) (2024-01-26T08:28:13Z) - Fine-grained Recognition with Learnable Semantic Data Augmentation [68.48892326854494]
きめ細かい画像認識は、長年続くコンピュータビジョンの課題である。
本稿では,識別領域損失問題を軽減するため,特徴レベルのトレーニングデータを多様化することを提案する。
本手法は,いくつかの人気分類ネットワーク上での一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2023-09-01T11:15:50Z) - Exploring Data Redundancy in Real-world Image Classification through
Data Selection [20.389636181891515]
ディープラーニングモデルはトレーニングに大量のデータを必要とすることが多く、結果としてコストが増大する。
実世界の画像データの冗長性を調べるために,シナプスインテリジェンスと勾配ノルムに基づく2つのデータ評価指標を提案する。
オンラインおよびオフラインのデータ選択アルゴリズムは、検査されたデータ値に基づいてクラスタリングとグループ化によって提案される。
論文 参考訳(メタデータ) (2023-06-25T03:31:05Z) - Evaluating Graph Neural Networks for Link Prediction: Current Pitfalls
and New Benchmarking [66.83273589348758]
リンク予測は、グラフのエッジの一部のみに基づいて、目に見えないエッジが存在するかどうかを予測しようとする。
近年,この課題にグラフニューラルネットワーク(GNN)を活用すべく,一連の手法が導入されている。
これらの新しいモデルの有効性をよりよく評価するために、新しい多様なデータセットも作成されている。
論文 参考訳(メタデータ) (2023-06-18T01:58:59Z) - Image Classification with Small Datasets: Overview and Benchmark [0.0]
私たちは過去の研究を体系的に組織化し、結合し、現在分断され散らばっているコミュニティを統合する。
本稿では,アプローチの客観的比較を可能にする共通ベンチマークを提案する。
このベンチマークを用いて、標準のクロスエントロピーベースラインと、有名な会場で2017年から2021年にかけて発行された10の既存手法を再評価する。
論文 参考訳(メタデータ) (2022-12-23T17:11:16Z) - Dominant Set-based Active Learning for Text Classification and its
Application to Online Social Media [0.0]
本稿では,最小限のアノテーションコストで大規模未ラベルコーパスのトレーニングを行うための,プールベースのアクティブラーニング手法を提案する。
提案手法には調整すべきパラメータが一切ないため,データセットに依存しない。
本手法は,最先端のアクティブラーニング戦略と比較して高い性能を実現する。
論文 参考訳(メタデータ) (2022-01-28T19:19:03Z) - Multi-dataset Pretraining: A Unified Model for Semantic Segmentation [97.61605021985062]
我々は、異なるデータセットの断片化アノテーションを最大限に活用するために、マルチデータセット事前訓練と呼ばれる統合フレームワークを提案する。
これは、複数のデータセットに対して提案されたピクセルからプロトタイプへのコントラスト損失を通じてネットワークを事前トレーニングすることで実現される。
異なるデータセットからの画像とクラス間の関係をより良くモデル化するために、クロスデータセットの混合によりピクセルレベルの埋め込みを拡張する。
論文 参考訳(メタデータ) (2021-06-08T06:13:11Z) - How to distribute data across tasks for meta-learning? [59.608652082495624]
タスクごとのデータポイントの最適な数は予算に依存しますが、それは大きな予算のためのユニークな一定の値に収束します。
この結果から,データ収集の簡便かつ効率的な手順が示唆された。
論文 参考訳(メタデータ) (2021-03-15T15:38:47Z) - A pipeline for fair comparison of graph neural networks in node
classification tasks [4.418753792543564]
グラフニューラルネットワーク (GNN) は, グラフデータを用いた複数の分野に適用可能性について検討されている。
新しいメソッドの公正な比較を保証するための標準的なトレーニング設定はありません。
ノード分類に同じトレーニング設定を適用可能な,標準的な再現可能なベンチマークを導入する。
論文 参考訳(メタデータ) (2020-12-19T07:43:05Z) - Adversarial Learning for Personalized Tag Recommendation [61.76193196463919]
大規模データセットでトレーニング可能なエンドツーエンドのディープネットワークを提案する。
ユーザの嗜好と視覚的エンコーディングの合同トレーニングにより、ネットワークは視覚的嗜好をタグ付け行動と効率的に統合することができる。
本稿では,提案モデルの有効性を2つの大規模および公開データセットで示す。
論文 参考訳(メタデータ) (2020-04-01T20:41:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。