論文の概要: Data-Efficient Deep Learning Method for Image Classification Using Data
Augmentation, Focal Cosine Loss, and Ensemble
- arxiv url: http://arxiv.org/abs/2007.07805v1
- Date: Wed, 15 Jul 2020 16:30:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 06:13:15.442508
- Title: Data-Efficient Deep Learning Method for Image Classification Using Data
Augmentation, Focal Cosine Loss, and Ensemble
- Title(参考訳): データ強化, 声帯損失, アンサンブルを用いた画像分類のためのデータ効率のよい深層学習法
- Authors: Byeongjo Kim, Chanran Kim, Jaehoon Lee, Jein Song, Gyoungsoo Park
- Abstract要約: パフォーマンス向上のためには、小さなデータセットを効果的に活用することが重要です。
これらの手法により,クラス毎に50の画像のみからなるImageNetデータを活用することにより,精度の高い画像データを得る。
データ・エフェクティブ・コンピュータ・ビジョン・チャレンジのビジュアル・インダクティブ・プリンタでは,本モデルが4位にランクインしている。
- 参考スコア(独自算出の注目度): 9.55617552923003
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In general, sufficient data is essential for the better performance and
generalization of deep-learning models. However, lots of limitations(cost,
resources, etc.) of data collection leads to lack of enough data in most of the
areas. In addition, various domains of each data sources and licenses also lead
to difficulties in collection of sufficient data. This situation makes us hard
to utilize not only the pre-trained model, but also the external knowledge.
Therefore, it is important to leverage small dataset effectively for achieving
the better performance. We applied some techniques in three aspects: data, loss
function, and prediction to enable training from scratch with less data. With
these methods, we obtain high accuracy by leveraging ImageNet data which
consist of only 50 images per class. Furthermore, our model is ranked 4th in
Visual Inductive Printers for Data-Effective Computer Vision Challenge.
- Abstract(参考訳): 一般に、ディープラーニングモデルの性能と一般化に十分なデータが不可欠である。
しかし、データ収集の多くの制限(コスト、リソースなど)は、ほとんどの領域で十分なデータ不足をもたらします。
さらに、各データソースとライセンスのさまざまなドメインも、十分なデータの収集を困難にしている。
この状況は、事前訓練されたモデルだけでなく、外部の知識も利用しにくくなります。
したがって、より優れたパフォーマンスを達成するために、小さなデータセットを効果的に活用することが重要です。
データ,損失関数,予測という3つの側面から,少ないデータでスクラッチからトレーニングを可能にする手法を適用した。
これらの手法により,1クラスあたり50画像のみからなるimagenetデータを活用することで,高い精度が得られる。
さらに,データ効率の良いコンピュータビジョンチャレンジでは,視覚インダクティブプリンタでは4位である。
関連論文リスト
- Research and Implementation of Data Enhancement Techniques for Graph Neural Networks [10.575426305555538]
実用工学の応用では、より多くのデータが得られない状況や、データを取得するコストが高すぎる状況によって、いくつかのデータが影響を受ける。
本稿では、まず、グラフニューラルネットワークのデータ強化技術の要点を解析し、同時にグラフニューラルネットワークの奥行きの合成を紹介する。
論文 参考訳(メタデータ) (2024-06-18T14:07:38Z) - A Simple and Efficient Baseline for Data Attribution on Images [107.12337511216228]
現在の最先端のアプローチでは、モデル予測を正確に評価するために、最大30万のモデルの大規模なアンサンブルが必要となる。
本研究では、自己教師付き学習によって事前訓練されたバックボーンの特徴空間を利用して、データ帰属を行うミニマリストベースラインに焦点を当てる。
提案手法はモデルに依存しず,大規模データセットに容易にスケールできる。
論文 参考訳(メタデータ) (2023-11-03T17:29:46Z) - Data Filtering Networks [67.827994353269]
本研究では、大規模な未処理データセットをフィルタリングする第2ステップにおいて、データフィルタリングネットワーク(DFN)を学習する問題について検討する。
我々の重要な発見は、フィルタリングのためのネットワークの品質が下流タスクのパフォーマンスと異なることである。
我々の知見に基づいて、最先端の画像テキストデータセットを誘導する新しいデータフィルタリングネットワークを構築した。
論文 参考訳(メタデータ) (2023-09-29T17:37:29Z) - Synthetic Data for Object Classification in Industrial Applications [53.180678723280145]
オブジェクト分類では、オブジェクトごとに、異なる条件下で、多数の画像を取得することは必ずしも不可能である。
本研究は,学習データセット内の限られたデータに対処するゲームエンジンを用いた人工画像の作成について検討する。
論文 参考訳(メタデータ) (2022-12-09T11:43:04Z) - Image Data Augmentation for Deep Learning: A Survey [8.817690876855728]
我々は、異なる画像データ拡張手法を体系的にレビューする。
本稿では,レビュー手法の分類法を提案し,これらの手法の長所と短所について述べる。
また,3種類のコンピュータビジョンタスクに対して,様々なデータ拡張手法による広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-04-19T02:05:56Z) - On The State of Data In Computer Vision: Human Annotations Remain
Indispensable for Developing Deep Learning Models [0.0]
高品質ラベル付きデータセットは機械学習(ML)の発展に重要な役割を果たす
2012年にImageNetデータセットとAlexNetモデルが登場して以来、新しいオープンソースのラベル付きビジョンデータセットのサイズはほぼ一定である。
コンピュータビジョンコミュニティの少数の出版物は、Imagenetよりも桁違いの大きさのデータセットの教師付き学習に取り組む。
論文 参考訳(メタデータ) (2021-07-31T00:08:21Z) - On the Pitfalls of Learning with Limited Data: A Facial Expression
Recognition Case Study [0.5249805590164901]
私達はビデオからの顔表現の認識の問題に焦点を合わせます。
4つのデータベースを異なる複雑さで,9つのディープラーニングアーキテクチャで動画分類を行った。
複雑なトレーニングセットは、トランスファーラーニングと合成生成データでトレーニングすると、より安定したテストセットによく変換されます。
論文 参考訳(メタデータ) (2021-04-02T18:53:41Z) - Data Impressions: Mining Deep Models to Extract Samples for Data-free
Applications [26.48630545028405]
データインプレッションはトレーニングデータのプロキシとして機能し、さまざまなタスクを実現するために使用することができる。
いくつかのコンピュータビジョンタスクにおけるデータインプレッションの適用性を示す。
論文 参考訳(メタデータ) (2021-01-15T11:37:29Z) - Efficient Conditional Pre-training for Transfer Learning [71.01129334495553]
本稿では,事前学習データセットから関連するサブセットを選択するための効率的なフィルタリング手法を提案する。
我々は、教師なし設定と教師なし設定の両方において、ImageNetで事前トレーニングを行うことで、我々の技術を検証する。
我々は、サブセットで利用可能なモデルをチューニングし、大規模なデータセットからフィルタリングされたデータセットで事前トレーニングすることで、標準のImageNet事前トレーニングを1~3%改善する。
論文 参考訳(メタデータ) (2020-11-20T06:16:15Z) - Neural Data Server: A Large-Scale Search Engine for Transfer Learning
Data [78.74367441804183]
我々は,ターゲットドメインに最も有用な転送学習データを見つけるための大規模検索エンジンであるNeural Data Server (NDS)を紹介した。
NDSは、いくつかの人気のある画像データセットをインデックスするデータサーバで構成され、クライアントにデータを推奨することを目的としている。
我々は,NDSが様々な伝達学習シナリオにおいて有効であることを示し,複数のターゲットデータセットに対して最先端の性能を示す。
論文 参考訳(メタデータ) (2020-01-09T01:21:30Z) - DeGAN : Data-Enriching GAN for Retrieving Representative Samples from a
Trained Classifier [58.979104709647295]
我々は、トレーニングされたネットワークの将来の学習タスクのために、利用可能なデータの豊富さと関連するデータの欠如の間のギャップを埋める。
利用可能なデータは、元のトレーニングデータセットまたは関連するドメインデータセットの不均衡なサブセットである可能性があるため、代表サンプルを検索するために使用します。
関連ドメインからのデータを活用して最先端のパフォーマンスを実現することを実証する。
論文 参考訳(メタデータ) (2019-12-27T02:05:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。