論文の概要: Feature transforms for image data augmentation
- arxiv url: http://arxiv.org/abs/2201.09700v1
- Date: Mon, 24 Jan 2022 14:12:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-01-25 21:22:09.621880
- Title: Feature transforms for image data augmentation
- Title(参考訳): 画像データ拡張のための特徴変換
- Authors: Loris Nanni, Michelangelo Paci, Sheryl Brahnam and Alessandra Lumini
- Abstract要約: 画像分類において、多くの拡張アプローチは単純な画像操作アルゴリズムを利用する。
本研究では,14種類の拡張アプローチを組み合わせて生成した画像を追加することで,データレベルでのアンサンブルを構築する。
事前トレーニングされたResNet50ネットワークは、各拡張メソッドから派生した画像を含むトレーニングセットに基づいて微調整される。
- 参考スコア(独自算出の注目度): 74.12025519234153
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A problem with Convolutional Neural Networks (CNNs) is that they require
large datasets to obtain adequate robustness; on small datasets, they are prone
to overfitting. Many methods have been proposed to overcome this shortcoming
with CNNs. In cases where additional samples cannot easily be collected, a
common approach is to generate more data points from existing data using an
augmentation technique. In image classification, many augmentation approaches
utilize simple image manipulation algorithms. In this work, we build ensembles
on the data level by adding images generated by combining fourteen augmentation
approaches, three of which are proposed here for the first time. These novel
methods are based on the Fourier Transform (FT), the Radon Transform (RT) and
the Discrete Cosine Transform (DCT). Pretrained ResNet50 networks are finetuned
on training sets that include images derived from each augmentation method.
These networks and several fusions are evaluated and compared across eleven
benchmarks. Results show that building ensembles on the data level by combining
different data augmentation methods produce classifiers that not only compete
competitively against the state-of-the-art but often surpass the best
approaches reported in the literature.
- Abstract(参考訳): 畳み込みニューラルネットワーク(cnns)の問題点は、十分な堅牢性を得るために大規模なデータセットが必要であることだ。
CNNのこの欠点を克服するために、多くの方法が提案されている。
追加サンプルの収集が容易でない場合、既存のデータから補足技術を使ってより多くのデータポイントを生成する方法が一般的である。
画像分類において、多くの拡張アプローチは単純な画像操作アルゴリズムを利用する。
本研究では,14種類の拡張アプローチを組み合わせて生成した画像を加えて,データレベルでのアンサンブルを構築する。
これらの新しい手法は、フーリエ変換(FT)、ラドン変換(RT)、離散コサイン変換(DCT)に基づいている。
事前学習されたresnet50ネットワークは、各強化法から派生した画像を含むトレーニングセット上で微調整される。
これらのネットワークといくつかの融合は11のベンチマークで評価され比較される。
その結果、異なるデータ拡張手法を組み合わせることで、データレベルのアンサンブルを構築することで、最先端の手法と競争するだけでなく、文献で報告される最良のアプローチをしばしば超越する分類器が得られることがわかった。
関連論文リスト
- Enhancing Image Classification with Augmentation: Data Augmentation Techniques for Improved Image Classification [0.0]
畳み込みニューラルネットワーク(CNN)は、画像に依存するさまざまな分野の応用を見つけ、ディープラーニングの働きをする。
本研究では,本研究で提案される3つの新しいセットを含む11種類のデータ拡張手法の有効性について検討する。
Caltech-101データセットで最も効果的なものとして、画像拡張技術が提案されている。
論文 参考訳(メタデータ) (2025-02-25T23:03:30Z) - Additional Look into GAN-based Augmentation for Deep Learning COVID-19
Image Classification [57.1795052451257]
我々は,GANに基づく拡張性能のデータセットサイズ依存性について,小サンプルに着目して検討した。
両方のセットでStyleGAN2-ADAをトレーニングし、生成した画像の品質を検証した後、マルチクラス分類問題における拡張アプローチの1つとしてトレーニングされたGANを使用する。
GANベースの拡張アプローチは、中規模および大規模データセットでは古典的な拡張に匹敵するが、より小さなデータセットでは不十分である。
論文 参考訳(メタデータ) (2024-01-26T08:28:13Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - Generalizing Dataset Distillation via Deep Generative Prior [75.9031209877651]
本稿では,データセット全体の知識をいくつかの合成画像に抽出することを提案する。
このアイデアは、学習アルゴリズムにトレーニングデータとして与えられる少数の合成データポイントを合成し、結果として元のデータに基づいてトレーニングされたデータを近似するモデルを構築する。
生成モデルの潜在空間における複数の中間特徴ベクトルに多数の画像を蒸留する新しい最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-05-02T17:59:31Z) - ScoreMix: A Scalable Augmentation Strategy for Training GANs with
Limited Data [93.06336507035486]
GAN(Generative Adversarial Networks)は通常、限られたトレーニングデータが利用できる場合、過度に適合する。
ScoreMixは、様々な画像合成タスクのための、新しくスケーラブルなデータ拡張手法である。
論文 参考訳(メタデータ) (2022-10-27T02:55:15Z) - Ensemble Augmentation for Deep Neural Networks Using 1-D Time Series
Vibration Data [0.0]
時系列データは、データ駆動技術で使用される生データ表現の基本的なタイプの1つである。
Deep Neural Networks(DNN)は、最適なパフォーマンスを得るために、巨大なラベル付きトレーニングサンプルを必要とする。
本研究では,この制限を克服するために,アンサンブル拡張と呼ばれるデータ拡張手法を提案する。
論文 参考訳(メタデータ) (2021-08-06T20:04:29Z) - FeatMatch: Feature-Based Augmentation for Semi-Supervised Learning [64.32306537419498]
本稿では,複雑な変換を多様に生成する特徴量に基づく改良・拡張手法を提案する。
これらの変換は、クラスタリングを通じて抽出したクラス内およびクラス間の両方の情報も利用します。
提案手法は,大規模データセットにスケールアップしながら,より小さなデータセットに対して,現在の最先端技術に匹敵するものであることを実証する。
論文 参考訳(メタデータ) (2020-07-16T17:55:31Z) - Complex Wavelet SSIM based Image Data Augmentation [0.0]
我々は,MNIST手書き画像データセットを数値認識に用いる画像データセットとして検討する。
このデータセットの弾性変形に最もよく用いられる拡張手法の1つを詳細に検討する。
本稿では、複雑なウェーブレット構造類似度指標(CWSSIM)と呼ばれる類似度尺度を用いて、無関係なデータを選択的にフィルタリングする手法を提案する。
論文 参考訳(メタデータ) (2020-07-11T21:11:46Z) - FuCiTNet: Improving the generalization of deep learning networks by the
fusion of learned class-inherent transformations [1.8013893443965217]
非常に小さなデータセットがDeep Neural Networks(DNN)のオーバーフィッティングを生成することは広く知られている。
この研究は、非常に小さなデータセット上でのDNNの一般化を改善するために、前述した手法と独立しているが相補的な新しいアプローチを示す。
論文 参考訳(メタデータ) (2020-05-17T12:04:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。