論文の概要: InAugment: Improving Classifiers via Internal Augmentation
- arxiv url: http://arxiv.org/abs/2104.03843v1
- Date: Thu, 8 Apr 2021 15:37:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-09 17:13:52.476783
- Title: InAugment: Improving Classifiers via Internal Augmentation
- Title(参考訳): InAugment: 内部拡張による分類器の改善
- Authors: Moab Arar, Ariel Shamir, Amit Bermano
- Abstract要約: 本稿では,画像内部統計を活用した新しい拡張操作を提案する。
最先端の増補技術による改善を示す。
また,imagenetデータセット上では,resnet50 と efficientnet-b3 top-1 の精度も向上している。
- 参考スコア(独自算出の注目度): 14.281619356571724
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Image augmentation techniques apply transformation functions such as
rotation, shearing, or color distortion on an input image. These augmentations
were proven useful in improving neural networks' generalization ability. In
this paper, we present a novel augmentation operation, InAugment, that exploits
image internal statistics. The key idea is to copy patches from the image
itself, apply augmentation operations on them, and paste them back at random
positions on the same image. This method is simple and easy to implement and
can be incorporated with existing augmentation techniques. We test InAugment on
two popular datasets -- CIFAR and ImageNet. We show improvement over
state-of-the-art augmentation techniques. Incorporating InAugment with Auto
Augment yields a significant improvement over other augmentation techniques
(e.g., +1% improvement over multiple architectures trained on the CIFAR
dataset). We also demonstrate an increase for ResNet50 and EfficientNet-B3
top-1's accuracy on the ImageNet dataset compared to prior augmentation
methods. Finally, our experiments suggest that training convolutional neural
network using InAugment not only improves the model's accuracy and confidence
but its performance on out-of-distribution images.
- Abstract(参考訳): 画像拡張技術は、入力画像に回転、せん断、色歪みなどの変換関数を適用する。
これらの拡張は、ニューラルネットワークの一般化能力を改善するのに有用であることが証明された。
本稿では,画像内部統計を利用した新しい拡張操作であるinaugmentを提案する。
キーとなるアイデアは、イメージ自体からパッチをコピーし、拡張操作を適用し、それらを同じイメージ上のランダムな位置にペーストすることだ。
この手法はシンプルで実装が容易であり、既存の拡張技術と組み込むことができる。
私たちは、CIFARとImageNetという2つの一般的なデータセットでInAugmentをテストする。
我々は最先端の強化技術の改善を示す。
自動補完機能の導入は、他の拡張技術(例えば、cifarデータセットでトレーニングされた複数のアーキテクチャに対する+1%の改善)よりも大幅に改善される。
また,imagenetデータセットにおけるresnet50 と efficientnet-b3 top-1 の精度を,事前拡張法と比較して向上させた。
最後に,InAugmentを用いた畳み込みニューラルネットワークのトレーニングにより,モデルの精度と信頼性が向上するだけでなく,分布外画像の性能が向上することが示唆された。
関連論文リスト
- Image edge enhancement for effective image classification [7.470763273994321]
ニューラルネットワークの精度とトレーニング速度を両立させるエッジ拡張に基づく手法を提案する。
我々のアプローチは、利用可能なデータセット内の画像からエッジなどの高周波特徴を抽出し、元の画像と融合させることである。
論文 参考訳(メタデータ) (2024-01-13T10:01:34Z) - DualAug: Exploiting Additional Heavy Augmentation with OOD Data
Rejection [77.6648187359111]
そこで本稿では,textbfDualAug という新しいデータ拡張手法を提案する。
教師付き画像分類ベンチマークの実験では、DualAugは様々な自動データ拡張法を改善している。
論文 参考訳(メタデータ) (2023-10-12T08:55:10Z) - Soft Augmentation for Image Classification [68.71067594724663]
本稿では,変分変換による拡張の一般化とソフト拡張を提案する。
ソフトターゲットは、より攻撃的なデータ拡張を可能にすることを示す。
また,ソフト拡張が自己教師付き分類タスクに一般化されることも示している。
論文 参考訳(メタデータ) (2022-11-09T01:04:06Z) - SAGE: Saliency-Guided Mixup with Optimal Rearrangements [22.112463794733188]
最適リアレンジメント(SAGE)を用いたサリエンシ誘導混合
SAGEは、ビジュアル・サリエンシをガイダンスとして、イメージペアを並べ替え、混合することで、新しいトレーニング例を作成する。
我々は, CIFAR-10 と CIFAR-100 について, SAGE がより効率的でありながら, より優れた性能と同等の性能を達成できることを実証した。
論文 参考訳(メタデータ) (2022-10-31T19:45:21Z) - Masked Autoencoders are Robust Data Augmentors [90.34825840657774]
ディープニューラルネットワークの一般化には、画像拡張のような正規化技術が必要である。
本稿では,トレーニングプロセスの正規化に向けて,新たな拡張の視点を提案する。
このようなモデルに基づく非線形変換をデータ拡張として活用することで,高レベルの認識タスクを向上できることを示す。
論文 参考訳(メタデータ) (2022-06-10T02:41:48Z) - Feature transforms for image data augmentation [74.12025519234153]
画像分類において、多くの拡張アプローチは単純な画像操作アルゴリズムを利用する。
本研究では,14種類の拡張アプローチを組み合わせて生成した画像を追加することで,データレベルでのアンサンブルを構築する。
事前トレーニングされたResNet50ネットワークは、各拡張メソッドから派生した画像を含むトレーニングセットに基づいて微調整される。
論文 参考訳(メタデータ) (2022-01-24T14:12:29Z) - Augmentation Pathways Network for Visual Recognition [61.33084317147437]
本稿では,より広範な拡張ポリシーのトレーニングを安定させるために,Augmentation Pathways (AP)を導入している。
APは、重いデータ拡張をテーパーし、拡張ポリシーの慎重に選択することなく、安定してパフォーマンスを向上させる。
ImageNetベンチマークの実験結果は、より広い範囲の拡張における互換性と有効性を示している。
論文 参考訳(メタデータ) (2021-07-26T06:54:53Z) - Augmentation Inside the Network [1.5260179407438161]
本稿では,コンピュータビジョン問題に対するデータ拡張手法をシミュレートする手法であるネットワーク内の拡張について述べる。
本稿では,画像分類のためのImageNet-2012およびCIFAR-100データセットについて検証する。
論文 参考訳(メタデータ) (2020-12-19T20:07:03Z) - FeatMatch: Feature-Based Augmentation for Semi-Supervised Learning [64.32306537419498]
本稿では,複雑な変換を多様に生成する特徴量に基づく改良・拡張手法を提案する。
これらの変換は、クラスタリングを通じて抽出したクラス内およびクラス間の両方の情報も利用します。
提案手法は,大規模データセットにスケールアップしながら,より小さなデータセットに対して,現在の最先端技術に匹敵するものであることを実証する。
論文 参考訳(メタデータ) (2020-07-16T17:55:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。