論文の概要: You Only Need Half: Boosting Data Augmentation by Using Partial Content
- arxiv url: http://arxiv.org/abs/2405.02830v1
- Date: Sun, 5 May 2024 06:57:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-07 18:10:30.078751
- Title: You Only Need Half: Boosting Data Augmentation by Using Partial Content
- Title(参考訳): 半分しか必要としない:部分的コンテンツによるデータ拡張
- Authors: Juntao Hu, Yuan Wu,
- Abstract要約: YONA(You Only Need hAllf)と呼ばれる新しいデータ拡張手法を提案する。
ヨナは画像を2分し、半分をノイズで置き換え、残りの半分にデータ拡張技術を適用する。
この方法では、元の画像の冗長な情報を低減し、ニューラルネットワークが不完全なビューからオブジェクトを認識することを奨励し、ニューラルネットワークの堅牢性を大幅に向上する。
- 参考スコア(独自算出の注目度): 5.611768906855499
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel data augmentation method termed You Only Need hAlf (YONA), which simplifies the augmentation process. YONA bisects an image, substitutes one half with noise, and applies data augmentation techniques to the remaining half. This method reduces the redundant information in the original image, encourages neural networks to recognize objects from incomplete views, and significantly enhances neural networks' robustness. YONA is distinguished by its properties of parameter-free, straightforward application, enhancing various existing data augmentation strategies, and thereby bolstering neural networks' robustness without additional computational cost. To demonstrate YONA's efficacy, extensive experiments were carried out. These experiments confirm YONA's compatibility with diverse data augmentation methods and neural network architectures, yielding substantial improvements in CIFAR classification tasks, sometimes outperforming conventional image-level data augmentation methods. Furthermore, YONA markedly increases the resilience of neural networks to adversarial attacks. Additional experiments exploring YONA's variants conclusively show that masking half of an image optimizes performance. The code is available at https://github.com/HansMoe/YONA.
- Abstract(参考訳): 本稿では,拡張プロセスの簡略化を目的とした,YONA (You Only Need hAlf) と呼ばれる新しいデータ拡張手法を提案する。
ヨナは画像を2分し、半分をノイズで置き換え、残りの半分にデータ拡張技術を適用する。
この方法では、元の画像の冗長な情報を低減し、ニューラルネットワークが不完全なビューからオブジェクトを認識することを奨励し、ニューラルネットワークの堅牢性を大幅に向上する。
YONAはパラメータフリーで単純で多様なデータ拡張戦略を強化し、計算コストを増すことなくニューラルネットワークの堅牢性を増強する。
ヨナの有効性を示すため、広範囲な実験が行われた。
これらの実験により、YONAは多様なデータ拡張方法やニューラルネットワークアーキテクチャとの互換性を確認し、CIFAR分類タスクを大幅に改善した。
さらに、YONAは敵攻撃に対するニューラルネットワークのレジリエンスを著しく向上させる。
YONAの変種を探索するさらなる実験は、画像の半分をマスクすることでパフォーマンスが最適化されることを示した。
コードはhttps://github.com/HansMoe/YONAで公開されている。
関連論文リスト
- IncSAR: A Dual Fusion Incremental Learning Framework for SAR Target Recognition [13.783950035836593]
IncSARは、ターゲット認識における破滅的な忘れに対処するために設計された漸進的な学習フレームワークである。
SAR画像に固有のスペックルノイズを軽減するため、ニューラルネットワーク近似に基づくデノナイジングモジュールを用いる。
MSTAR、SAR-AIRcraft-1.0、OpenSARShipベンチマークデータセットの実験は、IncSARが最先端のアプローチを大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2024-10-08T08:49:47Z) - Image edge enhancement for effective image classification [7.470763273994321]
ニューラルネットワークの精度とトレーニング速度を両立させるエッジ拡張に基づく手法を提案する。
我々のアプローチは、利用可能なデータセット内の画像からエッジなどの高周波特徴を抽出し、元の画像と融合させることである。
論文 参考訳(メタデータ) (2024-01-13T10:01:34Z) - ADASR: An Adversarial Auto-Augmentation Framework for Hyperspectral and
Multispectral Data Fusion [54.668445421149364]
HSI(Deep Learning-based Hyperspectral Image)は、HSI(Hyperspectral Image)とMSI(Multispectral Image)を深層ニューラルネットワーク(DNN)に融合させることにより、高空間分解能HSI(HR-HSI)を生成することを目的としている。
本稿では, HSI-MSI 融合のためのデータ多様性を向上するために, HSI-MSI サンプルペアの自動最適化と拡張を行う新しい逆自動データ拡張フレームワーク ADASR を提案する。
論文 参考訳(メタデータ) (2023-10-11T07:30:37Z) - Deep Multi-Threshold Spiking-UNet for Image Processing [51.88730892920031]
本稿では,SNN(Spike Neural Networks)とU-Netアーキテクチャを組み合わせた,画像処理のためのスパイキング-UNetの概念を紹介する。
効率的なスパイキング-UNetを実現するためには,スパイクによる高忠実度情報伝播の確保と,効果的なトレーニング戦略の策定という2つの課題に直面する。
実験の結果,画像のセグメンテーションとデノイングにおいて,スパイキングUNetは非スパイキングと同等の性能を発揮することがわかった。
論文 参考訳(メタデータ) (2023-07-20T16:00:19Z) - Distributed Neural Representation for Reactive in situ Visualization [23.80657290203846]
Inlicit Neural representations (INR) は、大規模ボリュームデータを圧縮するための強力なツールとして登場した。
分散ニューラル表現を開発し,それをその場での可視化に最適化する。
我々の技術はプロセス間のデータ交換を排除し、最先端の圧縮速度、品質、比率を達成する。
論文 参考訳(メタデータ) (2023-03-28T03:55:47Z) - A Generic Shared Attention Mechanism for Various Backbone Neural Networks [53.36677373145012]
自己注意モジュール(SAM)は、異なる層にまたがる強い相関した注意マップを生成する。
Dense-and-Implicit Attention (DIA)はSAMをレイヤ間で共有し、長期間のメモリモジュールを使用する。
我々のシンプルで効果的なDIAは、様々なネットワークバックボーンを一貫して拡張できます。
論文 参考訳(メタデータ) (2022-10-27T13:24:08Z) - ScoreMix: A Scalable Augmentation Strategy for Training GANs with
Limited Data [93.06336507035486]
GAN(Generative Adversarial Networks)は通常、限られたトレーニングデータが利用できる場合、過度に適合する。
ScoreMixは、様々な画像合成タスクのための、新しくスケーラブルなデータ拡張手法である。
論文 参考訳(メタデータ) (2022-10-27T02:55:15Z) - You Only Cut Once: Boosting Data Augmentation with a Single Cut [85.90978190685837]
データ拡張を行うために、You Only Cut Once (YOCO)を提示する。
YOCOは1つの画像を2つのピースに分割し、各ピース内で個別にデータ拡張を行う。
YOCOを適用することで、サンプルあたりの増補の多様性が向上し、ニューラルネットワークが部分的な情報からオブジェクトを認識することを奨励する。
論文 参考訳(メタデータ) (2022-01-28T12:34:40Z) - Adversarial Feature Augmentation and Normalization for Visual
Recognition [109.6834687220478]
最近のコンピュータビジョンの進歩は、分類モデルの一般化能力を改善するために、逆データ拡張を利用する。
本稿では,中間的特徴埋め込みにおける敵対的拡張を提唱する効率的かつ効率的な代替手法を提案する。
代表的なバックボーンネットワークを用いて,多様な視覚認識タスクにまたがる提案手法を検証する。
論文 参考訳(メタデータ) (2021-03-22T20:36:34Z) - Convolutional versus Self-Organized Operational Neural Networks for
Real-World Blind Image Denoising [25.31981236136533]
初めてDeep Self-ONNを採用することで、現実世界の盲目の画像消音問題に取り組みます。
ディープセルフオンはPSNRで最大1.76dBの性能向上で常に優れた結果を達成します。
論文 参考訳(メタデータ) (2021-03-04T14:49:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。