論文の概要: Dynamic Test-Time Augmentation via Differentiable Functions
- arxiv url: http://arxiv.org/abs/2212.04681v3
- Date: Tue, 22 Oct 2024 06:56:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-23 14:25:11.603240
- Title: Dynamic Test-Time Augmentation via Differentiable Functions
- Title(参考訳): 微分関数による動的テスト時間拡張
- Authors: Shohei Enomoto, Monikka Roslianna Busto, Takeharu Eda,
- Abstract要約: DynTTAは、認識モデルを再訓練することなく、認識に優しい画像を生成する画像強調手法である。
DynTTAは、微分可能なデータ拡張技術に基づいて、多くの画像からブレンド画像を生成し、分布シフト時の認識精度を向上させる。
- 参考スコア(独自算出の注目度): 3.686808512438363
- License:
- Abstract: Distribution shifts, which often occur in the real world, degrade the accuracy of deep learning systems, and thus improving robustness to distribution shifts is essential for practical applications. To improve robustness, we study an image enhancement method that generates recognition-friendly images without retraining the recognition model. We propose a novel image enhancement method, DynTTA, which is based on differentiable data augmentation techniques and generates a blended image from many augmented images to improve the recognition accuracy under distribution shifts. In addition to standard data augmentations, DynTTA also incorporates deep neural network-based image transformation, further improving the robustness. Because DynTTA is composed of differentiable functions, it can be directly trained with the classification loss of the recognition model. In experiments with widely used image recognition datasets using various classification models, DynTTA improves the robustness with almost no reduction in classification accuracy for clean images, thus outperforming the existing methods. Furthermore, the results show that robustness is significantly improved by estimating the training-time augmentations for distribution-shifted datasets using DynTTA and retraining the recognition model with the estimated augmentations. DynTTA is a promising approach for applications that require both clean accuracy and robustness. Our code is available at \url{https://github.com/s-enmt/DynTTA}.
- Abstract(参考訳): 実世界でしばしば発生する分散シフトは、ディープラーニングシステムの精度を低下させ、したがって分散シフトに対するロバスト性を改善することが、実践的な応用にとって不可欠である。
頑健性を改善するために,認識モデルを再訓練することなく,認識に優しい画像を生成する画像強調手法を提案する。
本稿では,DynTTAの新たな画像強調手法を提案する。DynTTAは,微分可能なデータ拡張技術に基づいて,多数の画像からブレンド画像を生成し,分布シフト時の認識精度を向上させる。
標準的なデータ拡張に加えて、DynTTAはディープニューラルネットワークベースの画像変換も取り入れており、ロバスト性をさらに向上している。
DynTTAは微分可能な関数で構成されているので、認識モデルの分類損失を直接訓練することができる。
様々な分類モデルを用いて広く使われている画像認識データセットを用いた実験において、DynTTAはクリーンな画像の分類精度をほとんど低下させることなくロバスト性を向上し、既存の手法よりも優れている。
さらに,DynTTAを用いて分布シフトデータセットのトレーニング時間拡張を推定し,認識モデルの再学習を行うことにより,ロバスト性を大幅に向上することを示した。
DynTTAは、クリーンな正確性と堅牢性の両方を必要とするアプリケーションにとって有望なアプローチである。
私たちのコードは \url{https://github.com/s-enmt/DynTTA} で利用可能です。
関連論文リスト
- LeRF: Learning Resampling Function for Adaptive and Efficient Image Interpolation [64.34935748707673]
最近のディープニューラルネットワーク(DNN)は、学習データ前処理を導入することで、パフォーマンスを著しく向上させた。
本稿では,DNNが学習した構造的前提と局所的連続仮定の両方を活かした学習再サンプリング(Learning Resampling, LeRF)を提案する。
LeRFは空間的に異なる再サンプリング関数を入力画像ピクセルに割り当て、ニューラルネットワークを用いてこれらの再サンプリング関数の形状を予測する。
論文 参考訳(メタデータ) (2024-07-13T16:09:45Z) - Adversarial Masking Contrastive Learning for vein recognition [10.886119051977785]
ベイン認識は、セキュリティとプライバシーの高さから注目を集めている。
静脈認識のために、畳み込みニューラルネットワーク(CNN)やトランスフォーマーのようなディープニューラルネットワークが導入されている。
近年の進歩にもかかわらず、画像サンプルの不足のため、指先の特徴抽出のための既存のソリューションはまだ最適ではない。
論文 参考訳(メタデータ) (2024-01-16T03:09:45Z) - Image edge enhancement for effective image classification [7.470763273994321]
ニューラルネットワークの精度とトレーニング速度を両立させるエッジ拡張に基づく手法を提案する。
我々のアプローチは、利用可能なデータセット内の画像からエッジなどの高周波特徴を抽出し、元の画像と融合させることである。
論文 参考訳(メタデータ) (2024-01-13T10:01:34Z) - X-Transfer: A Transfer Learning-Based Framework for GAN-Generated Fake
Image Detection [33.31312811230408]
顔置換などの偽画像を生成するためにGANを誤用することは、重大なセキュリティ上の懸念を引き起こす。
本稿では,新しい画像検出アルゴリズムであるX-Transferを提案する。
インターリーブされた並列勾配伝送を利用する2つのニューラルネットワークを利用することで、トランスファーラーニングを強化する。
論文 参考訳(メタデータ) (2023-10-07T01:23:49Z) - Performance of GAN-based augmentation for deep learning COVID-19 image
classification [57.1795052451257]
ディープラーニングを医療分野に適用する上で最大の課題は、トレーニングデータの提供である。
データ拡張は、限られたデータセットに直面した時に機械学習で使用される典型的な方法論である。
本研究は, 新型コロナウイルスの胸部X線画像セットを限定して, StyleGAN2-ADAモデルを用いて訓練するものである。
論文 参考訳(メタデータ) (2023-04-18T15:39:58Z) - Effective Data Augmentation With Diffusion Models [65.09758931804478]
我々は、事前訓練されたテキスト・画像拡散モデルによりパラメータ化された画像・画像変換によるデータ拡張の多様性の欠如に対処する。
本手法は,市販の拡散モデルを用いて画像のセマンティクスを編集し,いくつかのラベル付き例から新しい視覚概念に一般化する。
本手法は,実世界の雑草認識タスクと数ショット画像分類タスクにおいて評価し,テスト領域における精度の向上を観察する。
論文 参考訳(メタデータ) (2023-02-07T20:42:28Z) - Does Data Augmentation Benefit from Split BatchNorms [29.134017115737507]
State-of-the-art data augmentationはトレーニングイメージを強く歪ませ、トレーニング中に見られる例と推論の間に相違をもたらす。
本稿では, 配信外, 強化画像に対する補助的BatchNormを提案する。
この手法により,CIFAR-10,CIFAR-100,ImageNetなどの画像分類ベンチマークの性能が大幅に向上することがわかった。
論文 参考訳(メタデータ) (2020-10-15T15:00:43Z) - Encoding Robustness to Image Style via Adversarial Feature Perturbations [72.81911076841408]
我々は、画像画素ではなく特徴統計を直接摂動することで、頑健なモデルを生成することで、敵の訓練に適応する。
提案手法であるAdvBN(Adversarial Batch Normalization)は,トレーニング中に最悪の機能摂動を発生させる単一ネットワーク層である。
論文 参考訳(メタデータ) (2020-09-18T17:52:34Z) - Learning to Learn Parameterized Classification Networks for Scalable
Input Images [76.44375136492827]
畳み込みニューラルネットワーク(CNN)は、入力解像度の変化に関して予測可能な認識動作を持たない。
我々はメタラーナーを用いて、様々な入力スケールのメインネットワークの畳み込み重みを生成する。
さらに、異なる入力解像度に基づいて、モデル予測よりもフライでの知識蒸留を利用する。
論文 参考訳(メタデータ) (2020-07-13T04:27:25Z) - Image Augmentations for GAN Training [57.65145659417266]
我々は,バニラGANとGANの両方のイメージを正規化して拡張する方法に関する洞察とガイドラインを提供する。
意外なことに、Vanilla GANsは、最近の最先端の結果と同等の世代品質を実現している。
論文 参考訳(メタデータ) (2020-06-04T00:16:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。