論文の概要: LayerMix: Enhanced Data Augmentation through Fractal Integration for Robust Deep Learning
- arxiv url: http://arxiv.org/abs/2501.04861v2
- Date: Sat, 11 Jan 2025 02:45:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-14 10:43:39.161242
- Title: LayerMix: Enhanced Data Augmentation through Fractal Integration for Robust Deep Learning
- Title(参考訳): LayerMix:ロバストディープラーニングのためのフラクタル統合によるデータ拡張
- Authors: Hafiz Mughees Ahmad, Dario Morle, Afshin Rahimi,
- Abstract要約: ディープラーニングモデルは、アウト・オブ・ディストリビューション(OOD)のサンプルに直面すると、一貫したパフォーマンスを維持するのに苦労することが多い。
モデルロバスト性を体系的に強化する革新的なデータ拡張アプローチであるLayerMixを紹介する。
本手法は,ニューラルネットワークの一般化能力を大幅に向上させる意味論的一貫した合成サンプルを生成する。
- 参考スコア(独自算出の注目度): 1.786053901581251
- License:
- Abstract: Deep learning models have demonstrated remarkable performance across various computer vision tasks, yet their vulnerability to distribution shifts remains a critical challenge. Despite sophisticated neural network architectures, existing models often struggle to maintain consistent performance when confronted with Out-of-Distribution (OOD) samples, including natural corruptions, adversarial perturbations, and anomalous patterns. We introduce LayerMix, an innovative data augmentation approach that systematically enhances model robustness through structured fractal-based image synthesis. By meticulously integrating structural complexity into training datasets, our method generates semantically consistent synthetic samples that significantly improve neural network generalization capabilities. Unlike traditional augmentation techniques that rely on random transformations, LayerMix employs a structured mixing pipeline that preserves original image semantics while introducing controlled variability. Extensive experiments across multiple benchmark datasets, including CIFAR-10, CIFAR-100, ImageNet-200, and ImageNet-1K demonstrate LayerMixs superior performance in classification accuracy and substantially enhances critical Machine Learning (ML) safety metrics, including resilience to natural image corruptions, robustness against adversarial attacks, improved model calibration and enhanced prediction consistency. LayerMix represents a significant advancement toward developing more reliable and adaptable artificial intelligence systems by addressing the fundamental challenges of deep learning generalization. The code is available at https://github.com/ahmadmughees/layermix.
- Abstract(参考訳): ディープラーニングモデルは、様々なコンピュータビジョンタスクで顕著なパフォーマンスを示してきたが、その分散シフトに対する脆弱性は依然として重要な課題である。
高度なニューラルネットワークアーキテクチャにもかかわらず、既存のモデルは、自然の腐敗、敵対的摂動、異常パターンを含む、アウト・オブ・ディストリビューション(OOD)のサンプルに直面したとき、一貫したパフォーマンスを維持するのに苦労することが多い。
本稿では,構造化フラクタル画像合成によるモデルロバスト性を体系的に強化する,革新的なデータ拡張手法であるLayerMixを紹介する。
学習データセットに構造的複雑さを巧みに組み込むことで、ニューラルネットワークの一般化能力を大幅に向上させる意味論的に一貫した合成サンプルを生成する。
ランダムトランスフォーメーションに依存する従来の拡張テクニックとは異なり、LayerMixでは、コントロールされた可変性を導入しながらオリジナルのイメージセマンティクスを保存する構造化ミキシングパイプラインを使用している。
CIFAR-10、CIFAR-100、ImageNet-200、ImageNet-1Kなど、複数のベンチマークデータセットにわたる大規模な実験は、分類精度が優れたLayerMixを実証し、自然画像の破損に対するレジリエンス、敵攻撃に対する堅牢性、モデルのキャリブレーションの改善、予測一貫性の向上など、重要な機械学習(ML)の安全性指標を大幅に強化している。
LayerMixは、ディープラーニングの一般化の根本的な課題に対処することによって、より信頼性が高く適応可能な人工知能システムを開発するための重要な進歩である。
コードはhttps://github.com/ahmadmughees/layermixで入手できる。
関連論文リスト
- Generalized Factor Neural Network Model for High-dimensional Regression [50.554377879576066]
複素・非線形・雑音に隠れた潜在低次元構造を持つ高次元データセットをモデル化する課題に取り組む。
我々のアプローチは、非パラメトリック回帰、因子モデル、高次元回帰のためのニューラルネットワークの概念のシームレスな統合を可能にする。
論文 参考訳(メタデータ) (2025-02-16T23:13:55Z) - Towards Foundational Models for Dynamical System Reconstruction: Hierarchical Meta-Learning via Mixture of Experts [0.7373617024876724]
MixER: Mixture of Expert Reconstructors, a novel sparse top-1 MoE layer using a custom gating update algorithm based on $K$-means and least squares。
実験では、MixERの能力を検証し、最大10の通常のパラメトリック微分方程式の系に対する効率的なトレーニングとスケーラビリティを示す。
我々の層は、特に専門家が高度に関連したデータポイントからなるデータセットのごく一部しか処理できない場合、ハイデータレシエーションにおける最先端のメタラーナーを過小評価します。
論文 参考訳(メタデータ) (2025-02-07T21:16:43Z) - HFMF: Hierarchical Fusion Meets Multi-Stream Models for Deepfake Detection [4.908389661988192]
HFMFは総合的な2段階のディープフェイク検出フレームワークである。
視覚変換器と畳み込みネットを階層的特徴融合機構を通じて統合する。
私たちのアーキテクチャは、多様なデータセットベンチマークで優れたパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2025-01-10T00:20:29Z) - MOREL: Enhancing Adversarial Robustness through Multi-Objective Representation Learning [1.534667887016089]
ディープニューラルネットワーク(DNN)は、わずかに敵対的な摂動に対して脆弱である。
トレーニング中の強力な特徴表現学習は、元のモデルの堅牢性を大幅に向上させることができることを示す。
本稿では,多目的特徴表現学習手法であるMORELを提案する。
論文 参考訳(メタデータ) (2024-10-02T16:05:03Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - IPMix: Label-Preserving Data Augmentation Method for Training Robust
Classifiers [4.002089584222719]
クリーンな精度を損なうことなくロバスト性を改善するための単純なデータ拡張手法であるIMMixを提案する。
IPMixは、トレーニングデータの多様性を高めるために、3つのレベルのデータ拡張をコヒーレントでラベル保存のテクニックに統合する。
実験により、IMMixはCIFAR-CとImageNet-Cで最先端の破損堅牢性を上回っていることが示された。
論文 参考訳(メタデータ) (2023-10-07T11:45:33Z) - Hierarchical Integration Diffusion Model for Realistic Image Deblurring [71.76410266003917]
拡散モデル (DM) は画像劣化に導入され, 有望な性能を示した。
本稿では,階層型統合拡散モデル(HI-Diff)を提案する。
人工的および実世界のぼかしデータセットの実験は、HI-Diffが最先端の手法より優れていることを示した。
論文 参考訳(メタデータ) (2023-05-22T12:18:20Z) - CAFE: Learning to Condense Dataset by Aligning Features [72.99394941348757]
本稿ではCAFE(Aligning features)によるCondenseデータセットの新しいスキームを提案する。
このアプローチの核心は、さまざまなスケールにわたる実データと合成データから機能を整合させる効果的な戦略です。
提案したCAFEを様々なデータセットで検証し,概ね最先端技術であることを示す。
論文 参考訳(メタデータ) (2022-03-03T05:58:49Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z) - Contextual Fusion For Adversarial Robustness [0.0]
ディープニューラルネットワークは、通常、1つの特定の情報ストリームを処理し、様々な種類の敵の摂動に影響を受けやすいように設計されている。
そこで我々はPlaces-CNNとImagenet-CNNから並列に抽出した背景特徴と前景特徴を組み合わせた融合モデルを開発した。
グラデーションをベースとした攻撃では,フュージョンは乱れのないデータの性能を低下させることなく,分類の大幅な改善を可能にする。
論文 参考訳(メタデータ) (2020-11-18T20:13:23Z) - Understanding Self-supervised Learning with Dual Deep Networks [74.92916579635336]
本稿では,2組の深層ReLUネットワークを用いたコントラスト型自己教師学習(SSL)手法を理解するための新しい枠組みを提案する。
種々の損失関数を持つSimCLRの各SGD更新において、各層の重みは共分散演算子によって更新されることを示す。
共分散演算子の役割と、そのようなプロセスでどのような特徴が学習されるかをさらに研究するために、我々は、階層的潜在木モデル(HLTM)を用いて、データ生成および増大過程をモデル化する。
論文 参考訳(メタデータ) (2020-10-01T17:51:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。