論文の概要: Sample-aware RandAugment: Search-free Automatic Data Augmentation for Effective Image Recognition
- arxiv url: http://arxiv.org/abs/2508.08004v1
- Date: Mon, 11 Aug 2025 14:09:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:29.133941
- Title: Sample-aware RandAugment: Search-free Automatic Data Augmentation for Effective Image Recognition
- Title(参考訳): サンプル認識型RandAugment: 画像認識のための検索不要自動データ拡張
- Authors: Anqi Xiao, Weichen Yu, Hongyuan Yu,
- Abstract要約: サンプル対応RandAugment(SRA)は、非対称で検索不要なAutoDA法であり、拡張ポリシーを動的に調整する。
SRAは、ResNet-50でImageNetで78.31%の最先端のTop-1精度を達成した。
SRAはよりシンプルで効果的で実用的なAutoDA設計に向けた有望なステップである。
- 参考スコア(独自算出の注目度): 6.627642870775784
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automatic data augmentation (AutoDA) plays an important role in enhancing the generalization of neural networks. However, mainstream AutoDA methods often encounter two challenges: either the search process is excessively time-consuming, hindering practical application, or the performance is suboptimal due to insufficient policy adaptation during training. To address these issues, we propose Sample-aware RandAugment (SRA), an asymmetric, search-free AutoDA method that dynamically adjusts augmentation policies while maintaining straightforward implementation. SRA incorporates a heuristic scoring module that evaluates the complexity of the original training data, enabling the application of tailored augmentations for each sample. Additionally, an asymmetric augmentation strategy is employed to maximize the potential of this scoring module. In multiple experimental settings, SRA narrows the performance gap between search-based and search-free AutoDA methods, achieving a state-of-the-art Top-1 accuracy of 78.31\% on ImageNet with ResNet-50. Notably, SRA demonstrates good compatibility with existing augmentation pipelines and solid generalization across new tasks, without requiring hyperparameter tuning. The pretrained models leveraging SRA also enhance recognition in downstream object detection tasks. SRA represents a promising step towards simpler, more effective, and practical AutoDA designs applicable to a variety of future tasks. Our code is available at \href{https://github.com/ainieli/Sample-awareRandAugment}{https://github.com/ainieli/Sample-awareRandAugment
- Abstract(参考訳): 自動データ拡張(AutoDA)は、ニューラルネットワークの一般化を促進する上で重要な役割を果たす。
しかし、主流のAutoDA手法は、探索プロセスが過度に時間を要するか、実用的な応用を妨げるか、あるいは訓練中の政策適応が不十分なため、性能が最適でないかの2つの課題に直面することが多い。
これらの問題に対処するため、単純実装を維持しながら拡張ポリシーを動的に調整する非対称な検索自由なAutoDA法であるSRA(Sample-aware RandAugment)を提案する。
SRAには、元のトレーニングデータの複雑さを評価するヒューリスティックスコアリングモジュールが組み込まれており、サンプル毎に調整された拡張を適用できる。
さらに、このスコアリングモジュールのポテンシャルを最大化するために、非対称拡張戦略を用いる。
複数の実験的な設定で、SRAは検索ベースと検索フリーのAutoDAメソッドのパフォーマンスギャップを狭め、ResNet-50でImageNet上で最先端のTop-1精度78.31\%を達成する。
特に、SRAは、ハイパーパラメータチューニングを必要とせず、既存の拡張パイプラインとの互換性と、新しいタスクをまたいだ強固な一般化を実証している。
SRAを利用した事前訓練されたモデルは、下流オブジェクト検出タスクの認識も強化する。
SRAは、様々な将来のタスクに適用可能な、よりシンプルで、より効果的で実用的なAutoDA設計に向けた有望なステップである。
私たちのコードは、 \href{https://github.com/ainieli/Sample-awareRandAugment}{https://github.com/ainieli/Sample-awareRandAugmentで利用可能です。
関連論文リスト
- Accelerating Adaptive Retrieval Augmented Generation via Instruction-Driven Representation Reduction of Retrieval Overlaps [16.84310001807895]
本稿では,A-RAG法に適用可能なモデルに依存しないアプローチを提案する。
具体的には、キャッシュアクセスと並列生成を使用して、それぞれプリフィルとデコードステージを高速化する。
論文 参考訳(メタデータ) (2025-05-19T05:39:38Z) - On the Role of Feedback in Test-Time Scaling of Agentic AI Workflows [71.92083784393418]
エージェントAI(自律的な計画と行動を行うシステム)は広く普及しているが、複雑なタスクにおけるタスクの成功率は低いままである。
推論時のアライメントは、サンプリング、評価、フィードバックの3つのコンポーネントに依存します。
本稿では,様々な形態の批判から抽出されたフィードバックを繰り返し挿入するIterative Agent Decoding(IAD)を紹介する。
論文 参考訳(メタデータ) (2025-04-02T17:40:47Z) - DARS: Dynamic Action Re-Sampling to Enhance Coding Agent Performance by Adaptive Tree Traversal [55.13854171147104]
大規模言語モデル(LLM)は、自然言語処理、データ分析、ソフトウェア開発など、さまざまな領域に革命をもたらした。
符号化エージェントのための新しい推論時間計算スケーリングアプローチである動的アクション再サンプリング(DARS)を提案する。
我々は、SWE-Bench Liteベンチマークに対する我々のアプローチを評価し、このスケーリング戦略がClude 3.5 Sonnet V2で55%のパス@kスコアを達成したことを実証した。
論文 参考訳(メタデータ) (2025-03-18T14:02:59Z) - AutoRAG-HP: Automatic Online Hyper-Parameter Tuning for Retrieval-Augmented Generation [37.456499537121886]
大規模言語モデルの最近の進歩はML/AI開発に変化をもたらした。
大規模言語モデルの最近の進歩は、検索・拡張生成(RAG)システムにおけるAutoMLの原則を変革している。
論文 参考訳(メタデータ) (2024-06-27T15:18:21Z) - Dynamic Data Pruning for Automatic Speech Recognition [58.95758272440217]
ASR(DDP-ASR)のダイナミック・データ・プルーニング(Dynamic Data Pruning for ASR)を導入し,音声関連データセットに特化して微細なプルーニングの粒度を提供する。
実験の結果,DDP-ASRは最大1.6倍のトレーニング時間を節約できることがわかった。
論文 参考訳(メタデータ) (2024-06-26T14:17:36Z) - Automatic AI Model Selection for Wireless Systems: Online Learning via Digital Twinning [50.332027356848094]
AIベースのアプリケーションは、スケジューリングや電力制御などの機能を実行するために、インテリジェントコントローラにデプロイされる。
コンテキストとAIモデルのパラメータのマッピングは、ゼロショット方式で理想的に行われる。
本稿では,AMSマッピングのオンライン最適化のための一般的な手法を紹介する。
論文 参考訳(メタデータ) (2024-06-22T11:17:50Z) - Low-Rank Representations Meets Deep Unfolding: A Generalized and
Interpretable Network for Hyperspectral Anomaly Detection [41.50904949744355]
現在のハイパースペクトル異常検出(HAD)ベンチマークデータセットは、低解像度、単純なバックグラウンド、検出データの小さなサイズに悩まされている。
これらの要因は、ロバスト性の観点からよく知られた低ランク表現(LRR)モデルの性能も制限する。
我々は、複雑なシナリオにおけるHADアルゴリズムの堅牢性を改善するために、新しいHADベンチマークデータセットであるAIR-HADを構築した。
論文 参考訳(メタデータ) (2024-02-23T14:15:58Z) - TimeAutoML: Autonomous Representation Learning for Multivariate
Irregularly Sampled Time Series [27.0506649441212]
本稿では,不規則なサンプリングレートと可変長を持つ多変量時系列(TimeAutoML)の自律表現学習手法を提案する。
実世界のデータセットに関する大規模な実証研究は、提案されたTimeAutoMLが、様々なタスクにおける競合するアプローチを大きなマージンで上回ることを示した。
論文 参考訳(メタデータ) (2020-10-04T15:01:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。