論文の概要: Understanding Data Augmentation from a Robustness Perspective
- arxiv url: http://arxiv.org/abs/2311.12800v1
- Date: Thu, 7 Sep 2023 10:54:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 15:44:19.155638
- Title: Understanding Data Augmentation from a Robustness Perspective
- Title(参考訳): ロバストネスの観点からのデータ拡張を理解する
- Authors: Zhendong Liu, Jie Zhang, Qiangqiang He, Chongjun Wang
- Abstract要約: データ拡張は、モデルの堅牢性を増幅するための重要なテクニックとして際立っている。
この写本は、この現象を理解するための理論的および実証的なアプローチを採っている。
我々の経験的評価は、エンブレマ的なデータ拡張戦略の複雑なメカニズムを解明するものである。
これらの洞察は、視覚認識タスクにおけるモデルの安全性と堅牢性を再評価する新しいレンズを提供する。
- 参考スコア(独自算出の注目度): 10.063624819905508
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the realm of visual recognition, data augmentation stands out as a pivotal
technique to amplify model robustness. Yet, a considerable number of existing
methodologies lean heavily on heuristic foundations, rendering their intrinsic
mechanisms ambiguous. This manuscript takes both a theoretical and empirical
approach to understanding the phenomenon. Theoretically, we frame the discourse
around data augmentation within game theory's constructs. Venturing deeper, our
empirical evaluations dissect the intricate mechanisms of emblematic data
augmentation strategies, illuminating that these techniques primarily stimulate
mid- and high-order game interactions. Beyond the foundational exploration, our
experiments span multiple datasets and diverse augmentation techniques,
underscoring the universal applicability of our findings. Recognizing the vast
array of robustness metrics with intricate correlations, we unveil a
streamlined proxy. This proxy not only simplifies robustness assessment but
also offers invaluable insights, shedding light on the inherent dynamics of
model game interactions and their relation to overarching system robustness.
These insights provide a novel lens through which we can re-evaluate model
safety and robustness in visual recognition tasks.
- Abstract(参考訳): 視覚認識の分野では、データ拡張はモデルの堅牢性を増幅する重要な技術である。
しかし、既存の方法論の多くはヒューリスティックな基礎に大きく依存しており、本質的なメカニズムは曖昧である。
この写本は、この現象を理解するための理論的および実証的なアプローチを取っている。
理論的には、ゲーム理論の構成におけるデータ拡張に関する談話の枠組みとなる。
より深く掘り下げると、我々の経験的評価は、エンブレマ的なデータ拡張戦略の複雑なメカニズムを識別し、これらの技術が主に中高次のゲームの相互作用を刺激することを示した。
基礎的な探索を超えて、実験は複数のデータセットと様々な拡張技術にまたがり、我々の発見の普遍的適用可能性を強調した。
複雑な相関関係を持つ多数のロバスト性メトリクスを認識して、合理化されたプロキシを公開する。
このプロキシはロバスト性評価を単純化するだけでなく、モデルゲームインタラクションの固有のダイナミクスとシステムロバスト性との関係に光を当てながら、貴重な洞察を提供する。
これらの洞察は、視覚認識タスクにおけるモデルの安全性と堅牢性を再評価する新しいレンズを提供する。
関連論文リスト
- Deep Learning Through A Telescoping Lens: A Simple Model Provides Empirical Insights On Grokking, Gradient Boosting & Beyond [61.18736646013446]
その驚くべき振る舞いをより深く理解するために、トレーニングされたニューラルネットワークの単純かつ正確なモデルの有用性について検討する。
3つのケーススタディで、様々な顕著な現象に関する新しい経験的洞察を導き出すためにどのように適用できるかを説明します。
論文 参考訳(メタデータ) (2024-10-31T22:54:34Z) - Simultaneous Dimensionality Reduction for Extracting Useful Representations of Large Empirical Multimodal Datasets [0.0]
我々は,高次元データから低次元記述を得る手段として,次元減少の科学に焦点をあてる。
我々は,システム内の複雑な相互作用や高次元力学系など,従来の仮定に反する実世界のデータによって引き起こされる課題に対処する。
論文 参考訳(メタデータ) (2024-10-23T21:27:40Z) - Self-Distilled Disentangled Learning for Counterfactual Prediction [49.84163147971955]
我々は、SD2$として知られる自己蒸留遠絡フレームワークを提案する。
情報理論を基礎として、複雑な相互情報推定器の設計を伴わずに、理論上独立に不整合表現を鳴らす。
人工と実世界の両方のデータセットを用いて実験を行い,本手法の有効性を確認した。
論文 参考訳(メタデータ) (2024-06-09T16:58:19Z) - Learning Discrete Concepts in Latent Hierarchical Models [73.01229236386148]
自然の高次元データから学習する概念は、ヒューマンアライメントと解釈可能な機械学習モデルの構築の可能性を秘めている。
我々は概念を階層的因果モデルを通して関連付けられた離散潜在因果変数として定式化する。
我々は、理論的な主張を合成データ実験で裏付ける。
論文 参考訳(メタデータ) (2024-06-01T18:01:03Z) - Diffusion Model with Cross Attention as an Inductive Bias for Disentanglement [58.9768112704998]
遠方表現学習は、観測データ内の本質的要因を抽出する試みである。
我々は新しい視点と枠組みを導入し、クロスアテンションを持つ拡散モデルが強力な帰納バイアスとなることを示す。
これは、複雑な設計を必要とせず、クロスアテンションを持つ拡散モデルの強力な解離能力を明らかにする最初の研究である。
論文 参考訳(メタデータ) (2024-02-15T05:07:54Z) - Multimodal Visual-Tactile Representation Learning through
Self-Supervised Contrastive Pre-Training [0.850206009406913]
MViTacは、コントラスト学習を利用して視覚と触覚を自己指導的に統合する新しい手法である。
両方の感覚入力を利用することで、MViTacは学習表現のモダリティ内およびモダリティ間損失を利用して、材料特性の分類を強化し、より適切な把握予測を行う。
論文 参考訳(メタデータ) (2024-01-22T15:11:57Z) - Enhancing Explainability in Mobility Data Science through a combination
of methods [0.08192907805418582]
本稿では,重要なXAI技法を調和させる包括的フレームワークを提案する。
LIME Interpretable Model-a-gnostic Explanations, SHAP, Saliency Map, attention mechanism, direct trajectory Visualization, and Permutation Feature (PFI)
本研究の枠組みを検証するため,様々な利用者の嗜好や受容度を評価する調査を行った。
論文 参考訳(メタデータ) (2023-12-01T07:09:21Z) - A Discrepancy Aware Framework for Robust Anomaly Detection [51.710249807397695]
本稿では,DAF(Disdisrepancy Aware Framework)を提案する。
本手法は,デコーダの欠陥同定に外見に依存しないキューを利用して,その合成外観への依存を緩和する。
単純な合成戦略の下では,既存の手法を大きなマージンで上回り,また,最先端のローカライゼーション性能も達成している。
論文 参考訳(メタデータ) (2023-10-11T15:21:40Z) - Causal Reasoning Meets Visual Representation Learning: A Prospective
Study [117.08431221482638]
解釈可能性の欠如、堅牢性、分布外一般化が、既存の視覚モデルの課題となっている。
人間レベルのエージェントの強い推論能力にインスパイアされた近年では、因果推論パラダイムの開発に多大な努力が注がれている。
本稿では,この新興分野を包括的に概観し,注目し,議論を奨励し,新たな因果推論手法の開発の急激さを先導することを目的とする。
論文 参考訳(メタデータ) (2022-04-26T02:22:28Z) - Learning Multiplicative Interactions with Bayesian Neural Networks for
Visual-Inertial Odometry [44.209301916028124]
本稿では,視覚慣性オドメトリー(VIO)のためのエンドツーエンドマルチモーダル学習手法を提案する。
センサ劣化シナリオに照らして、センサの相補性を利用するように設計されている。
論文 参考訳(メタデータ) (2020-07-15T11:39:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。