論文の概要: Optimizing Data Augmentation through Bayesian Model Selection
- arxiv url: http://arxiv.org/abs/2505.21813v1
- Date: Tue, 27 May 2025 22:44:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.321945
- Title: Optimizing Data Augmentation through Bayesian Model Selection
- Title(参考訳): ベイズモデル選択によるデータ拡張の最適化
- Authors: Madi Matymov, Ba-Hien Tran, Michael Kampffmeyer, Markus Heinonen, Maurizio Filippone,
- Abstract要約: データ拡張(DA)の最適化のための新しいフレームワークを提案する。
DAの確率論的視点から、拡張パラメータをモデル(ハイパー)-パラメータとして解釈する。
モデルパラメータと組み合わせて拡張パラメータを最適化できる抽出可能なエビデンス下境界(ELBO)を導出する。
- 参考スコア(独自算出の注目度): 23.92102364966058
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data Augmentation (DA) has become an essential tool to improve robustness and generalization of modern machine learning. However, when deciding on DA strategies it is critical to choose parameters carefully, and this can be a daunting task which is traditionally left to trial-and-error or expensive optimization based on validation performance. In this paper, we counter these limitations by proposing a novel framework for optimizing DA. In particular, we take a probabilistic view of DA, which leads to the interpretation of augmentation parameters as model (hyper)-parameters, and the optimization of the marginal likelihood with respect to these parameters as a Bayesian model selection problem. Due to its intractability, we derive a tractable Evidence Lower BOund (ELBO), which allows us to optimize augmentation parameters jointly with model parameters. We provide extensive theoretical results on variational approximation quality, generalization guarantees, invariance properties, and connections to empirical Bayes. Through experiments on computer vision tasks, we show that our approach improves calibration and yields robust performance over fixed or no augmentation. Our work provides a rigorous foundation for optimizing DA through Bayesian principles with significant potential for robust machine learning.
- Abstract(参考訳): データ拡張(DA)は、現代の機械学習の堅牢性と一般化を改善するために欠かせないツールとなっている。
しかし、DA戦略を決定する際にはパラメータを慎重に選択することが重要です。
本稿では,DAを最適化する新しいフレームワークを提案することで,これらの制約に対処する。
特に、DAの確率論的見解は、拡張パラメータをモデル(ハイパー)パラメータとして解釈し、ベイズモデル選択問題としてこれらのパラメータに対する限界確率を最適化する。
その難易度から,モデルパラメータと組み合わせて拡張パラメータを最適化できる抽出可能なエビデンス・ロウアー・バウンド(ELBO)を導出する。
我々は,変分近似の品質,一般化保証,不変性,経験的ベイズへの接続に関する広範な理論的結果を提供する。
コンピュータビジョンタスクの実験を通して,我々の手法はキャリブレーションを向上し,固定あるいは拡張無しで堅牢な性能が得られることを示す。
我々の研究は、ベイズ主義を通じてDAを最適化するための厳格な基盤を提供し、堅牢な機械学習の可能性を秘めている。
関連論文リスト
- Tuning for Trustworthiness -- Balancing Performance and Explanation Consistency in Neural Network Optimization [49.567092222782435]
我々は,異なる特徴帰属法間の合意として定義された,XAI整合性という新しい概念を紹介する。
予測性能と説明のバランスをとる多目的最適化フレームワークを構築した。
本研究は、トレードオフゾーンバランス性能損失とXAI整合性による強靭性向上のモデルについて、今後の研究基盤を提供する。
論文 参考訳(メタデータ) (2025-05-12T13:19:14Z) - Bayesian Experimental Design for Model Discrepancy Calibration: An Auto-Differentiable Ensemble Kalman Inversion Approach [0.0]
自動微分可能アンサンブルカルマンインバージョン(AD-EKI)によるハイブリッドBEDフレームワークを提案する。
我々は実験的な設計を反復的に最適化し、標準BED法で処理される低次元物理パラメータの推論を分離する。
提案手法は古典的対流拡散BED例を用いて検討した。
論文 参考訳(メタデータ) (2025-04-29T00:10:45Z) - Efficient Source-Free Time-Series Adaptation via Parameter Subspace Disentanglement [0.7558576228782637]
我々は、効率的なソースフリードメイン適応(SFDA)のためのフレームワークを提案する。
提案手法は,ソースモデル作成およびターゲット側適応のための改良されたパラダイムを導入する。
我々は,本フレームワークが様々なSFDA法と互換性があり,計算効率が高いことを実証した。
論文 参考訳(メタデータ) (2024-10-03T02:12:03Z) - End-to-End Learning for Fair Multiobjective Optimization Under
Uncertainty [55.04219793298687]
機械学習における予測-Then-Forecast(PtO)パラダイムは、下流の意思決定品質を最大化することを目的としている。
本稿では,PtO法を拡張して,OWA(Nondifferentiable Ordered Weighted Averaging)の目的を最適化する。
この結果から,不確実性の下でのOWA関数の最適化とパラメトリック予測を効果的に統合できることが示唆された。
論文 参考訳(メタデータ) (2024-02-12T16:33:35Z) - Functional Graphical Models: Structure Enables Offline Data-Driven Optimization [111.28605744661638]
構造がサンプル効率のよいデータ駆動最適化を実現する方法を示す。
また、FGM構造自体を推定するデータ駆動最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-08T22:33:14Z) - Pre-trained Gaussian Processes for Bayesian Optimization [24.730678780782647]
本稿では,HyperBO という事前学習型 BO フレームワークを提案する。
GPが既知の「地中真実」を仮定することなく, 後続の予測と, ほぼゼロの後悔をHyperBOに示す。
論文 参考訳(メタデータ) (2021-09-16T20:46:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。