論文の概要: Goal-Oriented Influence-Maximizing Data Acquisition for Learning and Optimization
- arxiv url: http://arxiv.org/abs/2602.19578v1
- Date: Mon, 23 Feb 2026 07:57:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.718925
- Title: Goal-Oriented Influence-Maximizing Data Acquisition for Learning and Optimization
- Title(参考訳): 学習と最適化のための目標指向の影響最大化データ取得
- Authors: Weichi Yao, Bianca Dumitrascu, Bryan R. Goldsmith, Yixin Wang,
- Abstract要約: 逆曲率による不確実性認識を保ちながら、明示的な後部推論を回避する能動的取得アルゴリズムを提案する。
GOIMDAは、ユーザが指定したゴール関数に対する期待する影響を最大化し、入力を選択する。
一般化線形モデルでは,GOIMDA はゴールアライメントと予測バイアスを考慮した補正項までの予測エントロピー最小化を近似する。
- 参考スコア(独自算出の注目度): 28.53710231018475
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Active data acquisition is central to many learning and optimization tasks in deep neural networks, yet remains challenging because most approaches rely on predictive uncertainty estimates that are difficult to obtain reliably. To this end, we propose Goal-Oriented Influence- Maximizing Data Acquisition (GOIMDA), an active acquisition algorithm that avoids explicit posterior inference while remaining uncertainty-aware through inverse curvature. GOIMDA selects inputs by maximizing their expected influence on a user-specified goal functional, such as test loss, predictive entropy, or the value of an optimizer-recommended design. Leveraging first-order influence functions, we derive a tractable acquisition rule that combines the goal gradient, training-loss curvature, and candidate sensitivity to model parameters. We show theoretically that, for generalized linear models, GOIMDA approximates predictive-entropy minimization up to a correction term accounting for goal alignment and prediction bias, thereby, yielding uncertainty-aware behavior without maintaining a Bayesian posterior. Empirically, across learning tasks (including image and text classification) and optimization tasks (including noisy global optimization benchmarks and neural-network hyperparameter tuning), GOIMDA consistently reaches target performance with substantially fewer labeled samples or function evaluations than uncertainty-based active learning and Gaussian-process Bayesian optimization baselines.
- Abstract(参考訳): アクティブなデータ取得は、ディープニューラルネットワークにおける多くの学習および最適化タスクの中心であるが、ほとんどのアプローチは、確実に取得することが難しい予測の不確実性推定に依存しているため、依然として困難である。
この目的のために,逆曲率による不確実性認識を保ちながら,明示的な後部推論を回避するアクティブな取得アルゴリズムであるGoal-Oriented Influence-Maximizing Data Acquisition (GOIMDA)を提案する。
GOIMDAは、テスト損失、予測エントロピー、オプティマイザ推奨設計の値など、ユーザ指定のゴール関数に対する期待される影響を最大化し、入力を選択する。
1次影響関数を活用することで、目標勾配、トレーニングロス曲率、モデルパラメータに対する候補感度を組み合わせた、抽出可能な獲得ルールを導出する。
一般化線形モデルの場合、GOIMDAはゴールアライメントと予測バイアスを考慮した補正項まで予測エントロピー最小化を近似し、ベイズの後部を維持せずに不確実性を考慮した振る舞いが得られることを示す。
実証的には、学習タスク(画像とテキストの分類を含む)と最適化タスク(ノイズの多いグローバル最適化ベンチマークやニューラルネットワークハイパーパラメータチューニングを含む)にわたって、GOIMDAは、不確実性に基づくアクティブラーニングやガウス過程のベイズ最適化ベースラインよりも、ラベル付きサンプルや関数評価をはるかに少なくして、常に目標性能に達する。
関連論文リスト
- Bayesian Optimization on Networks [2.1034532187837636]
本稿では,メトリックグラフとしてモデル化されたネットワークの最適化について検討する。
対象関数をブラックボックスとして評価するか,あるいはのみ使用可能なアプリケーションに動機付け,ベイズ最適化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2025-10-31T17:12:49Z) - Online Decision-Focused Learning [74.3205104323777]
意思決定中心学習(DFL)は、意思決定タスクで予測出力が使用されるモデルのトレーニングパラダイムとして、ますます人気が高まっている。
本稿では,目的関数を規則化し,その相違を解消し,非最適関数を克服する方法を検討する。
また、クナップサック実験におけるアルゴリズムの有効性を示し、2つの標準ベンチマークを上回りました。
論文 参考訳(メタデータ) (2025-05-19T10:40:30Z) - Embedding generalization within the learning dynamics: An approach based-on sample path large deviation theory [0.0]
本研究では,持続的視点から手法を利用する経験的リスク摂動に基づく学習問題を考察する。
大規模偏差のFreidlin-Wentzell理論に基づく小雑音限界の推定を行う。
また、最適点推定に繋がる変分問題を解く計算アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-08-04T23:31:35Z) - End-to-End Learning for Fair Multiobjective Optimization Under
Uncertainty [55.04219793298687]
機械学習における予測-Then-Forecast(PtO)パラダイムは、下流の意思決定品質を最大化することを目的としている。
本稿では,PtO法を拡張して,OWA(Nondifferentiable Ordered Weighted Averaging)の目的を最適化する。
この結果から,不確実性の下でのOWA関数の最適化とパラメトリック予測を効果的に統合できることが示唆された。
論文 参考訳(メタデータ) (2024-02-12T16:33:35Z) - Score Function Gradient Estimation to Widen the Applicability of Decision-Focused Learning [17.962860438133312]
決定中心学習(DFL)パラダイムは、例えば後悔など、タスク損失を直接最小化するためのトレーニングによって制限を克服する。
そこで我々は,このような仮定をせずに,任意のタスク損失に作用するスコア関数推定とスムースに組み合わせた代替手法を提案する。
実験の結果、一般的に多くのエポックを必要とするが、専門的な手法と同等であり、特にソリューションの品質、スケーラビリティ、あるいはその両方の観点から、制約の不確実性に悩む問題に対して、特にうまく機能していることが示されている。
論文 参考訳(メタデータ) (2023-07-11T12:32:13Z) - Prediction-Oriented Bayesian Active Learning [51.426960808684655]
予測情報ゲイン(EPIG)は、パラメータではなく予測空間における情報ゲインを測定する。
EPIGは、さまざまなデータセットやモデルにわたるBALDと比較して、予測パフォーマンスが向上する。
論文 参考訳(メタデータ) (2023-04-17T10:59:57Z) - Scalable Bayesian Meta-Learning through Generalized Implicit Gradients [64.21628447579772]
Inlicit Bayesian Meta-learning (iBaML) 法は、学習可能な事前のスコープを広げるだけでなく、関連する不確実性も定量化する。
解析誤差境界は、明示的よりも一般化された暗黙的勾配の精度と効率を示すために確立される。
論文 参考訳(メタデータ) (2023-03-31T02:10:30Z) - Scalable PAC-Bayesian Meta-Learning via the PAC-Optimal Hyper-Posterior:
From Theory to Practice [54.03076395748459]
メタラーニング文学の中心的な疑問は、目に見えないタスクへの一般化を保証するために、いかに正規化するかである。
本稿では,Rothfussらによって最初に導かれたメタラーニングの一般化について述べる。
PAC-Bayesian per-task 学習境界におけるメタラーニングの条件と程度について,理論的解析および実証事例研究を行った。
論文 参考訳(メタデータ) (2022-11-14T08:51:04Z) - Approximate Bayesian Optimisation for Neural Networks [6.921210544516486]
モデル選択の重要性を強調するために、機械学習アルゴリズムを自動化するための一連の作業が行われた。
理想主義的な方法で解析的トラクタビリティと計算可能性を解決する必要性は、効率と適用性を確保することを可能にしている。
論文 参考訳(メタデータ) (2021-08-27T19:03:32Z) - Learning MDPs from Features: Predict-Then-Optimize for Sequential
Decision Problems by Reinforcement Learning [52.74071439183113]
我々は、強化学習を通して解決された逐次決定問題(MDP)の文脈における予測列最適化フレームワークについて検討した。
2つの重要な計算課題は、意思決定中心の学習をMDPに適用することである。
論文 参考訳(メタデータ) (2021-06-06T23:53:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。