論文の概要: Transductive Active Learning: Theory and Applications
- arxiv url: http://arxiv.org/abs/2402.15898v4
- Date: Tue, 01 Oct 2024 07:45:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-02 16:33:31.534725
- Title: Transductive Active Learning: Theory and Applications
- Title(参考訳): Transductive Active Learning:理論と応用
- Authors: Jonas Hübotter, Bhavya Sukhija, Lenart Treven, Yarden As, Andreas Krause,
- Abstract要約: 我々は,予測対象の不確実性を最小限に抑えるために,適応的にサンプルをサンプリングする一連の決定ルールを解析する。
我々は、一般の正則性仮定の下で、そのような決定規則が可能な限り最小の不確実性に一様に収束することを初めて示す。
- 参考スコア(独自算出の注目度): 35.49225932333298
- License:
- Abstract: We generalize active learning to address real-world settings with concrete prediction targets where sampling is restricted to an accessible region of the domain, while prediction targets may lie outside this region. We analyze a family of decision rules that sample adaptively to minimize uncertainty about prediction targets. We are the first to show, under general regularity assumptions, that such decision rules converge uniformly to the smallest possible uncertainty obtainable from the accessible data. We demonstrate their strong sample efficiency in two key applications: Active few-shot fine-tuning of large neural networks and safe Bayesian optimization, where they improve significantly upon the state-of-the-art.
- Abstract(参考訳): 本研究では,実世界の環境に適応するアクティブラーニングを具体的予測ターゲットで一般化し,サンプリングはドメインのアクセス可能な領域に制限されるが,予測ターゲットはこの領域の外に置かれる可能性がある。
我々は,予測対象の不確実性を最小限に抑えるために,適応的にサンプルをサンプリングする一連の決定ルールを解析する。
我々は、一般的な正則性仮定の下で、そのような決定規則がアクセス可能なデータから得られる最小の不確実性に一様に収束することを初めて示す。
大規模なニューラルネットワークのアクティブな数ショットの微調整と安全なベイズ最適化の2つの主要なアプリケーションで、その強力なサンプル効率を実証する。
関連論文リスト
- Source-Free Unsupervised Domain Adaptation with Hypothesis Consolidation
of Prediction Rationale [53.152460508207184]
Source-Free Unsupervised Domain Adaptation (SFUDA)は、モデルがターゲットのドメインラベルやソースドメインデータにアクセスせずに新しいドメインに適応する必要がある、という課題である。
本稿では,各サンプルについて複数の予測仮説を考察し,各仮説の背景にある理論的根拠について考察する。
最適性能を達成するために,モデル事前適応,仮説統合,半教師付き学習という3段階の適応プロセスを提案する。
論文 参考訳(メタデータ) (2024-02-02T05:53:22Z) - Towards Context-Aware Domain Generalization: Understanding the Benefits
and Limits of Marginal Transfer Learning [1.5320861212113897]
我々は、コンテキストの概念をデータポイントの集合の置換不変表現として定式化する。
経験的分析により、我々の基準は好ましくないシナリオと好ましくないシナリオの両方を識別するのに有効であることが示された。
論文 参考訳(メタデータ) (2023-12-15T05:18:07Z) - Probabilistic Reach-Avoid for Bayesian Neural Networks [71.67052234622781]
最適合成アルゴリズムは、証明された状態の数を4倍以上に増やすことができることを示す。
このアルゴリズムは、平均的な到達回避確率を3倍以上に向上させることができる。
論文 参考訳(メタデータ) (2023-10-03T10:52:21Z) - Asymptotically Optimal Adversarial Strategies for the Probability
Estimation Framework [0.0]
量子非局所性実験におけるランダム性を証明するためのPEF法の最適性を自己完結した証明を提案する。
これらの結果を (2,2,2) Bell のシナリオに適用し, 符号なし原理に縛られた最適対角攻撃の解析的特徴付けを得る。
また、(2,2,2)ベルシナリオにおける量子制限逆数と、より高い$(n,m,k)$ベルシナリオにおける符号なし逆数への解析の拡張についても検討する。
論文 参考訳(メタデータ) (2023-06-11T22:58:01Z) - Dirichlet-based Uncertainty Calibration for Active Domain Adaptation [33.33529827699169]
アクティブドメイン適応(DA)は、アノテートする限られたターゲットデータを積極的に選択することで、新しいターゲットドメインに対するモデル適応を最大限に向上することを目的としている。
従来のアクティブな学習方法は、ドメインシフトの問題を考慮していないため、効果が低い場合がある。
そこで我々は,iDirichlet-based Uncertainty (DUC) approach for active DAを提案する。
論文 参考訳(メタデータ) (2023-02-27T14:33:29Z) - Domain-Specific Risk Minimization for Out-of-Distribution Generalization [104.17683265084757]
まず、適応性ギャップを明示的に考慮した一般化境界を確立する。
本稿では,目標に対するより良い仮説の選択を導くための効果的なギャップ推定法を提案する。
もう1つの方法は、オンラインターゲットサンプルを用いてモデルパラメータを適応させることにより、ギャップを最小化することである。
論文 参考訳(メタデータ) (2022-08-18T06:42:49Z) - Domain-Adjusted Regression or: ERM May Already Learn Features Sufficient
for Out-of-Distribution Generalization [52.7137956951533]
既存の特徴から予測器を学習するためのよりシンプルな手法を考案することは、将来の研究にとって有望な方向である、と我々は主張する。
本稿では,線形予測器を学習するための凸目標である領域調整回帰(DARE)を紹介する。
自然モデルの下では、DARE解が制限されたテスト分布の集合に対する最小最適予測器であることを証明する。
論文 参考訳(メタデータ) (2022-02-14T16:42:16Z) - On the Practicality of Deterministic Epistemic Uncertainty [106.06571981780591]
決定論的不確実性法(DUM)は,分布外データの検出において高い性能を達成する。
DUMが十分に校正されており、現実のアプリケーションにシームレスにスケールできるかどうかは不明だ。
論文 参考訳(メタデータ) (2021-07-01T17:59:07Z) - Towards Trustworthy Predictions from Deep Neural Networks with Fast
Adversarial Calibration [2.8935588665357077]
本稿では,ドメインシフト後に得られたサンプルに対して,信頼度の高い信頼度を得るための効率的かつ汎用的なモデリング手法を提案する。
本稿では,エントロピー増大損失項と逆キャリブレーション損失項を組み合わせた新しいトレーニング戦略を導入し,この結果が適切に調整され,技術的に信頼できる予測となることを示す。
論文 参考訳(メタデータ) (2020-12-20T13:39:29Z) - Bayesian Optimization Meets Laplace Approximation for Robotic
Introspection [41.117361086267806]
本稿では,Deep Neural Networks(DNN)をよりイントロスペクティブにするために,スケーラブルなLaplace Approximation (LA)技術を導入する。
特に,本論文では,真の重み付け後部を過小評価する傾向を緩和する新しいベイズ最適化(BO)アルゴリズムを提案する。
提案するフレームワークは,大規模データセットやアーキテクチャにまで拡張可能であることを示す。
論文 参考訳(メタデータ) (2020-10-30T09:28:10Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。