論文の概要: Transductive Active Learning: Theory and Applications
- arxiv url: http://arxiv.org/abs/2402.15898v4
- Date: Tue, 01 Oct 2024 07:45:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-02 16:33:31.534725
- Title: Transductive Active Learning: Theory and Applications
- Title(参考訳): Transductive Active Learning:理論と応用
- Authors: Jonas Hübotter, Bhavya Sukhija, Lenart Treven, Yarden As, Andreas Krause,
- Abstract要約: 我々は,予測対象の不確実性を最小限に抑えるために,適応的にサンプルをサンプリングする一連の決定ルールを解析する。
我々は、一般の正則性仮定の下で、そのような決定規則が可能な限り最小の不確実性に一様に収束することを初めて示す。
- 参考スコア(独自算出の注目度): 35.49225932333298
- License:
- Abstract: We generalize active learning to address real-world settings with concrete prediction targets where sampling is restricted to an accessible region of the domain, while prediction targets may lie outside this region. We analyze a family of decision rules that sample adaptively to minimize uncertainty about prediction targets. We are the first to show, under general regularity assumptions, that such decision rules converge uniformly to the smallest possible uncertainty obtainable from the accessible data. We demonstrate their strong sample efficiency in two key applications: Active few-shot fine-tuning of large neural networks and safe Bayesian optimization, where they improve significantly upon the state-of-the-art.
- Abstract(参考訳): 本研究では,実世界の環境に適応するアクティブラーニングを具体的予測ターゲットで一般化し,サンプリングはドメインのアクセス可能な領域に制限されるが,予測ターゲットはこの領域の外に置かれる可能性がある。
我々は,予測対象の不確実性を最小限に抑えるために,適応的にサンプルをサンプリングする一連の決定ルールを解析する。
我々は、一般的な正則性仮定の下で、そのような決定規則がアクセス可能なデータから得られる最小の不確実性に一様に収束することを初めて示す。
大規模なニューラルネットワークのアクティブな数ショットの微調整と安全なベイズ最適化の2つの主要なアプリケーションで、その強力なサンプル効率を実証する。
関連論文リスト
- Embedding generalization within the learning dynamics: An approach based-on sample path large deviation theory [0.0]
本研究では,持続的視点から手法を利用する経験的リスク摂動に基づく学習問題を考察する。
大規模偏差のFreidlin-Wentzell理論に基づく小雑音限界の推定を行う。
また、最適点推定に繋がる変分問題を解く計算アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-08-04T23:31:35Z) - Source-Free Unsupervised Domain Adaptation with Hypothesis Consolidation
of Prediction Rationale [53.152460508207184]
Source-Free Unsupervised Domain Adaptation (SFUDA)は、モデルがターゲットのドメインラベルやソースドメインデータにアクセスせずに新しいドメインに適応する必要がある、という課題である。
本稿では,各サンプルについて複数の予測仮説を考察し,各仮説の背景にある理論的根拠について考察する。
最適性能を達成するために,モデル事前適応,仮説統合,半教師付き学習という3段階の適応プロセスを提案する。
論文 参考訳(メタデータ) (2024-02-02T05:53:22Z) - Towards Context-Aware Domain Generalization: Understanding the Benefits
and Limits of Marginal Transfer Learning [1.5320861212113897]
我々は、コンテキストの概念をデータポイントの集合の置換不変表現として定式化する。
経験的分析により、我々の基準は好ましくないシナリオと好ましくないシナリオの両方を識別するのに有効であることが示された。
論文 参考訳(メタデータ) (2023-12-15T05:18:07Z) - Probabilistic Reach-Avoid for Bayesian Neural Networks [71.67052234622781]
最適合成アルゴリズムは、証明された状態の数を4倍以上に増やすことができることを示す。
このアルゴリズムは、平均的な到達回避確率を3倍以上に向上させることができる。
論文 参考訳(メタデータ) (2023-10-03T10:52:21Z) - Asymptotically Optimal Adversarial Strategies for the Probability
Estimation Framework [0.0]
量子非局所性実験におけるランダム性を証明するためのPEF法の最適性を自己完結した証明を提案する。
これらの結果を (2,2,2) Bell のシナリオに適用し, 符号なし原理に縛られた最適対角攻撃の解析的特徴付けを得る。
また、(2,2,2)ベルシナリオにおける量子制限逆数と、より高い$(n,m,k)$ベルシナリオにおける符号なし逆数への解析の拡張についても検討する。
論文 参考訳(メタデータ) (2023-06-11T22:58:01Z) - Dirichlet-based Uncertainty Calibration for Active Domain Adaptation [33.33529827699169]
アクティブドメイン適応(DA)は、アノテートする限られたターゲットデータを積極的に選択することで、新しいターゲットドメインに対するモデル適応を最大限に向上することを目的としている。
従来のアクティブな学習方法は、ドメインシフトの問題を考慮していないため、効果が低い場合がある。
そこで我々は,iDirichlet-based Uncertainty (DUC) approach for active DAを提案する。
論文 参考訳(メタデータ) (2023-02-27T14:33:29Z) - Domain Adaptation with Adversarial Training on Penultimate Activations [82.9977759320565]
教師なし領域適応(Unsupervised Domain Adaptation, UDA)の重要な目的は、ラベルなし対象データに対するモデル予測の信頼性を高めることである。
我々は,この戦略が,入力画像や中間特徴に対する敵対的訓練よりも予測信頼性を高める目的と,より効率的で相関性が高いことを示す。
論文 参考訳(メタデータ) (2022-08-26T19:50:46Z) - Domain-Adjusted Regression or: ERM May Already Learn Features Sufficient
for Out-of-Distribution Generalization [52.7137956951533]
既存の特徴から予測器を学習するためのよりシンプルな手法を考案することは、将来の研究にとって有望な方向である、と我々は主張する。
本稿では,線形予測器を学習するための凸目標である領域調整回帰(DARE)を紹介する。
自然モデルの下では、DARE解が制限されたテスト分布の集合に対する最小最適予測器であることを証明する。
論文 参考訳(メタデータ) (2022-02-14T16:42:16Z) - On the Practicality of Deterministic Epistemic Uncertainty [106.06571981780591]
決定論的不確実性法(DUM)は,分布外データの検出において高い性能を達成する。
DUMが十分に校正されており、現実のアプリケーションにシームレスにスケールできるかどうかは不明だ。
論文 参考訳(メタデータ) (2021-07-01T17:59:07Z) - Predicting Deep Neural Network Generalization with Perturbation Response
Curves [58.8755389068888]
トレーニングネットワークの一般化能力を評価するための新しいフレームワークを提案する。
具体的には,一般化ギャップを正確に予測するための2つの新しい尺度を提案する。
PGDL(Predicting Generalization in Deep Learning)のNeurIPS 2020コンペティションにおけるタスクの大部分について、現在の最先端の指標よりも優れた予測スコアを得る。
論文 参考訳(メタデータ) (2021-06-09T01:37:36Z) - Towards Trustworthy Predictions from Deep Neural Networks with Fast
Adversarial Calibration [2.8935588665357077]
本稿では,ドメインシフト後に得られたサンプルに対して,信頼度の高い信頼度を得るための効率的かつ汎用的なモデリング手法を提案する。
本稿では,エントロピー増大損失項と逆キャリブレーション損失項を組み合わせた新しいトレーニング戦略を導入し,この結果が適切に調整され,技術的に信頼できる予測となることを示す。
論文 参考訳(メタデータ) (2020-12-20T13:39:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。