論文の概要: Transductive Model Selection under Prior Probability Shift
- arxiv url: http://arxiv.org/abs/2507.22647v1
- Date: Wed, 30 Jul 2025 13:03:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-31 16:14:18.216854
- Title: Transductive Model Selection under Prior Probability Shift
- Title(参考訳): 事前確率シフト下におけるトランスダクティブモデル選択
- Authors: Lorenzo Volpi, Alejandro Moreo, Fabrizio Sebastiani,
- Abstract要約: トランスダクティブ・ラーニング(Transductive learning)とは、ラベリングを必要とする未学習データを有限セットとし、トレーニング時に利用できる教師付き機械学習タスクである。
本稿では,データに事前の確率シフトを示す場合のモデル選択を行うための,トランスダクティブな分類コンテキストに合わせた手法を提案する。
- 参考スコア(独自算出の注目度): 49.56191463229252
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Transductive learning is a supervised machine learning task in which, unlike in traditional inductive learning, the unlabelled data that require labelling are a finite set and are available at training time. Similarly to inductive learning contexts, transductive learning contexts may be affected by dataset shift, i.e., may be such that the IID assumption does not hold. We here propose a method, tailored to transductive classification contexts, for performing model selection (i.e., hyperparameter optimisation) when the data exhibit prior probability shift, an important type of dataset shift typical of anti-causal learning problems. In our proposed method the hyperparameters can be optimised directly on the unlabelled data to which the trained classifier must be applied; this is unlike traditional model selection methods, that are based on performing cross-validation on the labelled training data. We provide experimental results that show the benefits brought about by our method.
- Abstract(参考訳): トランスダクティブ・ラーニング(Transductive learning)は、従来のインダクティブ・ラーニングとは異なり、ラベリングを必要とする非ラベリングなデータは有限セットであり、トレーニング時に利用できる、教師付き機械学習タスクである。
帰納的学習コンテキストと同様に、帰納的学習コンテキストはデータセットシフトの影響を受けうる。
本稿では, モデル選択(ハイパーパラメータ最適化)を行うために, モデル選択を行う手法を提案する。
提案手法では,ラベル付きトレーニングデータに対するクロスバリデーションに基づく従来のモデル選択手法とは違って,ハイパーパラメータをトレーニング対象の非ラベルデータに直接最適化することができる。
提案手法がもたらすメリットを示す実験結果を提供する。
関連論文リスト
- Simulating Biases for Interpretable Fairness in Offline and Online Classifiers [0.35998666903987897]
緩和方法は、モデル結果が公平に調整されることを保証するために重要である。
我々は、制御可能なバイアス注入による合成データセット生成のためのフレームワークを開発する。
実験では、オフラインとオンラインの両方の学習アプローチが採用されている。
論文 参考訳(メタデータ) (2025-07-14T11:04:24Z) - Navigating Towards Fairness with Data Selection [27.731128352096555]
ラベルバイアスを効率的かつ柔軟に緩和するデータ選択法を提案する。
提案手法では,ゼロショット予測器をプロキシモデルとして利用し,クリーンなホールトアウトセットでのトレーニングをシミュレートする。
我々のモダリティ非依存手法は,実験評価において,ラベルバイアスの処理と多種多様なデータセット間の公正性向上に効果的かつ効果的であることが証明された。
論文 参考訳(メタデータ) (2024-12-15T06:11:05Z) - Capturing the Temporal Dependence of Training Data Influence [100.91355498124527]
我々は、訓練中にデータポイントを除去する影響を定量化する、軌跡特異的な離脱の影響の概念を定式化する。
軌道固有LOOの効率的な近似を可能にする新しい手法であるデータ値埋め込みを提案する。
データバリューの埋め込みは、トレーニングデータの順序付けをキャプチャするので、モデルトレーニングのダイナミクスに関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2024-12-12T18:28:55Z) - Unlearning Information Bottleneck: Machine Unlearning of Systematic Patterns and Biases [6.936871609178494]
本稿では,機械学習のプロセスを強化するための新しい情報理論フレームワークであるUnlearning Information Bottleneck(UIB)を紹介する。
変分上界を提案することにより,データ分布の変化を安価な計算コストと統合する動的事前計算により,モデルパラメータを再検討する。
さまざまなデータセット,モデル,未学習手法を対象とした実験により,本手法は学習後のモデルの性能を維持しながら,体系的なパターンやバイアスを効果的に除去することを示した。
論文 参考訳(メタデータ) (2024-05-22T21:54:05Z) - Self-Distillation for Further Pre-training of Transformers [83.84227016847096]
我々は、さらなる事前学習段階の正則化として自己蒸留を提案する。
画像およびテキスト分類タスクのための様々なベンチマークデータセットにおける自己蒸留の有効性を実証的に検証する。
論文 参考訳(メタデータ) (2022-09-30T02:25:12Z) - Agree to Disagree: Diversity through Disagreement for Better
Transferability [54.308327969778155]
本稿では,D-BAT(Diversity-By-dis-Agreement Training)を提案する。
我々は、D-BATが一般化された相違の概念から自然に現れることを示す。
論文 参考訳(メタデータ) (2022-02-09T12:03:02Z) - Scalable Marginal Likelihood Estimation for Model Selection in Deep
Learning [78.83598532168256]
階層型モデル選択は、推定困難のため、ディープラーニングではほとんど使われない。
本研究は,検証データが利用できない場合,限界的可能性によって一般化が向上し,有用であることを示す。
論文 参考訳(メタデータ) (2021-04-11T09:50:24Z) - From Learning to Meta-Learning: Reduced Training Overhead and Complexity
for Communication Systems [40.427909614453526]
機械学習手法は、データやアクティブな観察に基づいて、一定の学習手順を用いて、与えられたモデルクラスに置かれるように制約されたモデルのパラメータを適応する。
メタトレーニングによる帰納バイアスでは、トレーニングデータと/または時間の複雑さを減らして、マシンラーニングモデルのトレーニングを実行することができる。
本稿では,メタラーニングの高度導入と通信システムへの応用について述べる。
論文 参考訳(メタデータ) (2020-01-05T12:54:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。