論文の概要: Adaptive Sample Sharing for Linear Regression
- arxiv url: http://arxiv.org/abs/2510.16986v1
- Date: Sun, 19 Oct 2025 20:03:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.235148
- Title: Adaptive Sample Sharing for Linear Regression
- Title(参考訳): 線形回帰のための適応サンプル共有
- Authors: Hamza Cherkaoui, Hélène Halconruy, Yohan Petetin,
- Abstract要約: 隆起回帰における試料共有について検討した。
我々は、ターゲットのトレーニングセットに追加する補助データセットのサンプル数を決定する、原則付きデータ駆動ルールを導入する。
合成および実データセットのアプローチを検証し、強いベースラインと単一タスクのトレーニングよりも一貫した利得を観察する。
- 参考スコア(独自算出の注目度): 1.8898307337832196
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In many business settings, task-specific labeled data are scarce or costly to obtain, which limits supervised learning on a specific task. To address this challenge, we study sample sharing in the case of ridge regression: leveraging an auxiliary data set while explicitly protecting against negative transfer. We introduce a principled, data-driven rule that decides how many samples from an auxiliary dataset to add to the target training set. The rule is based on an estimate of the transfer gain i.e. the marginal reduction in the predictive error. Building on this estimator, we derive finite-sample guaranties: under standard conditions, the procedure borrows when it improves parameter estimation and abstains otherwise. In the Gaussian feature setting, we analyze which data set properties ensure that borrowing samples reduces the predictive error. We validate the approach in synthetic and real datasets, observing consistent gains over strong baselines and single-task training while avoiding negative transfer.
- Abstract(参考訳): 多くのビジネス環境では、タスク固有のラベル付きデータは得られにくいか、あるいはコストがかかるため、特定のタスクに対する教師付き学習が制限される。
この課題に対処するため, 隆起回帰の場合のサンプル共有について検討した。
我々は、ターゲットのトレーニングセットに追加する補助データセットのサンプル数を決定する、原則付きデータ駆動ルールを導入する。
このルールは、転送利得、すなわち予測誤差の限界減少の見積もりに基づいている。
標準条件下では、パラメータ推定を改善し、それ以外を吸収する場合に、手続きは借用される。
ガウス的特徴設定では,どのデータセット特性が,借用サンプルが予測誤差を低減させるかを分析する。
合成データセットと実データセットのアプローチを検証し、強いベースラインとシングルタスクトレーニングよりも一貫した利得を観察し、負の転送を避けた。
関連論文リスト
- Rethinking Remaining Useful Life Prediction with Scarce Time Series Data: Regression under Indirect Supervision [4.335413713700667]
本稿では,パラメータ化静的回帰(パラメータ化静的回帰)と呼ばれる統合フレームワークを導入する。
提案手法は,非常に少ない時系列データを扱う場合の予測精度において,競合性能を示す。
論文 参考訳(メタデータ) (2025-04-12T13:14:35Z) - Task Shift: From Classification to Regression in Overparameterized Linear Models [5.030445392527011]
類似したデータ分布の下で、潜伏知識がより困難なタスクに転送される現象について検討する。
分類のための最小ノルム補間器は、事前回帰に転送できないが、驚くほど構造化された減衰を経験し、限られた追加データでタスクシフトを成功させることができることを示した。
以上の結果から,最小ノルム補間器は事前回帰に移行できないが,意外な構造的減衰を経験し,限られたデータでタスクシフトを成功させることができた。
論文 参考訳(メタデータ) (2025-02-18T21:16:01Z) - Adapt then Unlearn: Exploring Parameter Space Semantics for Unlearning in Generative Adversarial Networks [5.107720313575234]
本研究は,事前学習されたGAN(Generative Adversarial Network)から不要な特徴を含む出力の発生を防止することを目的とする。
提案手法は「Adapt-then-Unlearn」と呼ばれ、望ましくない特徴を学習すると同時に、生成したサンプルの品質も維持する。
我々の知識を最大限に活用するために、我々のアプローチは、高忠実なGANの領域内での未学習に対処する最初の方法である。
論文 参考訳(メタデータ) (2023-09-25T11:36:20Z) - Improving Adaptive Conformal Prediction Using Self-Supervised Learning [72.2614468437919]
我々は、既存の予測モデルの上に自己教師付きプレテキストタスクを持つ補助モデルを訓練し、自己教師付きエラーを付加的な特徴として用いて、非整合性スコアを推定する。
合成データと実データの両方を用いて、効率(幅)、欠陥、共形予測間隔の超過といった付加情報の利点を実証的に実証する。
論文 参考訳(メタデータ) (2023-02-23T18:57:14Z) - Breaking the Spurious Causality of Conditional Generation via Fairness
Intervention with Corrective Sampling [77.15766509677348]
条件生成モデルは、トレーニングデータセットから急激な相関を継承することが多い。
これは別の潜在属性に対して不均衡なラベル条件分布をもたらす。
この問題を緩和するための一般的な2段階戦略を提案する。
論文 参考訳(メタデータ) (2022-12-05T08:09:33Z) - The Power and Limitation of Pretraining-Finetuning for Linear Regression
under Covariate Shift [127.21287240963859]
本研究では,対象データに基づく事前学習と微調整を併用した伝達学習手法について検討する。
大規模な線形回帰インスタンスの場合、$O(N2)$ソースデータによる転送学習は、$N$ターゲットデータによる教師あり学習と同じくらい効果的である。
論文 参考訳(メタデータ) (2022-08-03T05:59:49Z) - Risk Minimization from Adaptively Collected Data: Guarantees for
Supervised and Policy Learning [57.88785630755165]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、機械学習のワークホースであるが、適応的に収集されたデータを使用すると、そのモデルに依存しない保証が失敗する可能性がある。
本研究では,仮説クラス上での損失関数の平均値を最小限に抑えるため,適応的に収集したデータを用いた一般的な重み付きERMアルゴリズムについて検討する。
政策学習では、探索がゼロになるたびに既存の文献のオープンギャップを埋める率-最適後悔保証を提供する。
論文 参考訳(メタデータ) (2021-06-03T09:50:13Z) - Sparse Feature Selection Makes Batch Reinforcement Learning More Sample
Efficient [62.24615324523435]
本稿では,スパース線形関数近似を用いた高次元バッチ強化学習(RL)の統計的解析を行う。
候補となる機能が多数存在する場合,提案手法がバッチRLをより効率的にサンプリングできるという事実に光を当てる。
論文 参考訳(メタデータ) (2020-11-08T16:48:02Z) - Robust Fairness under Covariate Shift [11.151913007808927]
保護グループメンバーシップに関して公正な予測を行うことは、分類アルゴリズムの重要な要件となっている。
本稿では,ターゲット性能の面で最悪のケースに対して頑健な予測値を求める手法を提案する。
論文 参考訳(メタデータ) (2020-10-11T04:42:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。