論文の概要: Post-Transfer Learning Statistical Inference in High-Dimensional Regression
- arxiv url: http://arxiv.org/abs/2504.18212v1
- Date: Fri, 25 Apr 2025 09:43:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:53.728438
- Title: Post-Transfer Learning Statistical Inference in High-Dimensional Regression
- Title(参考訳): 高次元回帰におけるポストトランスファー学習統計的推論
- Authors: Nguyen Vu Khai Tam, Cao Huyen My, Vo Nguyen Le Duy,
- Abstract要約: PTL-SI (Post-TL Statistical Inference) と呼ばれるTL-conquerにおける特徴選択の信頼性を評価するための新しい統計的推論フレームワークを提案する。
PTL-SIのコアコントリビューションは、TL-conquerで選択された有効な$p$-値を提供することであり、したがって所望の$alpha$で偽陽性率(FPR)を厳格に制御することができる。
提案したPTL-SIの有効性と有効性について,合成および実世界の高次元データセットの広範囲な実験により検証した。
- 参考スコア(独自算出の注目度): 7.10052009802944
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transfer learning (TL) for high-dimensional regression (HDR) is an important problem in machine learning, particularly when dealing with limited sample size in the target task. However, there currently lacks a method to quantify the statistical significance of the relationship between features and the response in TL-HDR settings. In this paper, we introduce a novel statistical inference framework for assessing the reliability of feature selection in TL-HDR, called PTL-SI (Post-TL Statistical Inference). The core contribution of PTL-SI is its ability to provide valid $p$-values to features selected in TL-HDR, thereby rigorously controlling the false positive rate (FPR) at desired significance level $\alpha$ (e.g., 0.05). Furthermore, we enhance statistical power by incorporating a strategic divide-and-conquer approach into our framework. We demonstrate the validity and effectiveness of the proposed PTL-SI through extensive experiments on both synthetic and real-world high-dimensional datasets, confirming its theoretical properties and utility in testing the reliability of feature selection in TL scenarios.
- Abstract(参考訳): 高次元回帰(HDR)のための伝達学習(TL)は、特にターゲットタスクにおける限られたサンプルサイズを扱う場合、機械学習において重要な問題である。
しかし、TL-HDR設定における特徴と応答の関係の統計的意義を定量化する方法が現在存在しない。
本稿では,PTL-SI(Post-TL Statistical Inference)と呼ばれるTL-HDRの特徴選択の信頼性を評価するための新しい統計的推論フレームワークを提案する。
PTL-SIのコアコントリビューションは、TL-HDRで選択された特徴に対して有効な$p$値を提供することであり、したがって所望の意義レベルで$\alpha$ (e g , 0.05) で偽陽性率(FPR)を厳格に制御することができる。
さらに,我々の枠組みに戦略的分断・対数的アプローチを取り入れることで,統計力を高める。
提案したPTL-SIの有効性と有効性は,合成および実世界の高次元データセットの広範な実験を通じて実証し,TLシナリオにおける特徴選択の信頼性をテストするための理論的特性と有用性を確認した。
関連論文リスト
- R-TPT: Improving Adversarial Robustness of Vision-Language Models through Test-Time Prompt Tuning [97.49610356913874]
視覚言語モデル(VLM)のためのロバストテスト時プロンプトチューニング(R-TPT)を提案する。
R-TPTは、推論段階における敵攻撃の影響を緩和する。
プラグアンドプレイの信頼性に基づく重み付きアンサンブル戦略を導入し,防御強化を図る。
論文 参考訳(メタデータ) (2025-04-15T13:49:31Z) - Interpretable Feature Interaction via Statistical Self-supervised Learning on Tabular Data [22.20955211690874]
Spofeは、統計的厳密さによる明確な解釈可能性を達成するために、原則化された表現をキャプチャする、新しい自己教師型機械学習パイプラインである。
このアプローチの基盤となるのは、正確なエラー境界と厳密な偽発見率(FDR)制御を提供する、堅牢な理論フレームワークです。
さまざまな実世界のデータセットの実験は、Spotfeの有効性を実証している。
論文 参考訳(メタデータ) (2025-03-23T12:27:42Z) - Global Convergence and Rich Feature Learning in $L$-Layer Infinite-Width Neural Networks under $μ$P Parametrization [66.03821840425539]
本稿では, テンソル勾配プログラム(SGD)フレームワークを用いた$L$層ニューラルネットワークのトレーニング力学について検討する。
SGDにより、これらのネットワークが初期値から大きく逸脱する線形独立な特徴を学習できることを示す。
このリッチな特徴空間は、関連するデータ情報をキャプチャし、トレーニングプロセスの収束点が世界最小であることを保証する。
論文 参考訳(メタデータ) (2025-03-12T17:33:13Z) - Meta-Statistical Learning: Supervised Learning of Statistical Inference [59.463430294611626]
この研究は、大きな言語モデル(LLM)の成功を駆動するツールと原則が、分散レベルのタスクに取り組むために再利用可能であることを実証している。
本稿では,統計的推論タスクを教師付き学習問題として再構成するマルチインスタンス学習に触発されたメタ統計学習を提案する。
論文 参考訳(メタデータ) (2025-02-17T18:04:39Z) - Statistical Inference for Low-Rank Tensor Models [6.461409103746828]
本稿では,低タッカーランク信号テンソルの一般および低タッカーランク線形汎関数を推定するための統一的枠組みを提案する。
退化戦略の活用とロータッカーランク多様体の接空間への射影により、一般および構造化線型汎函数の推論が可能となる。
論文 参考訳(メタデータ) (2025-01-27T17:14:35Z) - Statistical Inference for Temporal Difference Learning with Linear Function Approximation [62.69448336714418]
The consistency properties of TD learning with Polyak-Ruppert averaging and linear function approximation。
まず、分散に明示的に依存し、弱い条件下で保持する新しい高次元確率収束保証を導出する。
さらに、文献よりも高速な速度を保証する凸集合のクラスに対して、洗練された高次元ベリー-エッセイン境界を確立する。
論文 参考訳(メタデータ) (2024-10-21T15:34:44Z) - Statistical Properties of Robust Satisficing [5.0139295307605325]
Robust Satisficing(RS)モデルは、堅牢な最適化に対する新たなアプローチである。
本稿では,RSモデルの理論的特性を包括的に解析する。
実験の結果,RSモデルは小サンプル体制における基礎的経験的リスクを常に上回ることがわかった。
論文 参考訳(メタデータ) (2024-05-30T19:57:28Z) - The Risk of Federated Learning to Skew Fine-Tuning Features and
Underperform Out-of-Distribution Robustness [50.52507648690234]
フェデレートされた学習は、微調整された特徴をスキイングし、モデルの堅牢性を損なうリスクがある。
3つのロバスト性指標を導入し、多様なロバストデータセットで実験を行う。
提案手法は,パラメータ効率のよい微調整手法を含む多種多様なシナリオにまたがるロバスト性を著しく向上させる。
論文 参考訳(メタデータ) (2024-01-25T09:18:51Z) - Hypothesis Transfer Learning with Surrogate Classification Losses:
Generalization Bounds through Algorithmic Stability [3.908842679355255]
仮説伝達学習(HTL)は、以前のタスクレバレッジを新たなターゲットにすることで、ドメイン適応と対比する。
本稿では,機械学習アルゴリズム解析のための魅力的な理論フレームワークであるアルゴリズム安定性によるHTLの学習理論について検討する。
論文 参考訳(メタデータ) (2023-05-31T09:38:21Z) - On Hypothesis Transfer Learning of Functional Linear Models [8.557392136621894]
再生カーネル空間(RKHS)フレームワークを用いて,関数線形回帰(FLR)のための伝達学習(TL)について検討する。
我々は、RKHS距離を用いてタスク間の類似度を測定し、RKHSの特性に関連付けられた情報の転送を行う。
2つのアルゴリズムが提案され、1つは正のソースが分かっているときに転送を行い、もう1つはアグリゲーションを利用してソースに関する事前情報なしでロバストな転送を行う。
論文 参考訳(メタデータ) (2022-06-09T04:50:16Z) - Differential privacy and robust statistics in high dimensions [49.50869296871643]
高次元Propose-Test-Release (HPTR) は指数的メカニズム、頑健な統計、Propose-Test-Release メカニズムという3つの重要なコンポーネントの上に構築されている。
本論文では,HPTRが複数のシナリオで最適サンプル複雑性をほぼ達成していることを示す。
論文 参考訳(メタデータ) (2021-11-12T06:36:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。