論文の概要: Post-selection inference with HSIC-Lasso
        - arxiv url: http://arxiv.org/abs/2010.15659v2
- Date: Thu, 17 Jun 2021 11:19:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-10-01 23:47:35.052629
- Title: Post-selection inference with HSIC-Lasso
- Title(参考訳): HSIC-Lassoによる選択後推論
- Authors: Tobias Freidling, Benjamin Poignard, H\'ector Climente-Gonz\'alez,
  Makoto Yamada
- Abstract要約: 本稿では,多面体補題と混在するガウスの枠組みを用いた選択的推論手法を提案する。
次に,計算コストの低いアルゴリズムを開発し,正規化パラメータの選択を行う。
提案手法の性能は, 実世界のデータベース実験と実世界のデータベース実験の両方で説明され, サンプルサイズが小さい場合でも, タイプI誤差の厳密な制御を強調した。
- 参考スコア(独自算出の注目度): 19.928884107444908
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract:   Detecting influential features in non-linear and/or high-dimensional data is
a challenging and increasingly important task in machine learning. Variable
selection methods have thus been gaining much attention as well as
post-selection inference. Indeed, the selected features can be significantly
flawed when the selection procedure is not accounted for. We propose a
selective inference procedure using the so-called model-free "HSIC-Lasso" based
on the framework of truncated Gaussians combined with the polyhedral lemma. We
then develop an algorithm, which allows for low computational costs and
provides a selection of the regularisation parameter. The performance of our
method is illustrated by both artificial and real-world data based experiments,
which emphasise a tight control of the type-I error, even for small sample
sizes.
- Abstract(参考訳): 非線形および/または高次元データに影響を及ぼす特徴の検出は、機械学習において難しく、ますます重要なタスクである。
このように、変数選択メソッドは、選択後の推論だけでなく、多くの注目を集めている。
実際、選択された機能は、選択手順が考慮されていない場合に著しく欠陥がある。
本稿では,多面体補題を併用した断ガウスの枠組みに基づく,いわゆるモデルフリーな「hsic-lasso」を用いた選択的推論手法を提案する。
次に,計算コストの低減と正規化パラメータの選択を可能にするアルゴリズムを開発した。
本手法の性能は人工的および実世界のデータベース実験で示され,小標本サイズであってもタイプi誤差の厳密な制御を強調する。
 
      
        関連論文リスト
        - Optimizing Active Learning in Vision-Language Models via   Parameter-Efficient Uncertainty Calibration [6.7181844004432385]
 本稿では,アクティブラーニングフレームワークに不確実な校正損失を組み込んだパラメータ効率学習手法を提案する。
提案手法は,複雑な特徴量に基づくサンプリング手法の性能に適合し,超越できることを実証する。
 論文  参考訳(メタデータ) (2025-07-29T06:08:28Z)
- Computation-Aware Gaussian Processes: Model Selection And Linear-Time   Inference [55.150117654242706]
 我々は、1.8万のデータポイントでトレーニングされた計算対応GPのモデル選択が、1つのGPU上で数時間以内に可能であることを示す。
この研究の結果、ガウス過程は、不確実性を定量化する能力を著しく妥協することなく、大規模なデータセットで訓練することができる。
 論文  参考訳(メタデータ) (2024-11-01T21:11:48Z)
- A Contrast Based Feature Selection Algorithm for High-dimensional Data
  set in Machine Learning [9.596923373834093]
 本稿では,異なるクラス間で示される相違点に基づいて識別的特徴を抽出する新しいフィルタ特徴選択手法であるContrastFSを提案する。
提案手法の有効性と有効性について検証し,提案手法が無視可能な計算で良好に動作することを示す。
 論文  参考訳(メタデータ) (2024-01-15T05:32:35Z)
- Causal Feature Selection via Transfer Entropy [59.999594949050596]
 因果発見は、観察データによる特徴間の因果関係を特定することを目的としている。
本稿では,前向きと後向きの機能選択に依存する新たな因果的特徴選択手法を提案する。
精度および有限サンプルの場合の回帰誤差と分類誤差について理論的に保証する。
 論文  参考訳(メタデータ) (2023-10-17T08:04:45Z)
- Towards Free Data Selection with General-Purpose Models [71.92151210413374]
 望ましいデータ選択アルゴリズムは、限られたアノテーション予算の有用性を最大化するために、最も情報性の高いサンプルを効率的に選択することができる。
アクティブな学習手法で表現された現在のアプローチは、通常、時間を要するモデルのトレーニングとバッチデータ選択を繰り返し繰り返す、面倒なパイプラインに従う。
FreeSelは重いバッチ選択プロセスをバイパスし、効率を大幅に改善し、既存のアクティブラーニングメソッドよりも530倍高速である。
 論文  参考訳(メタデータ) (2023-09-29T15:50:14Z)
- Low-rank extended Kalman filtering for online learning of neural
  networks from streaming data [71.97861600347959]
 非定常データストリームから非線形関数のパラメータを推定するための効率的なオンライン近似ベイズ推定アルゴリズムを提案する。
この方法は拡張カルマンフィルタ (EKF) に基づいているが、新しい低ランク+斜角行列分解法を用いている。
変分推論に基づく手法とは対照的に,本手法は完全に決定論的であり,ステップサイズチューニングを必要としない。
 論文  参考訳(メタデータ) (2023-05-31T03:48:49Z)
- Bilevel Optimization for Feature Selection in the Data-Driven Newsvendor
  Problem [8.281391209717105]
 本稿では、意思決定者が過去のデータにアクセス可能な機能ベースのニュースベンダー問題について検討する。
そこで本研究では,スパースモデル,説明可能なモデル,およびアウト・オブ・サンプル性能の改善を目的とした特徴選択について検討する。
本稿では,2レベルプログラムに対する混合整数線形プログラムの修正について述べる。
 論文  参考訳(メタデータ) (2022-09-12T08:52:26Z)
- Error-based Knockoffs Inference for Controlled Feature Selection [49.99321384855201]
 本手法では, ノックオフ特徴量, エラーベース特徴重要度統計量, ステップダウン手順を一体化して, エラーベースのノックオフ推定手法を提案する。
提案手法では回帰モデルを指定する必要はなく,理論的保証で特徴選択を処理できる。
 論文  参考訳(メタデータ) (2022-03-09T01:55:59Z)
- Sparse PCA via $l_{2,p}$-Norm Regularization for Unsupervised Feature
  Selection [138.97647716793333]
 再構成誤差を$l_2,p$ノルム正規化と組み合わせることで,単純かつ効率的な特徴選択手法を提案する。
提案する非教師付きモデルを解くための効率的な最適化アルゴリズムを提案し,アルゴリズムの収束と計算の複雑さを理論的に解析する。
 論文  参考訳(メタデータ) (2020-12-29T04:08:38Z)
- Feature Selection for Huge Data via Minipatch Learning [0.0]
 安定ミニパッチ選択(STAMPS)と適応STAMPSを提案する。
STAMPSは、データの観測と特徴の両方の小さな(適応性の高い)ランダムなサブセットに基づいて訓練された基本特徴セレクタの選択イベントのアンサンブルを構築するメタアルゴリズムである。
われわれのアプローチは一般的であり、様々な機能選択戦略や機械学習技術に応用できる。
 論文  参考訳(メタデータ) (2020-10-16T17:41:08Z)
- Joint Adaptive Graph and Structured Sparsity Regularization for
  Unsupervised Feature Selection [6.41804410246642]
 本稿では,共同適応グラフと構造付き空間正規化unsupervised feature selection (JASFS)法を提案する。
最適な機能のサブセットがグループで選択され、選択された機能の数が自動的に決定される。
8つのベンチマーク実験の結果,提案手法の有効性と有効性を示した。
 論文  参考訳(メタデータ) (2020-10-09T08:17:04Z)
- Robust Multi-class Feature Selection via $l_{2,0}$-Norm Regularization
  Minimization [6.41804410246642]
 特徴選択は、データマイニングと機械学習において重要な計算処理である。
本稿では,複数クラスの特徴選択における最小二乗問題の解法として,ホモシーハードしきい値(HIHT)に基づく新しい手法を提案する。
 論文  参考訳(メタデータ) (2020-10-08T02:06:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
       
     
      指定された論文の情報です。
      本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。