論文の概要: Bootstrap Bias Corrected Cross Validation applied to Super Learning
- arxiv url: http://arxiv.org/abs/2003.08342v1
- Date: Wed, 18 Mar 2020 17:12:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 09:42:05.486551
- Title: Bootstrap Bias Corrected Cross Validation applied to Super Learning
- Title(参考訳): ブートストラップバイアス補正クロス検証のスーパーラーニングへの応用
- Authors: Krzysztof Mnich and Agnieszka Kitlas Goli\'nska and Aneta Polewko-Klim
and Witold R. Rudnicki
- Abstract要約: 超学習者アルゴリズムは、複数のベース学習者の結果を組み合わせて予測の質を向上させることができる。
さまざまなサイズの人工データセットと7つの実バイオメディカルデータセットでテストが行われた。
Bootstrap Bias Correctionと呼ばれる再サンプリング手法は、ネストされたクロスバリデーションに対して、合理的に正確でコスト効率のよい代替手段であることが判明した。
- 参考スコア(独自算出の注目度): 0.3670422696827526
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Super learner algorithm can be applied to combine results of multiple base
learners to improve quality of predictions. The default method for verification
of super learner results is by nested cross validation. It has been proposed by
Tsamardinos et al., that nested cross validation can be replaced by resampling
for tuning hyper-parameters of the learning algorithms. We apply this idea to
verification of super learner and compare with other verification methods,
including nested cross validation. Tests were performed on artificial data sets
of diverse size and on seven real, biomedical data sets. The resampling method,
called Bootstrap Bias Correction, proved to be a reasonably precise and very
cost-efficient alternative for nested cross validation.
- Abstract(参考訳): 超学習者アルゴリズムは、複数のベース学習者の結果を組み合わせて予測の質を向上させることができる。
超学習者の結果を検証するデフォルトの方法は、ネストされたクロスバリデーションである。
Tsamardinosらは、ネストしたクロスバリデーションを学習アルゴリズムのハイパーパラメータをチューニングするための再サンプリングに置き換えることを提案した。
このアイデアをsuper learnerの検証に適用し,nested cross validationを含む他の検証手法と比較する。
様々なサイズの人工データセットと7つの実際の生物医学データセットでテストが行われた。
Bootstrap Bias Correctionと呼ばれる再サンプリング手法は、ネストされたクロスバリデーションに対して、合理的に正確でコスト効率のよい代替手段であることが判明した。
関連論文リスト
- Crafting Distribution Shifts for Validation and Training in Single Source Domain Generalization [9.323285246024518]
単一ソースドメインの一般化は、ソースドメインのモデルを学習し、未確認のターゲットドメインにデプロイしようとする。
トレーニング分布に対する検証の標準的な実践は、モデルの一般化能力を正確に反映していない。
我々は、拡張の包括的リストでソースドメインイメージを変換することで、独立した検証セットを構築する。
論文 参考訳(メタデータ) (2024-09-29T20:52:50Z) - Systematic comparison of semi-supervised and self-supervised learning for medical image classification [12.977356726499735]
典型的な医用画像分類問題では、ラベル付きデータが不足し、ラベルなしデータが利用できない。
両方の方向からの最近の手法は、従来のベンチマークで顕著な上昇を報告している。
本研究は,4つの医療データセット上でのラベル付きセットのみのベースラインに対して,13の代表的な半指導的手法と自己指導的手法を比較した。
論文 参考訳(メタデータ) (2023-07-18T01:31:47Z) - Dense FixMatch: a simple semi-supervised learning method for pixel-wise
prediction tasks [68.36996813591425]
Dense FixMatchは,高密度かつ構造化された予測タスクのオンライン半教師付き学習のための簡易な手法である。
我々は、擬似ラベルにマッチング操作を追加することにより、画像分類を超えた半教師付き学習問題にFixMatchの適用を可能にする。
Dense FixMatchは、ラベル付きデータのみを使用して教師付き学習と比較すると、結果を著しく改善し、ラベル付きサンプルの1/4でそのパフォーマンスに近づいた。
論文 参考訳(メタデータ) (2022-10-18T15:02:51Z) - CAFA: Class-Aware Feature Alignment for Test-Time Adaptation [50.26963784271912]
テスト時間適応(TTA)は、テスト時にラベルのないデータにモデルを適応させることによって、この問題に対処することを目的としている。
本稿では,クラス認識特徴アライメント(CAFA, Class-Aware Feature Alignment)と呼ばれる単純な機能アライメント損失を提案する。
論文 参考訳(メタデータ) (2022-06-01T03:02:07Z) - Smooth-Reduce: Leveraging Patches for Improved Certified Robustness [100.28947222215463]
本研究では,Smooth-Reduce の学習自由な修正スムース化手法を提案する。
提案アルゴリズムは,入力画像から抽出した重なり合うパッチを分類し,予測ロジットを集約して,入力周辺の半径が大きいことを証明する。
我々は,このような証明書の理論的保証を提供し,他のランダムな平滑化手法に対する顕著な改善を実証的に示す。
論文 参考訳(メタデータ) (2022-05-12T15:26:20Z) - A New Approach to Multilabel Stratified Cross Validation with
Application to Large and Sparse Gene Ontology Datasets [0.0]
文献で広く使われている評価尺度の弱点を示す。
本手法の改良版と,クロスバリデーションの分割を最適化するための一般手法オピシプリットを提案する。
我々は、Optiisplitが既存のメソッドよりも優れたクロスバリデーション分割を生成し、大きなGene Ontologyデータセットで使用するのに十分高速であることを示す。
論文 参考訳(メタデータ) (2021-09-03T10:34:22Z) - Tune it the Right Way: Unsupervised Validation of Domain Adaptation via
Soft Neighborhood Density [125.64297244986552]
本稿では,点間の類似度分布のエントロピーを計算し,ソフト近傍の密度を測定する教師なし検証基準を提案する。
私たちの基準は、競合する検証方法よりもシンプルですが、より効果的です。
論文 参考訳(メタデータ) (2021-08-24T17:41:45Z) - Scalable Marginal Likelihood Estimation for Model Selection in Deep
Learning [78.83598532168256]
階層型モデル選択は、推定困難のため、ディープラーニングではほとんど使われない。
本研究は,検証データが利用できない場合,限界的可能性によって一般化が向上し,有用であることを示す。
論文 参考訳(メタデータ) (2021-04-11T09:50:24Z) - Posterior Re-calibration for Imbalanced Datasets [33.379680556475314]
トレーニングラベルの分布が極めて不均衡な場合、ニューラルネットワークは性能が良くない。
我々は、KL分割に基づく最適化によって解決できる訓練後の事前バランス手法を導出する。
6つの異なるデータセットと5つの異なるアーキテクチャで得られた結果は、芸術的正確性を示している。
論文 参考訳(メタデータ) (2020-10-22T15:57:14Z) - Cross-validation Confidence Intervals for Test Error [83.67415139421448]
この研究は、クロスバリデーションのための中心極限定理と、学習アルゴリズムの弱い安定性条件下での分散の一貫した推定器を開発する。
結果は、一般的な1対1のクロスバリデーションの選択にとって、初めてのものだ。
論文 参考訳(メタデータ) (2020-07-24T17:40:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。