論文の概要: Forest Guided Smoothing
- arxiv url: http://arxiv.org/abs/2103.05092v1
- Date: Mon, 8 Mar 2021 21:49:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-11 02:31:32.818521
- Title: Forest Guided Smoothing
- Title(参考訳): 森林ガイドスムージング
- Authors: Isabella Verdinelli and Larry Wasserman
- Abstract要約: 我々はランダムな森林の出力を用いて、空間適応帯域幅行列を持つ局所スムースラーの族を定義する。
スムーズさは元の森林の柔軟性を継承するが、単純で線形なスムーズさのため、非常に解釈可能である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We use the output of a random forest to define a family of local smoothers
with spatially adaptive bandwidth matrices. The smoother inherits the
flexibility of the original forest but, since it is a simple, linear smoother,
it is very interpretable and it can be used for tasks that would be intractable
for the original forest. This includes bias correction, confidence intervals,
assessing variable importance and methods for exploring the structure of the
forest. We illustrate the method on some synthetic examples and on data related
to Covid-19.
- Abstract(参考訳): 我々はランダムな森林の出力を用いて、空間適応帯域幅行列を持つ局所スムースラーの族を定義する。
スムーズさは原林の柔軟性を継承するが、単純で直線的なスムーズさのため、非常に解釈可能であり、原林にとって難易度の高い作業に使用できる。
これにはバイアスの補正、信頼区間、変数の重要性の評価、森林の構造を探索する方法が含まれる。
本手法は,いくつかの合成例とcovid-19関連データについて述べる。
関連論文リスト
- Grafting: Making Random Forests Consistent [0.0]
ランダム・フォレストの理論についてはほとんど知られていない。
主要な疑問は、ランダムフォレストアルゴリズムが一貫性があるかどうかである。
論文 参考訳(メタデータ) (2024-03-09T21:29:25Z) - A Note on Bayesian Networks with Latent Root Variables [56.86503578982023]
残りの, 証明, 変数に対する限界分布もまたベイズ的ネットワークとして分解され, 経験的と呼ぶ。
マニフェスト変数の観測のデータセットにより、経験的ベイズネットのパラメータを定量化することができる。
論文 参考訳(メタデータ) (2024-02-26T23:53:34Z) - Randomization Can Reduce Both Bias and Variance: A Case Study in Random Forests [16.55139316146852]
我々は、しばしば見落とされがちな現象について研究し、最初はカテブレイマン2001randomで指摘され、ランダムな森林は、バッグングに比べて偏見を減らしているように見える。
論文 参考訳(メタデータ) (2024-02-20T02:36:26Z) - Why do Random Forests Work? Understanding Tree Ensembles as
Self-Regularizing Adaptive Smoothers [68.76846801719095]
統計学で広く普及している偏りと分散還元に対する現在の高次二分法は、木のアンサンブルを理解するには不十分である、と我々は主張する。
森林は、通常暗黙的に絡み合っている3つの異なるメカニズムによって、樹木を改良できることを示す。
論文 参考訳(メタデータ) (2024-02-02T15:36:43Z) - Contextual Decision Trees [62.997667081978825]
学習アンサンブルの1つの浅い木を特徴量ベースで選択するための,マルチアームのコンテキスト付きバンドレコメンデーションフレームワークを提案する。
トレーニングされたシステムはランダムフォレスト上で動作し、最終的な出力を提供するためのベース予測器を動的に識別する。
論文 参考訳(メタデータ) (2022-07-13T17:05:08Z) - Geometry- and Accuracy-Preserving Random Forest Proximities [3.265773263570237]
我々はランダムフォレスト-ジオメトリー(Random Forest-Geometry- and Accuracy-Preserving Proximities:RF-GAP)と呼ばれるランダムフォレスト確率の新しい定義を導入する。
RF-GAPは乱林予測と正確に一致していることが証明された。
この幾何表現の改善は、データ計算などのタスクにおいて従来のランダムな森の確率よりも優れており、学習したデータ幾何と整合した外れ値の検出と可視化結果を提供する。
論文 参考訳(メタデータ) (2022-01-29T23:13:53Z) - Minimax Rates for High-Dimensional Random Tessellation Forests [0.0]
モンドリアン林は、任意の次元でミニマックスレートが得られた最初のランダム林である。
概略分割方向を持つ多種多様なランダム林は任意の次元における最小収束率も達成できることを示す。
論文 参考訳(メタデータ) (2021-09-22T06:47:38Z) - Making CNNs Interpretable by Building Dynamic Sequential Decision
Forests with Top-down Hierarchy Learning [62.82046926149371]
本稿では,CNN(Convlutional Neural Networks)を解釈可能なモデル転送方式を提案する。
我々は、CNNの上に微分可能な意思決定林を構築することで、これを実現する。
DDSDF(Dep Dynamic Sequential Decision Forest)と命名する。
論文 参考訳(メタデータ) (2021-06-05T07:41:18Z) - Provably End-to-end Label-Noise Learning without Anchor Points [118.97592870124937]
本稿では,アンカーポイントを使わずにラベルノイズ学習を実現するためのエンドツーエンドフレームワークを提案する。
提案フレームワークでは,クリーンなクラス後確率が十分に分散している場合,遷移行列を同定できる。
論文 参考訳(メタデータ) (2021-02-04T03:59:37Z) - Stochastic Optimization Forests [60.523606291705214]
標準的なランダムな森林アルゴリズムのように予測精度を向上させるために分割するのではなく、分割を選択した木を栽培し、下流の意思決定品質を直接最適化することで、森林決定政策の訓練方法を示す。
概略分割基準は、各候補分割に対して正確に最適化された森林アルゴリズムに近い性能を保ちながら、100倍のランニング時間を短縮できることを示す。
論文 参考訳(メタデータ) (2020-08-17T16:56:06Z) - Fr\'echet random forests for metric space valued regression with non
euclidean predictors [0.0]
我々はFr'echet木とFr'echetランダムフォレストを導入し、入力変数と出力変数が一般的な距離空間で値を取るデータを処理する。
データ駆動分割を用いたFr'echet回帰図予測器の一貫性定理をFr'echetの純粋にランダムな木に適用する。
論文 参考訳(メタデータ) (2019-06-04T22:07:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。