論文の概要: Trees-Based Models for Correlated Data
- arxiv url: http://arxiv.org/abs/2102.08114v1
- Date: Tue, 16 Feb 2021 12:30:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-18 14:20:55.844491
- Title: Trees-Based Models for Correlated Data
- Title(参考訳): 関係データのための木モデル
- Authors: Assaf Rabinowicz and Saharon Rosset
- Abstract要約: 相関構造を無視する標準木に基づく回帰モデルを実装する際に生じる問題を示す。
新しいアプローチでは,相関構造を分割基準で明示的に考慮する。
相関を考慮しない木モデルに対する新たなアプローチの優位性は,シミュレーション実験と実データ解析によって裏付けられている。
- 参考スコア(独自算出の注目度): 8.629912408966147
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a new approach for trees-based regression, such as simple
regression tree, random forest and gradient boosting, in settings involving
correlated data. We show the problems that arise when implementing standard
trees-based regression models, which ignore the correlation structure. Our new
approach explicitly takes the correlation structure into account in the
splitting criterion, stopping rules and fitted values in the leaves, which
induces some major modifications of standard methodology. The superiority of
our new approach over trees-based models that do not account for the
correlation is supported by simulation experiments and real data analyses.
- Abstract(参考訳): 本稿では, 単純な回帰木, ランダム林, 勾配増進など, 関係データを含む環境下での木の回帰に対する新しいアプローチを提案する。
相関構造を無視する標準木に基づく回帰モデルを実装する際に生じる問題を示す。
我々の新しいアプローチは, 規則の分割, 規則の停止, 葉の適合値を考慮した相関構造を明示的に考慮し, 標準手法のいくつかの大きな変更を誘発する。
相関を考慮しない木モデルに対する新たなアプローチの優位性は,シミュレーション実験と実データ解析によって裏付けられている。
関連論文リスト
- Induced Covariance for Causal Discovery in Linear Sparse Structures [55.2480439325792]
因果モデルでは、観測データから変数間の因果関係を解き明かそうとしている。
本稿では,変数が線形に疎結合な関係を示す設定のための新しい因果探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-02T04:01:38Z) - Ensembles of Probabilistic Regression Trees [46.53457774230618]
木に基づくアンサンブル法は多くの応用や研究で回帰問題に成功している。
本研究では,確率分布に関する各領域の観察を割り当てることで,目的関数のスムーズな近似を提供する確率回帰木のアンサンブルバージョンについて検討する。
論文 参考訳(メタデータ) (2024-06-20T06:51:51Z) - Less is More: Mitigate Spurious Correlations for Open-Domain Dialogue
Response Generation Models by Causal Discovery [52.95935278819512]
本研究で得られたCGDIALOGコーパスに基づくオープンドメイン応答生成モデルのスプリアス相関に関する最初の研究を行った。
因果探索アルゴリズムに着想を得て,反応生成モデルの学習と推論のための新しいモデル非依存手法を提案する。
論文 参考訳(メタデータ) (2023-03-02T06:33:48Z) - SETAR-Tree: A Novel and Accurate Tree Algorithm for Global Time Series
Forecasting [7.206754802573034]
本稿では,TARモデルと回帰木との密接な関係について検討する。
本研究では,葉のグローバルプール回帰(PR)モデルをトレーニングする,予測固有木アルゴリズムを提案する。
本評価では, 提案した樹木モデルと森林モデルを用いて, 最先端の樹木モデルよりも精度の高い木モデルを提案する。
論文 参考訳(メタデータ) (2022-11-16T04:30:42Z) - A cautionary tale on fitting decision trees to data from additive
models: generalization lower bounds [9.546094657606178]
本研究では,異なる回帰モデルに対する決定木の一般化性能について検討する。
これにより、アルゴリズムが新しいデータに一般化するために(あるいは作らない)仮定する帰納的バイアスが引き起こされる。
スパース加法モデルに適合する大規模な決定木アルゴリズムに対して、シャープな2乗誤差一般化を低い境界で証明する。
論文 参考訳(メタデータ) (2021-10-18T21:22:40Z) - Estimation of Bivariate Structural Causal Models by Variational Gaussian
Process Regression Under Likelihoods Parametrised by Normalising Flows [74.85071867225533]
因果機構は構造因果モデルによって記述できる。
最先端の人工知能の大きな欠点の1つは、説明責任の欠如である。
論文 参考訳(メタデータ) (2021-09-06T14:52:58Z) - Inference for Network Regression Models with Community Structure [1.7188280334580197]
コミュニティベースの依存構造から生じるエラーをモデル化する新しい回帰モデリングフレームワークを提案する。
本稿では,その後の誤差分布の交換可能性特性を利用して,回帰パラメータの擬似標準誤差を求める。
論文 参考訳(メタデータ) (2021-06-08T12:04:31Z) - Goal-directed Generation of Discrete Structures with Conditional
Generative Models [85.51463588099556]
本稿では,強化学習目標を直接最適化し,期待される報酬を最大化するための新しいアプローチを提案する。
提案手法は、ユーザ定義プロパティを持つ分子の生成と、所定の目標値を評価する短いピソン表現の同定という2つのタスクで検証する。
論文 参考訳(メタデータ) (2020-10-05T20:03:13Z) - Sparse learning with CART [18.351254916713305]
二分木を持つ決定木は、分類木と回帰木(CART)の手法を用いて一般的に構築されている。
本稿では,CART法を用いて構築した回帰木の統計的特性について検討する。
論文 参考訳(メタデータ) (2020-06-07T20:55:52Z) - Adaptive Correlated Monte Carlo for Contextual Categorical Sequence
Generation [77.7420231319632]
我々は,モンテカルロ (MC) ロールアウトの集合を分散制御のために評価する政策勾配推定器に,カテゴリー列の文脈的生成を適用する。
また,二分木ソフトマックスモデルに相関したMCロールアウトを用いることで,大語彙シナリオにおける高生成コストを低減できることを示す。
論文 参考訳(メタデータ) (2019-12-31T03:01:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。