論文の概要: Multi-task Learning for Gaussian Graphical Regressions with High
Dimensional Covariates
- arxiv url: http://arxiv.org/abs/2205.10672v1
- Date: Sat, 21 May 2022 20:48:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-30 10:10:32.845433
- Title: Multi-task Learning for Gaussian Graphical Regressions with High
Dimensional Covariates
- Title(参考訳): 高次元共変量を持つガウス図形回帰に対するマルチタスク学習
- Authors: Jingfei Zhang and Yi Li
- Abstract要約: ガウス図形回帰モデルに適合するマルチタスク学習推定器を提案する。
計算には,半滑らかなニュートン法を用いてサブプロブレムを解く,効率的な拡張ラグランジアンアルゴリズムを考える。
マルチタスク学習に基づく推定値の誤差率は、ノード単位のラッソ推定値よりも大幅に改善されていることを示す。
- 参考スコア(独自算出の注目度): 5.726899123970559
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Gaussian graphical regression is a powerful means that regresses the
precision matrix of a Gaussian graphical model on covariates, permitting the
numbers of the response variables and covariates to far exceed the sample size.
Model fitting is typically carried out via separate node-wise lasso
regressions, ignoring the network-induced structure among these regressions.
Consequently, the error rate is high, especially when the number of nodes is
large. We propose a multi-task learning estimator for fitting Gaussian
graphical regression models; we design a cross-task group sparsity penalty and
a within task element-wise sparsity penalty, which govern the sparsity of
active covariates and their effects on the graph, respectively. For
computation, we consider an efficient augmented Lagrangian algorithm, which
solves subproblems with a semi-smooth Newton method. For theory, we show that
the error rate of the multi-task learning based estimates has much improvement
over that of the separate node-wise lasso estimates, because the cross-task
penalty borrows information across tasks. To address the main challenge that
the tasks are entangled in a complicated correlation structure, we establish a
new tail probability bound for correlated heavy-tailed (sub-exponential)
variables with an arbitrary correlation structure, a useful theoretical result
in its own right. Finally, the utility of our method is demonstrated through
simulations as well as an application to a gene co-expression network study
with brain cancer patients.
- Abstract(参考訳): ガウスのグラフィカル回帰は、共変量上でガウスのグラフィカルモデルの精度行列を回帰する強力な手段であり、応答変数と共変量の数が標本サイズを超えることを許している。
モデルフィッティングは通常、ノード毎のラッソ回帰によって行われ、これらの回帰のうちネットワークによる構造は無視される。
これにより、特にノード数が大きい場合にはエラーレートが高くなる。
本稿では,ガウスのグラフィカル回帰モデルに適合するマルチタスク学習推定器を提案する。我々は,多タスク群間隔ペナルティとタスク内要素幅ペナルティを設計し,アクティブな共変量とそのグラフへの影響をそれぞれ管理する。
計算には,半滑らかなニュートン法を用いて部分問題を解く効率的な拡張ラグランジアンアルゴリズムを考える。
理論上,マルチタスク学習に基づく推定の誤り率は,クロスタスクペナルティがタスク間で情報を借りているため,ノード単位でのlasso推定よりも大幅に改善されていることを示す。
複雑な相関構造にタスクが絡み合っているという主な課題に対処するために、任意の相関構造を持つ相関重み付き(部分指数)変数の新たなテール確率を、それ自身で有用な理論的結果として確立する。
最後に,本手法の有用性をシミュレーションにより実証し,脳癌患者との遺伝子共発現ネットワーク研究への応用を行った。
関連論文リスト
- An Optimal Transport Approach for Network Regression [0.6238182916866519]
我々は、Fr'echet平均に基づく距離空間上の一般化回帰モデルにおける最近の発展の上に構築する。
本稿では,ワッサーシュタイン計量を用いたネットワーク回帰手法を提案する。
論文 参考訳(メタデータ) (2024-06-18T02:03:07Z) - Distributed High-Dimensional Quantile Regression: Estimation Efficiency and Support Recovery [0.0]
我々は高次元線形量子レグレッションのための分散推定とサポート回復に焦点をあてる。
元の量子レグレッションを最小二乗最適化に変換する。
効率的なアルゴリズムを開発し、高い計算と通信効率を享受する。
論文 参考訳(メタデータ) (2024-05-13T08:32:22Z) - Neural Network-Based Score Estimation in Diffusion Models: Optimization
and Generalization [12.812942188697326]
拡散モデルは、忠実さ、柔軟性、堅牢性を改善した高品質なサンプルを生成する際に、GANと競合する強力なツールとして登場した。
これらのモデルの主要な構成要素は、スコアマッチングを通じてスコア関数を学ぶことである。
様々なタスクにおいて経験的な成功にもかかわらず、勾配に基づくアルゴリズムが証明可能な精度でスコア関数を学習できるかどうかは不明である。
論文 参考訳(メタデータ) (2024-01-28T08:13:56Z) - Deep Generative Symbolic Regression [83.04219479605801]
記号回帰は、データから簡潔な閉形式数学的方程式を発見することを目的としている。
既存の手法は、探索から強化学習まで、入力変数の数に応じてスケールできない。
本稿では,我々のフレームワークであるDeep Generative Symbolic Regressionのインスタンス化を提案する。
論文 参考訳(メタデータ) (2023-12-30T17:05:31Z) - Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - Understanding Augmentation-based Self-Supervised Representation Learning
via RKHS Approximation and Regression [53.15502562048627]
最近の研究は、自己教師付き学習とグラフラプラシアン作用素のトップ固有空間の近似との関係を構築している。
この研究は、増強に基づく事前訓練の統計的分析に発展する。
論文 参考訳(メタデータ) (2023-06-01T15:18:55Z) - Multilayer Clustered Graph Learning [66.94201299553336]
我々は、観測された層を代表グラフに適切に集約するために、データ忠実度用語として対照的な損失を用いる。
実験により,本手法がクラスタクラスタw.r.tに繋がることが示された。
クラスタリング問題を解くためのクラスタリングアルゴリズムを学習する。
論文 参考訳(メタデータ) (2020-10-29T09:58:02Z) - Transfer Learning in Large-scale Gaussian Graphical Models with False
Discovery Rate Control [6.230751621285322]
評価アルゴリズムであるTrans-CLIMEが提案され, 単一実験環境における最小収束速度よりも高速に収束できることが示されている。
予測誤差の顕著な減少とリンク検出のパワーの大幅な増大が観察された。
論文 参考訳(メタデータ) (2020-10-21T14:39:14Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Semiparametric Nonlinear Bipartite Graph Representation Learning with
Provable Guarantees [106.91654068632882]
半パラメトリック指数族分布におけるパラメータの統計的推定問題として、両部グラフを考察し、その表現学習問題を定式化する。
提案手法は, 地中真理付近で強い凸性を示すため, 勾配降下法が線形収束率を達成できることを示す。
我々の推定器は指数族内の任意のモデル誤特定に対して頑健であり、広範な実験で検証されている。
論文 参考訳(メタデータ) (2020-03-02T16:40:36Z) - Residual Correlation in Graph Neural Network Regression [39.54530450932135]
我々は条件付き独立仮定が予測力を著しく制限していることを示します。
この問題を解釈可能かつ効率的なフレームワークで解決する。
我々のフレームワークは、競合するベースラインよりもかなり高い精度を実現している。
論文 参考訳(メタデータ) (2020-02-19T16:32:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。