論文の概要: Joint Graph Learning and Model Fitting in Laplacian Regularized
Stratified Models
- arxiv url: http://arxiv.org/abs/2305.02573v1
- Date: Thu, 4 May 2023 06:06:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-05 16:47:24.669482
- Title: Joint Graph Learning and Model Fitting in Laplacian Regularized
Stratified Models
- Title(参考訳): ラプラシアン正則成層モデルにおけるジョイントグラフ学習とモデルフィッティング
- Authors: Ziheng Cheng, Junzi Zhang, Akshay Agrawal, Stephen Boyd
- Abstract要約: ラプラシア正規化成層モデル(Laplacian regularized Stratified Model、LRSM)は、サブプロブレムの明示的または暗黙的なネットワーク構造を利用するモデルである。
本稿では,LRSMにおけるグラフ重みの重要性と感度を示し,その感度が任意に大きいことを示す。
本稿では,1つの最適化問題を解くことで,モデルパラメータを適合させながらグラフを共同学習する汎用的手法を提案する。
- 参考スコア(独自算出の注目度): 5.933030735757292
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Laplacian regularized stratified models (LRSM) are models that utilize the
explicit or implicit network structure of the sub-problems as defined by the
categorical features called strata (e.g., age, region, time, forecast horizon,
etc.), and draw upon data from neighboring strata to enhance the parameter
learning of each sub-problem. They have been widely applied in machine learning
and signal processing problems, including but not limited to time series
forecasting, representation learning, graph clustering, max-margin
classification, and general few-shot learning. Nevertheless, existing works on
LRSM have either assumed a known graph or are restricted to specific
applications. In this paper, we start by showing the importance and sensitivity
of graph weights in LRSM, and provably show that the sensitivity can be
arbitrarily large when the parameter scales and sample sizes are heavily
imbalanced across nodes. We then propose a generic approach to jointly learn
the graph while fitting the model parameters by solving a single optimization
problem. We interpret the proposed formulation from both a graph connectivity
viewpoint and an end-to-end Bayesian perspective, and propose an efficient
algorithm to solve the problem. Convergence guarantees of the proposed
optimization algorithm is also provided despite the lack of global strongly
smoothness of the Laplacian regularization term typically required in the
existing literature, which may be of independent interest. Finally, we
illustrate the efficiency of our approach compared to existing methods by
various real-world numerical examples.
- Abstract(参考訳): ラプラシア正規化成層モデル(英: Laplacian regularized stratified model、LRSM)は、成層(例えば、年齢、地域、時間、予測地平線など)と呼ばれる分類的特徴によって定義されたサブプロブレムの明示的または暗黙的なネットワーク構造を利用して、各サブプロブレムのパラメータ学習を強化するモデルである。
それらは、時系列予測、表現学習、グラフクラスタリング、最大マージン分類、一般的な少数ショット学習など、機械学習や信号処理の問題に広く適用されてきた。
それでも、LRSMに関する既存の研究は、既知のグラフを仮定するか、特定のアプリケーションに限定されている。
本稿では、LRSMにおけるグラフ重みの重要性と感度を示すことから始め、パラメータのスケールとサンプルサイズがノード間で大きく不均衡な場合に、その感度が任意に大きくなることを示す。
次に,単一最適化問題を解くことによって,モデルパラメータを適合させながらグラフを学習する汎用的手法を提案する。
本稿では,グラフ接続的視点とエンドツーエンドベイズ的視点の両方から提案した定式化を解釈し,その問題を解決するための効率的なアルゴリズムを提案する。
提案アルゴリズムの収束保証は、既存の文献で一般的に必要とされるラプラシアン正則化項のグローバルに強い滑らかさが欠如しているにもかかわらず提供される。
最後に,実世界の様々な数値例による既存手法と比較して,提案手法の効率性を示す。
関連論文リスト
- Network Topology Inference with Sparsity and Laplacian Constraints [18.447094648361453]
我々はラプラシアの制約付きガウス図形モデルを用いてネットワークトポロジに取り組む。
この問題を解決するために,効率的なプロジェクションアルゴリズムが開発された。
論文 参考訳(メタデータ) (2023-09-02T15:06:30Z) - GEC: A Unified Framework for Interactive Decision Making in MDP, POMDP,
and Beyond [101.5329678997916]
対話型意思決定の一般的な枠組みの下で, サンプル高能率強化学習(RL)について検討した。
本稿では,探索とエクスプロイトの基本的なトレードオフを特徴付ける,新しい複雑性尺度である一般化エルダー係数(GEC)を提案する。
低 GEC の RL 問題は非常にリッチなクラスであり、これは低ベルマン楕円体次元問題、双線型クラス、低証人ランク問題、PO-双線型クラス、一般化正規PSR を仮定する。
論文 参考訳(メタデータ) (2022-11-03T16:42:40Z) - Learning Graphical Factor Models with Riemannian Optimization [70.13748170371889]
本稿では,低ランク構造制約下でのグラフ学習のためのフレキシブルなアルゴリズムフレームワークを提案する。
この問題は楕円分布のペナルティ化された最大推定値として表される。
楕円モデルによく適合する正定行列と定ランクの正半定行列のジオメトリを利用する。
論文 参考訳(メタデータ) (2022-10-21T13:19:45Z) - Semi-Supervised Clustering of Sparse Graphs: Crossing the
Information-Theoretic Threshold [3.6052935394000234]
ブロックモデルは、ネットワーク構造データのクラスタリングとコミュニティ検出のための標準ランダムグラフモデルである。
ネットワークトポロジに基づく推定器は、モデルパラメータが一定の閾値以下である場合、スパースグラフの確率よりも大幅に向上する。
パラメータ領域全体でラベルの任意の部分で実現可能であることを示す。
論文 参考訳(メタデータ) (2022-05-24T00:03:25Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - Bayesian Graph Contrastive Learning [55.36652660268726]
本稿では,ランダムな拡張がエンコーダにつながることを示すグラフコントラスト学習手法の新たな視点を提案する。
提案手法は,各ノードを決定論的ベクトルに埋め込む既存の手法とは対照的に,各ノードを潜在空間の分布で表現する。
いくつかのベンチマークデータセットにおける既存の最先端手法と比較して,性能が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2021-12-15T01:45:32Z) - Pretrained Cost Model for Distributed Constraint Optimization Problems [37.79733538931925]
分散制約最適化問題(DCOP)は、最適化問題の重要なサブクラスである。
本稿では,DCOPのための新しい非巡回グラフスキーマ表現を提案し,グラフ表現を組み込むためにグラフ注意ネットワーク(GAT)を利用する。
我々のモデルであるGAT-PCMは、幅広いDCOPアルゴリズムを向上するために、オフラインで最適なラベル付きデータで事前訓練される。
論文 参考訳(メタデータ) (2021-12-08T09:24:10Z) - Spike-and-Slab Generalized Additive Models and Scalable Algorithms for
High-Dimensional Data [0.0]
本稿では,高次元データに対応するため,階層型一般化加法モデル(GAM)を提案する。
曲線の適切な縮退と滑らか化関数線型空間と非線形空間の分離に対する平滑化ペナルティを考察する。
2つの決定論的アルゴリズム、EM-Coordinate Descent と EM-Iterative Weighted Least Squares は異なるユーティリティ向けに開発された。
論文 参考訳(メタデータ) (2021-10-27T14:11:13Z) - T-LoHo: A Bayesian Regularization Model for Structured Sparsity and
Smoothness on Graphs [0.0]
グラフ構造化データでは、構造化されたスパーシリティと滑らかさが団結する傾向にある。
グラフィカルな関係を持つ高次元パラメータに先立って提案する。
構造された空間と滑らかさを同時に検出するために使用します。
論文 参考訳(メタデータ) (2021-07-06T10:10:03Z) - Joint Network Topology Inference via Structured Fusion Regularization [70.30364652829164]
結合ネットワークトポロジ推論は、異種グラフ信号から複数のグラフラプラシア行列を学習する標準的な問題を表す。
新規な構造化融合正規化に基づく一般グラフ推定器を提案する。
提案するグラフ推定器は高い計算効率と厳密な理論保証の両方を享受できることを示す。
論文 参考訳(メタデータ) (2021-03-05T04:42:32Z) - Polynomial-Time Exact MAP Inference on Discrete Models with Global
Dependencies [83.05591911173332]
ジャンクションツリーアルゴリズムは、実行時の保証と正確なMAP推論のための最も一般的な解である。
本稿では,ノードのクローン化による新たなグラフ変換手法を提案する。
論文 参考訳(メタデータ) (2019-12-27T13:30:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。