論文の概要: Transfer learning for tensor Gaussian graphical models
- arxiv url: http://arxiv.org/abs/2211.09391v1
- Date: Thu, 17 Nov 2022 07:53:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 15:35:30.639227
- Title: Transfer learning for tensor Gaussian graphical models
- Title(参考訳): テンソルガウス図形モデルの伝達学習
- Authors: Mingyang Ren, Yaoming Zhen and Junhui Wang
- Abstract要約: 本稿では,情報補助ドメインをフル活用したテンソルGGMの転送学習フレームワークを提案する。
理論的解析により,推定誤差と変数選択の整合性を大幅に改善した。
- 参考スコア(独自算出の注目度): 0.6767885381740952
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tensor Gaussian graphical models (GGMs), interpreting conditional
independence structures within tensor data, have important applications in
numerous areas. Yet, the available tensor data in one single study is often
limited due to high acquisition costs. Although relevant studies can provide
additional data, it remains an open question how to pool such heterogeneous
data. In this paper, we propose a transfer learning framework for tensor GGMs,
which takes full advantage of informative auxiliary domains even when
non-informative auxiliary domains are present, benefiting from the carefully
designed data-adaptive weights. Our theoretical analysis shows substantial
improvement of estimation errors and variable selection consistency on the
target domain under much relaxed conditions, by leveraging information from
auxiliary domains. Extensive numerical experiments are conducted on both
synthetic tensor graphs and a brain functional connectivity network data, which
demonstrates the satisfactory performance of the proposed method.
- Abstract(参考訳): テンソルデータ内の条件付き独立構造を解釈するテンソルガウスグラフィカルモデル(ggm)は、多くの領域で重要な応用がある。
しかし、単一の研究で利用可能なテンソルデータは、取得コストが高いため、しばしば制限される。
関連する研究は追加のデータを提供することができるが、そのような異種データのプール方法には疑問が残る。
本稿では,非インフォーマティブな補助領域が存在する場合でも情報付き補助領域を十分に活用するテンソルggmの転送学習フレームワークを提案する。
本理論解析では,補助領域の情報を活用することで,かなり緩和された条件下で推定誤差や変数選択一貫性が大幅に向上することを示す。
合成テンソルグラフと脳機能接続ネットワークデータの両方で大規模な数値実験を行い,提案手法の良好な性能を実証した。
関連論文リスト
- Localized Gaussians as Self-Attention Weights for Point Clouds Correspondence [92.07601770031236]
本稿では,エンコーダのみのトランスフォーマーアーキテクチャのアテンションヘッドにおける意味的意味パターンについて検討する。
注意重みの修正はトレーニングプロセスの促進だけでなく,最適化の安定性の向上にも寄与する。
論文 参考訳(メタデータ) (2024-09-20T07:41:47Z) - Unifying Invariant and Variant Features for Graph Out-of-Distribution via Probability of Necessity and Sufficiency [18.564387153282293]
本稿では,必要十分かつ必要な不変部分構造を抽出するために,PNS(Probability of Necessity and Sufficiency)を活用することを提案する。
また、ラベルに関連する領域不変部分グラフを活用し、アンサンブル方式で一般化性能を向上する。
実験の結果,SNIGLモデルは6つの公開ベンチマークにおいて最先端技術よりも優れていた。
論文 参考訳(メタデータ) (2024-07-21T21:35:01Z) - Generative Expansion of Small Datasets: An Expansive Graph Approach [13.053285552524052]
最小限のサンプルから大規模で情報豊富なデータセットを生成する拡張合成モデルを提案する。
自己アテンション層と最適なトランスポートを持つオートエンコーダは、分散一貫性を洗練させる。
結果は同等のパフォーマンスを示し、モデルがトレーニングデータを効果的に増強する可能性を示している。
論文 参考訳(メタデータ) (2024-06-25T02:59:02Z) - Provable Tensor Completion with Graph Information [49.08648842312456]
本稿では,動的グラフ正規化テンソル完備問題の解法として,新しいモデル,理論,アルゴリズムを提案する。
我々はテンソルの低ランクおよび類似度構造を同時に捉える包括的モデルを開発する。
理論の観点からは、提案したグラフの滑らか度正規化と重み付きテンソル核ノルムとの整合性を示す。
論文 参考訳(メタデータ) (2023-10-04T02:55:10Z) - Under-Counted Tensor Completion with Neural Incorporation of Attributes [18.21165063142917]
Under-counted tensor completion (UC-TC) は、多くのデータ分析タスクに向いている。
低ランクポアソンテンソルモデルと表現的未知の非線形側情報抽出器を提案する。
モデルを復元するために,低ランクテンソル補完とニューラルネットワーク学習の併用アルゴリズムが設計されている。
我々の知る限りでは、この結果はまず、未集計マルチアスペクトデータ補完の理論的サポートを提供するものである。
論文 参考訳(メタデータ) (2023-06-05T21:45:23Z) - CHALLENGER: Training with Attribution Maps [63.736435657236505]
ニューラルネットワークのトレーニングに属性マップを利用すると、モデルの正規化が向上し、性能が向上することを示す。
特に、我々の汎用的なドメインに依存しないアプローチは、ビジョン、自然言語処理、時系列タスクにおける最先端の結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-05-30T13:34:46Z) - Equivariance Allows Handling Multiple Nuisance Variables When Analyzing
Pooled Neuroimaging Datasets [53.34152466646884]
本稿では,構造空間上でインスタンス化された同変表現学習における最近の結果と,因果推論における古典的結果の簡易な利用が,いかに効果的に実現されたかを示す。
いくつかの仮定の下で、我々のモデルが複数のニュアンス変数を扱えることを実証し、そうでなければサンプルの大部分を取り除く必要のあるシナリオにおいて、プールされた科学データセットの分析を可能にする。
論文 参考訳(メタデータ) (2022-03-29T04:54:06Z) - Towards Open-World Feature Extrapolation: An Inductive Graph Learning
Approach [80.8446673089281]
グラフ表現と学習を伴う新しい学習パラダイムを提案する。
本フレームワークは,1) 下位モデルとしてのバックボーンネットワーク(フィードフォワードニューラルネットなど)が,予測ラベルの入力および出力として機能を取り,2) 上位モデルとしてのグラフニューラルネットワークが,観測データから構築された特徴データグラフをメッセージパッシングすることで,新機能の埋め込みを外挿することを学ぶ。
論文 参考訳(メタデータ) (2021-10-09T09:02:45Z) - Efficient Multidimensional Functional Data Analysis Using Marginal
Product Basis Systems [2.4554686192257424]
多次元関数データのサンプルから連続表現を学習するためのフレームワークを提案する。
本研究では, テンソル分解により, 得られた推定問題を効率的に解けることを示す。
我々は、ニューロイメージングにおける真のデータ応用で締めくくっている。
論文 参考訳(メタデータ) (2021-07-30T16:02:15Z) - Efficient Robustness Certificates for Discrete Data: Sparsity-Aware
Randomized Smoothing for Graphs, Images and More [85.52940587312256]
本稿では,初期作業を想定したランダム化平滑化フレームワークに基づくモデル非依存の証明書を提案する。
このアプローチがさまざまなモデル、データセット、タスクに対して有効であることを示します。
論文 参考訳(メタデータ) (2020-08-29T10:09:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。