論文の概要: Low-Rank Plus Sparse Matrix Transfer Learning under Growing Representations and Ambient Dimensions
- arxiv url: http://arxiv.org/abs/2601.21873v1
- Date: Thu, 29 Jan 2026 15:40:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.945785
- Title: Low-Rank Plus Sparse Matrix Transfer Learning under Growing Representations and Ambient Dimensions
- Title(参考訳): 成長表現とアンビエント次元を考慮した低ランク+スパース行列変換学習
- Authors: Jinhang Chai, Xuyuan Liu, Elynn Chen, Yujun Yan,
- Abstract要約: 本研究では, 周辺次元と固有表現の同時成長における構造行列推定のための伝達学習について検討した。
本稿では,対象パラメータを組込みソースコンポーネント,低次元低ランクイノベーション,スパース編集に分解する汎用転送フレームワークを提案する。
対象雑音, 表現成長, ソース推定誤差を分離する決定論的誤差境界を確立し, ランクや間隔の増大が小さい場合には厳格に改善する。
- 参考スコア(独自算出の注目度): 6.949116398973296
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning systems often expand their ambient features or latent representations over time, embedding earlier representations into larger spaces with limited new latent structure. We study transfer learning for structured matrix estimation under simultaneous growth of the ambient dimension and the intrinsic representation, where a well-estimated source task is embedded as a subspace of a higher-dimensional target task. We propose a general transfer framework in which the target parameter decomposes into an embedded source component, low-dimensional low-rank innovations, and sparse edits, and develop an anchored alternating projection estimator that preserves transferred subspaces while estimating only low-dimensional innovations and sparse modifications. We establish deterministic error bounds that separate target noise, representation growth, and source estimation error, yielding strictly improved rates when rank and sparsity increments are small. We demonstrate the generality of the framework by applying it to two canonical problems. For Markov transition matrix estimation from a single trajectory, we derive end-to-end theoretical guarantees under dependent noise. For structured covariance estimation under enlarged dimensions, we provide complementary theoretical analysis in the appendix and empirically validate consistent transfer gains.
- Abstract(参考訳): 学習システムは、しばしば周囲の特徴や潜在表現を時間とともに拡張し、以前の表現を新しい潜在構造に制限された大きな空間に埋め込む。
本研究では,高次元対象タスクのサブ空間として,適切に推定されたソースタスクを埋め込んだ環境次元と内在表現の同時成長下での構造化行列推定のための伝達学習について検討する。
本稿では,対象パラメータを組込みソースコンポーネント,低次元の低階イノベーション,スパース編集に分解する汎用転送フレームワークを提案する。
対象雑音, 表現成長, ソース推定誤差を分離する決定論的誤差境界を確立し, ランクや間隔の増大が小さい場合には厳格に改善する。
2つの標準問題に適用することで、フレームワークの汎用性を実証する。
マルコフ遷移行列を1つの軌道から推定するには、従属雑音の下でのエンドツーエンドの理論的保証を導出する。
拡大次元における構造的共分散推定では、付録における相補的理論解析を行い、一貫した転送利得を実証的に検証する。
関連論文リスト
- Shift Before You Learn: Enabling Low-Rank Representations in Reinforcement Learning [56.87989363424]
シフトした後継尺度において,低ランク構造が自然に現れることを示す。
有効な低ランク近似と推定に必要なシフトの量を定量化する。
論文 参考訳(メタデータ) (2025-09-05T15:48:20Z) - Beyond Progress Measures: Theoretical Insights into the Mechanism of Grokking [50.465604300990904]
グロキング(Grokking)とは、オーバーフィッティングの拡張後のテスト精度の急激な改善を指す。
本研究では、素数演算のタスクにおいて、Transformerの基盤となるグルーキング機構について検討する。
論文 参考訳(メタデータ) (2025-04-04T04:42:38Z) - Partial Transportability for Domain Generalization [56.37032680901525]
本稿では, 部分的同定と輸送可能性の理論に基づいて, 対象分布の関数値の有界化に関する新たな結果を紹介する。
我々の貢献は、輸送可能性問題に対する最初の一般的な評価手法を提供することである。
本稿では,スケーラブルな推論を実現するための勾配に基づく最適化手法を提案する。
論文 参考訳(メタデータ) (2025-03-30T22:06:37Z) - Disentangled Interleaving Variational Encoding [1.132458063021286]
本稿では,変分オートエンコーダの潜時空間において,元の入力を限界値と条件値の確率分布に分解する原理的手法を提案する。
提案モデルであるDeep Disentangled Interleaving Variationalを提案する。
コーダ(DeepDIVE)は、元の入力から切り離された特徴を学習し、埋め込み空間にクラスタを形成する。
2つの公開データセットの実験は、DeepDIVEが元の入力をアンタングルし、元のVAEよりも予測精度が良いことを示している。
論文 参考訳(メタデータ) (2025-01-15T10:50:54Z) - Uniform Transformation: Refining Latent Representation in Variational Autoencoders [7.4316292428754105]
本稿では,不規則な潜伏分布に対応するために,新しい適応型3段階一様変換(UT)モジュールを提案する。
この手法は不規則分布を潜在空間の均一分布に再構成することにより、潜在表現の絡み合いと解釈可能性を大幅に向上させる。
実験により,提案するUTモジュールの有効性を実証し,ベンチマークデータセット間の絡み合いの指標を改良した。
論文 参考訳(メタデータ) (2024-07-02T21:46:23Z) - Subspace-Guided Feature Reconstruction for Unsupervised Anomaly
Localization [5.085309164633571]
監督されていない異常なローカライゼーションは工業生産において重要な役割を担っている。
最近の手法では、事前訓練されたディープニューラルネットワークを用いて、ターゲットサンプルの特徴マッチングや再構成を行う。
本稿では,アノマライゼーションのための適応的特徴近似を追求する,新しいサブスペース誘導型特徴再構成フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-25T06:58:57Z) - A Class of Geometric Structures in Transfer Learning: Minimax Bounds and
Optimality [5.2172436904905535]
我々はソースとターゲットドメインの幾何学的構造を転写学習に活用する。
提案手法は,中等度・高次元の両方で最先端の伝達学習法より優れる。
論文 参考訳(メタデータ) (2022-02-23T18:47:53Z) - Distributionally Robust Fair Principal Components via Geodesic Descents [16.440434996206623]
大学入学、医療、信用承認などのその後の領域では、学習予測の公正性や堅牢性といった新たな基準を考慮に入れることが不可欠である。
本稿では,主成分分析のための分布的ロバストな最適化問題を提案する。
実世界のデータセットに対する実験結果から,提案手法が最先端のベースラインに対して有益であることを示す。
論文 参考訳(メタデータ) (2022-02-07T11:08:13Z) - Which Invariance Should We Transfer? A Causal Minimax Learning Approach [18.71316951734806]
本稿では、因果的観点からの包括的ミニマックス分析について述べる。
最小の最悪のリスクを持つサブセットを探索する効率的なアルゴリズムを提案する。
本手法の有効性と有効性は, 合成データとアルツハイマー病の診断で実証された。
論文 参考訳(メタデータ) (2021-07-05T09:07:29Z) - Target-Embedding Autoencoders for Supervised Representation Learning [111.07204912245841]
本稿では,対象空間が高次元な純粋教師付き環境における一般化の枠組みを解析する。
我々は、教師付き予測のための目標埋め込みオートエンコーダ(TEA)の一般的なフレームワークのモチベーションと形式化を行い、特徴とターゲットの予測の両方から予測可能なように最適化された中間潜在表現を学習する。
論文 参考訳(メタデータ) (2020-01-23T02:37:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。