論文の概要: Covariance-Generalized Matching Component Analysis for Data Fusion and
Transfer Learning
- arxiv url: http://arxiv.org/abs/2110.13194v1
- Date: Mon, 25 Oct 2021 18:20:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-27 16:07:29.466882
- Title: Covariance-Generalized Matching Component Analysis for Data Fusion and
Transfer Learning
- Title(参考訳): データ融合と転送学習のための共分散一般化マッチング成分分析
- Authors: Nick Lorenzo, Sean O'Rourke, Theresa Scarnati
- Abstract要約: マッチング成分分析(MCA)伝達学習技術のための一般化共分散制約を導入する。
私たちはこのテクニックを、データ融合とトランスファーラーニングの両方に適用可能な、共一般化MCA(CGMCA)と呼んでいる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In order to allow for the encoding of additional statistical information in
data fusion and transfer learning applications, we introduce a generalized
covariance constraint for the matching component analysis (MCA) transfer
learning technique. After proving a semi-orthogonally constrained trace
maximization lemma, we develop a closed-form solution to the resulting
covariance-generalized optimization problem and provide an algorithm for its
computation. We call this technique -- applicable to both data fusion and
transfer learning -- covariance-generalized MCA (CGMCA).
- Abstract(参考訳): データ融合および転送学習アプリケーションにおける追加統計情報の符号化を可能にするため、マッチング成分分析(MCA)転送学習技術のための一般化共分散制約を導入する。
半直交制約付きトレース最大化補題を証明した後、結果の共分散一般化最適化問題に対する閉形式解を開発し、その計算のためのアルゴリズムを提供する。
データ融合と転送学習の両方に適用可能な、共分散一般化MCA(CGMCA)と呼ぶ。
関連論文リスト
- Boosting the Performance of Decentralized Federated Learning via Catalyst Acceleration [66.43954501171292]
本稿では,Catalytics Accelerationを導入し,DFedCataと呼ばれる促進型分散フェデレート学習アルゴリズムを提案する。
DFedCataは、パラメータの不整合に対処するMoreauエンベロープ関数と、アグリゲーションフェーズを加速するNesterovの外挿ステップの2つの主要コンポーネントで構成されている。
実験により, CIFAR10/100における収束速度と一般化性能の両面において, 提案アルゴリズムの利点を実証した。
論文 参考訳(メタデータ) (2024-10-09T06:17:16Z) - New Solutions Based on the Generalized Eigenvalue Problem for the Data Collaboration Analysis [10.58933333850352]
データコラボレーション分析(Data Collaboration Analysis, DCA)は、計算コストと通信負荷の点で効率が良くなっている。
必要な協調機能を決定するための既存の最適化問題は、課題に直面している。
本研究では,行列を列ベクトルに分割することで最適化問題を定式化する。
論文 参考訳(メタデータ) (2024-04-22T13:26:42Z) - Quantized Hierarchical Federated Learning: A Robust Approach to
Statistical Heterogeneity [3.8798345704175534]
本稿では,コミュニケーション効率に量子化を組み込んだ新しい階層型フェデレーション学習アルゴリズムを提案する。
最適性ギャップと収束率を評価するための包括的な分析フレームワークを提供する。
この結果から,本アルゴリズムはパラメータの範囲で常に高い学習精度を達成できることが判明した。
論文 参考訳(メタデータ) (2024-03-03T15:40:24Z) - Distributed Linear Regression with Compositional Covariates [5.085889377571319]
大規模合成データにおける分散スパースペナル化線形ログコントラストモデルに着目する。
2つの異なる制約凸最適化問題を解くために2つの分散最適化手法を提案する。
分散化されたトポロジでは、通信効率の高い正規化推定値を得るための分散座標ワイド降下アルゴリズムを導入する。
論文 参考訳(メタデータ) (2023-10-21T11:09:37Z) - Sample-Efficient Multi-Agent RL: An Optimization Perspective [103.35353196535544]
一般関数近似に基づく汎用マルコフゲーム(MG)のためのマルチエージェント強化学習(MARL)について検討した。
汎用MGに対するマルチエージェントデカップリング係数(MADC)と呼ばれる新しい複雑性尺度を導入する。
我々のアルゴリズムは既存の研究に匹敵するサブリニアな後悔を与えることを示す。
論文 参考訳(メタデータ) (2023-10-10T01:39:04Z) - Federated Conditional Stochastic Optimization [110.513884892319]
条件付き最適化は、不変学習タスク、AUPRC、AMLなど、幅広い機械学習タスクで見られる。
本稿では,分散フェデレーション学習のためのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-04T01:47:37Z) - CORE: Common Random Reconstruction for Distributed Optimization with
Provable Low Communication Complexity [110.50364486645852]
コミュニケーションの複雑さは、トレーニングをスピードアップし、マシン番号をスケールアップする上で、大きなボトルネックになっています。
本稿では,機械間で送信される情報を圧縮するための共通Om REOmを提案する。
論文 参考訳(メタデータ) (2023-09-23T08:45:27Z) - Linearization Algorithms for Fully Composite Optimization [61.20539085730636]
本稿では,完全合成最適化問題を凸コンパクト集合で解くための一階アルゴリズムについて検討する。
微分可能および非微分可能を別々に扱い、滑らかな部分のみを線形化することで目的の構造を利用する。
論文 参考訳(メタデータ) (2023-02-24T18:41:48Z) - Star-Graph Multimodal Matching Component Analysis for Data Fusion and
Transfer Learning [0.0]
本稿では,ある特定のデータドメインが目的関数を介して$m$の他のデータドメインに接続されるスターグラフ・マルチモーダル(SGM)のケースに一致する成分分析手法を拡張した。
トレーニングポイントが少ない場合、SGMはMCAよりも多くの情報を地図にエンコードできることを示す。
論文 参考訳(メタデータ) (2022-10-05T22:39:34Z) - Model Fusion with Kullback--Leibler Divergence [58.20269014662046]
異種データセットから学習した後続分布を融合する手法を提案する。
我々のアルゴリズムは、融合モデルと個々のデータセット後部の両方に対する平均場仮定に依存している。
論文 参考訳(メタデータ) (2020-07-13T03:27:45Z) - Federated Learning with Compression: Unified Analysis and Sharp
Guarantees [39.092596142018195]
通信コストは、数百万のデバイスからモデルを学ぶために分散最適化アルゴリズムをスケールアップする上で、重要なボトルネックとなることが多い。
フェデレーション圧縮と計算の通信オーバーヘッドに対処する2つの顕著な傾向は、信頼できない圧縮と不均一な通信である。
等質データと異質データの両方における収束度を解析する。
論文 参考訳(メタデータ) (2020-07-02T14:44:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。