論文の概要: Supervised Stochastic Gradient Algorithms for Multi-Trial Source Separation
- arxiv url: http://arxiv.org/abs/2508.20618v1
- Date: Thu, 28 Aug 2025 10:06:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-29 18:12:02.325202
- Title: Supervised Stochastic Gradient Algorithms for Multi-Trial Source Separation
- Title(参考訳): マルチTrialソース分離のための改良確率勾配アルゴリズム
- Authors: Ronak Mehta, Mateus Piovezan Otto, Noah Stanis, Azadeh Yazdan-Shahmorad, Zaid Harchaoui,
- Abstract要約: 我々は,多施設管理を取り入れた独立成分分析アルゴリズムを開発した。
特に、追加の監督により、成功率の高い合成非可逆モデルについて説明する。
- 参考スコア(独自算出の注目度): 5.293822775122167
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We develop a stochastic algorithm for independent component analysis that incorporates multi-trial supervision, which is available in many scientific contexts. The method blends a proximal gradient-type algorithm in the space of invertible matrices with joint learning of a prediction model through backpropagation. We illustrate the proposed algorithm on synthetic and real data experiments. In particular, owing to the additional supervision, we observe an increased success rate of the non-convex optimization and the improved interpretability of the independent components.
- Abstract(参考訳): 我々は,様々な科学的文脈で利用可能な,多施設の監督を取り入れた独立成分分析のための確率的アルゴリズムを開発した。
この手法は,逆伝播による予測モデルの連成学習と,可逆行列空間における近似勾配型アルゴリズムをブレンドする。
本稿では,合成および実データ実験における提案アルゴリズムについて述べる。
特に、追加の監督により、非凸最適化の成功率の増加と独立成分の解釈可能性の向上が観察される。
関連論文リスト
- A Hierarchical Federated Learning Approach for the Internet of Things [3.28418927821443]
大規模IoTデプロイメントに適した新しいフェデレーション学習ソリューションQHetFedを提案する。
我々は,QHetFedが常に高い学習精度を達成し,他の階層的アルゴリズムよりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2024-03-03T15:40:24Z) - Spectral Decomposition Representation for Reinforcement Learning [100.0424588013549]
本稿では, スペクトル分解表現法(SPEDER)を提案する。この手法は, データ収集ポリシーに急激な依存を生じさせることなく, ダイナミックスから状態-作用の抽象化を抽出する。
理論的解析により、オンライン設定とオフライン設定の両方において提案アルゴリズムのサンプル効率が確立される。
実験により、いくつかのベンチマークで現在の最先端アルゴリズムよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-08-19T19:01:30Z) - Amortized Implicit Differentiation for Stochastic Bilevel Optimization [53.12363770169761]
決定論的条件と決定論的条件の両方において、二段階最適化問題を解決するアルゴリズムのクラスについて検討する。
厳密な勾配の推定を補正するために、ウォームスタート戦略を利用する。
このフレームワークを用いることで、これらのアルゴリズムは勾配の偏りのない推定値にアクセス可能な手法の計算複雑性と一致することを示す。
論文 参考訳(メタデータ) (2021-11-29T15:10:09Z) - A Stochastic Newton Algorithm for Distributed Convex Optimization [62.20732134991661]
均質な分散凸最適化のためのNewtonアルゴリズムを解析し、各マシンが同じ人口目標の勾配を計算する。
提案手法は,既存の手法と比較して,性能を損なうことなく,必要な通信ラウンドの数,頻度を低減できることを示す。
論文 参考訳(メタデータ) (2021-10-07T17:51:10Z) - Harnessing Heterogeneity: Learning from Decomposed Feedback in Bayesian
Modeling [68.69431580852535]
サブグループフィードバックを取り入れた新しいGPレグレッションを導入する。
我々の修正された回帰は、以前のアプローチと比べて、明らかにばらつきを減らし、したがってより正確な後続を減らした。
我々は2つの異なる社会問題に対してアルゴリズムを実行する。
論文 参考訳(メタデータ) (2021-07-07T03:57:22Z) - A probabilistic deep learning approach to automate the interpretation of
multi-phase diffraction spectra [4.240899165468488]
シミュレーション回折スペクトルで訓練されたアンサンブル畳み込みニューラルネットワークを開発し、複素多相混合を同定する。
シミュレーションおよび実験的に測定された回折スペクトルをベンチマークし, これまでに報告した手法よりも精度が優れていることを示す。
論文 参考訳(メタデータ) (2021-03-30T20:13:01Z) - Nonlinear Independent Component Analysis for Continuous-Time Signals [85.59763606620938]
このプロセスの混合物の観察から多次元音源過程を復元する古典的問題を考察する。
このリカバリは、この混合物が十分に微分可能で可逆な関数によって与えられる場合、多くの一般的なプロセスのモデル(座標の順序と単調スケーリングまで)に対して可能であることを示す。
論文 参考訳(メタデータ) (2021-02-04T20:28:44Z) - Distributed Stochastic Nonconvex Optimization and Learning based on
Successive Convex Approximation [26.11677569331688]
本稿では,ネットワーク内のエージェントの総和の分散アルゴリズム最小化のための新しいフレームワークを提案する。
提案手法は分散ニューラルネットワークに適用可能であることを示す。
論文 参考訳(メタデータ) (2020-04-30T15:36:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。