論文の概要: MELCOT: A Hybrid Learning Architecture with Marginal Preservation for Matrix-Valued Regression
- arxiv url: http://arxiv.org/abs/2509.23315v1
- Date: Sat, 27 Sep 2025 14:02:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.153381
- Title: MELCOT: A Hybrid Learning Architecture with Marginal Preservation for Matrix-Valued Regression
- Title(参考訳): MELCOT: 行列値回帰のためのMarginal Preservationを用いたハイブリッド学習アーキテクチャ
- Authors: Khang Tran, Hieu Cao, Thinh Pham, Nghiem Diep, Tri Cao, Binh Nguyen,
- Abstract要約: 本稿では,従来の機械学習に基づくMarginal Estimation(ME)ブロックと,ディープラーニングに基づくLearningable-Cost Optimal Transport(LCOT)ブロックを統合するハイブリッドモデルMELCOTを提案する。
多様なデータセットやドメインにわたる実験では、MELCOTは高い効率を維持しながら、すべてのベースラインを一貫して上回る。
- 参考スコア(独自算出の注目度): 6.65814713637932
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Regression is essential across many domains but remains challenging in high-dimensional settings, where existing methods often lose spatial structure or demand heavy storage. In this work, we address the problem of matrix-valued regression, where each sample is naturally represented as a matrix. We propose MELCOT, a hybrid model that integrates a classical machine learning-based Marginal Estimation (ME) block with a deep learning-based Learnable-Cost Optimal Transport (LCOT) block. The ME block estimates data marginals to preserve spatial information, while the LCOT block learns complex global features. This design enables MELCOT to inherit the strengths of both classical and deep learning methods. Extensive experiments across diverse datasets and domains demonstrate that MELCOT consistently outperforms all baselines while remaining highly efficient.
- Abstract(参考訳): 回帰は、多くのドメインで必須であるが、既存のメソッドが空間構造を失う場合や重いストレージを必要とする場合、高次元の設定では依然として困難である。
本研究では,各サンプルが行列として自然に表現される行列値回帰の問題に対処する。
本稿では,従来の機械学習に基づくMarginal Estimation(ME)ブロックと,ディープラーニングに基づくLearningable-Cost Optimal Transport(LCOT)ブロックを統合するハイブリッドモデルMELCOTを提案する。
MEブロックは空間情報を保存するためにデータ限界を推定し、LCOTブロックは複雑なグローバルな特徴を学習する。
この設計により、MELCOTは古典的および深層学習法の長所を継承することができる。
多様なデータセットやドメインにわたる大規模な実験は、MELCOTが高い効率を維持しながら、すべてのベースラインを一貫して上回ることを示した。
関連論文リスト
- Efficient Machine Unlearning via Influence Approximation [75.31015485113993]
インフルエンサーベースのアンラーニングは、個別のトレーニングサンプルがモデルパラメータに与える影響を再トレーニングせずに推定する顕著なアプローチとして現れてきた。
本稿では,暗記(増分学習)と忘れ(未学習)の理論的関連性を確立する。
本稿では、インフルエンス近似アンラーニングアルゴリズムを導入し、インクリメンタルな視点から効率的なマシンアンラーニングを行う。
論文 参考訳(メタデータ) (2025-07-31T05:34:27Z) - Dynamic Acoustic Model Architecture Optimization in Training for ASR [51.21112094223223]
DMAOは、Grow-and-drop戦略を使用して、トレーニング中にパラメータを自動的に再配置するアーキテクチャ最適化フレームワークである。
CTC onSpeech, TED-Lium-v2, Switchboard を用いてDMAOの評価を行った。
論文 参考訳(メタデータ) (2025-06-16T07:47:34Z) - Benchmarking Federated Machine Unlearning methods for Tabular Data [9.30408906787193]
マシンアンラーニングにより、モデルは要求時に特定のデータを忘れることができる。
本稿では,フェデレートされた環境での機械学習手法のベンチマークに関する先駆的な研究について述べる。
機械学習、ランダムフォレスト、ロジスティック回帰モデルの両方を用いて、この機能とインスタンスレベルでのアンラーニングについて検討する。
論文 参考訳(メタデータ) (2025-04-01T15:53:36Z) - A Linearized Alternating Direction Multiplier Method for Federated Matrix Completion Problems [2.2217927229805032]
マトリックス補完は、パーソナライズされた医療、電子商取引、レコメンデーションシステム、ソーシャルネットワーク分析における幅広い応用で欠落したデータを予測するための基本となる。
伝統的な行列補完アプローチは典型的には集中型データストレージを前提としている。
フェデレートされた行列補完問題の解法としてtextttFedMC-ADMM を提案する。
論文 参考訳(メタデータ) (2025-03-17T01:57:06Z) - Minimally Supervised Learning using Topological Projections in
Self-Organizing Maps [55.31182147885694]
自己組織化マップ(SOM)におけるトポロジカルプロジェクションに基づく半教師付き学習手法を提案する。
提案手法は,まずラベル付きデータ上でSOMを訓練し,最小限のラベル付きデータポイントをキーベストマッチングユニット(BMU)に割り当てる。
提案した最小教師付きモデルが従来の回帰手法を大幅に上回ることを示す。
論文 参考訳(メタデータ) (2024-01-12T22:51:48Z) - Large-Scale OD Matrix Estimation with A Deep Learning Method [70.78575952309023]
提案手法は,ディープラーニングと数値最適化アルゴリズムを統合し,行列構造を推論し,数値最適化を導出する。
大規模合成データセットを用いて,提案手法の優れた一般化性能を実証するために実験を行った。
論文 参考訳(メタデータ) (2023-10-09T14:30:06Z) - Federated Empirical Risk Minimization via Second-Order Method [18.548661105227488]
連合学習環境下での一般的な経験的リスク最小化問題を解決するためのインテリアポイント法(IPM)を提案する。
IPMの各イテレーションの通信複雑性は$tildeO(d3/2)$であり、$d$はデータセットの次元(つまり、多くの機能)である。
論文 参考訳(メタデータ) (2023-05-27T14:23:14Z) - Solving weakly supervised regression problem using low-rank manifold
regularization [77.34726150561087]
我々は弱い教師付き回帰問題を解く。
weakly"の下では、いくつかのトレーニングポイントではラベルが知られ、未知のものもあれば、無作為なノイズの存在やリソースの欠如などの理由によって不確かであることが分かっています。
数値的な節ではモンテカルロモデルを用いて提案手法を人工と実のデータセットに適用した。
論文 参考訳(メタデータ) (2021-04-13T23:21:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。