論文の概要: Cross-Learning from Scarce Data via Multi-Task Constrained Optimization
- arxiv url: http://arxiv.org/abs/2511.13680v1
- Date: Mon, 17 Nov 2025 18:35:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 18:52:09.675942
- Title: Cross-Learning from Scarce Data via Multi-Task Constrained Optimization
- Title(参考訳): マルチタスク制約最適化によるスカースデータからのクロスラーニング
- Authors: Leopoldo Agorio, Juan Cerviño, Miguel Calvo-Fullana, Alejandro Ribeiro, Juan Andrés Bazerque,
- Abstract要約: 本稿では,データ不足を克服するマルチタスク・エンフクロス学習フレームワークを提案する。
我々はこの結合推定を制約付き最適化問題として定式化する。
本研究では, 画像分類や伝染病の伝播を含む実データを用いて, クロスラーニング手法の有効性を示す。
- 参考スコア(独自算出の注目度): 70.90607489166648
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A learning task, understood as the problem of fitting a parametric model from supervised data, fundamentally requires the dataset to be large enough to be representative of the underlying distribution of the source. When data is limited, the learned models fail generalize to cases not seen during training. This paper introduces a multi-task \emph{cross-learning} framework to overcome data scarcity by jointly estimating \emph{deterministic} parameters across multiple, related tasks. We formulate this joint estimation as a constrained optimization problem, where the constraints dictate the resulting similarity between the parameters of the different models, allowing the estimated parameters to differ across tasks while still combining information from multiple data sources. This framework enables knowledge transfer from tasks with abundant data to those with scarce data, leading to more accurate and reliable parameter estimates, providing a solution for scenarios where parameter inference from limited data is critical. We provide theoretical guarantees in a controlled framework with Gaussian data, and show the efficiency of our cross-learning method in applications with real data including image classification and propagation of infectious diseases.
- Abstract(参考訳): 学習タスクは、教師付きデータからパラメトリックモデルを適合させる問題として理解されており、基本的には、ソースの基盤となる分布を表すのに十分な大きさのデータセットを必要とする。
データが制限された場合、学習されたモデルは、トレーニング中に見えないケースに一般化されない。
本稿では,複数の関連するタスクにまたがるパラメータを共同で推定することにより,データの不足を克服するマルチタスク \emph{cross-learning} フレームワークを提案する。
我々は,この共同推定を制約付き最適化問題として定式化し,制約が異なるモデルのパラメータ間の結果の類似性を規定し,複数のデータソースからの情報を組み合わせて推定されたパラメータをタスク間で異なるものにする。
このフレームワークは、豊富なデータを持つタスクから、少ないデータを持つタスクへの知識伝達を可能にし、より正確で信頼性の高いパラメータ推定をもたらし、限られたデータからのパラメータ推論が重要となるシナリオに対するソリューションを提供する。
我々は,ガウスデータを用いた制御フレームワークにおける理論的保証を提供し,画像分類や伝染病の伝播を含む実データを用いたアプリケーションにおけるクロスラーニング手法の有効性を示す。
関連論文リスト
- Federated Online Learning for Heterogeneous Multisource Streaming Data [0.0]
フェデレートラーニングは、プライバシの懸念の下で分散マルチソースデータ分析に不可欠なパラダイムとして登場した。
本稿では,分散マルチソースストリーミングデータ解析のためのFOL手法を提案する。
論文 参考訳(メタデータ) (2025-08-08T19:08:53Z) - Late Fusion Multi-task Learning for Semiparametric Inference with Nuisance Parameters [2.6217304977339473]
半パラメトリックモデルを用いたマルチタスク学習のための遅延融合フレームワークを提案する。
複数のデータソースにまたがる不均一な処理効果推定などの応用に着目する。
ニュアンスパラメータ推定のための新しいマルチタスク学習法を提案する。
論文 参考訳(メタデータ) (2025-07-10T17:27:04Z) - Meta-Statistical Learning: Supervised Learning of Statistical Inference [59.463430294611626]
この研究は、大きな言語モデル(LLM)の成功を駆動するツールと原則が、分散レベルのタスクに取り組むために再利用可能であることを実証している。
本稿では,統計的推論タスクを教師付き学習問題として再構成するマルチインスタンス学習に触発されたメタ統計学習を提案する。
論文 参考訳(メタデータ) (2025-02-17T18:04:39Z) - Empowering Large Language Models in Wireless Communication: A Novel Dataset and Fine-Tuning Framework [81.29965270493238]
我々は,無線通信アプリケーションのための大規模言語モデル(LLM)の評価と微調整を目的とした,特殊なデータセットを開発した。
データセットには、真/偽と複数選択型を含む、さまざまなマルチホップ質問が含まれている。
本稿では,PVI(Pointwise V-Information)に基づく微調整手法を提案する。
論文 参考訳(メタデータ) (2025-01-16T16:19:53Z) - Optimize Incompatible Parameters through Compatibility-aware Knowledge Integration [104.52015641099828]
既存の研究は、そのようなパラメータを除去したり、複数の異なる事前訓練されたモデルの出力をマージすることに長けている。
本稿では,Deep AssessmentとDeep SplicingからなるCompatibility-Aware Knowledge Integration (CKI)を提案する。
統合モデルは推論やさらなる微調整に直接使用することができる。
論文 参考訳(メタデータ) (2025-01-10T01:42:43Z) - Improving Transferability for Cross-domain Trajectory Prediction via
Neural Stochastic Differential Equation [41.09061877498741]
外部要因とデータ取得戦略によるデータセット間での相違がある。
大規模データセットでトレーニングされたモデルの熟練した性能は、他の小規模データセットでの転送可能性に制限がある。
本稿では,ニューラル微分方程式(NSDE)の連続的利用に基づく不一致の緩和手法を提案する。
提案手法の有効性は,一般的なベンチマークデータセットであるnuScenes,Argoverse,Lyft,InterinterAction,Open Motionデータセット上で,最先端の軌道予測モデルに対して検証される。
論文 参考訳(メタデータ) (2023-12-26T06:50:29Z) - Multi-Task Learning with Summary Statistics [4.871473117968554]
様々な情報源からの要約統計を利用した柔軟なマルチタスク学習フレームワークを提案する。
また,Lepskiの手法の変種に基づく適応パラメータ選択手法を提案する。
この研究は、さまざまな領域にわたる関連するモデルをトレーニングするための、より柔軟なツールを提供する。
論文 参考訳(メタデータ) (2023-07-05T15:55:23Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。