論文の概要: In-Context Operator Learning on the Space of Probability Measures
- arxiv url: http://arxiv.org/abs/2601.09979v1
- Date: Thu, 15 Jan 2026 01:44:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:18.941531
- Title: In-Context Operator Learning on the Space of Probability Measures
- Title(参考訳): 確率空間におけるインコンテキスト演算子学習
- Authors: Frank Cole, Dixi Wang, Yineng Chen, Yulong Lu, Rongjie Lai,
- Abstract要約: 最適輸送のための確率測度空間上でのemphin-context演算子学習を提案する。
解演算子をパラメタライズし、スケーリング法理論を2つのシステマで開発する。
合成輸送および生成モデルベンチマークに関する数値実験により,その枠組みが検証された。
- 参考スコア(独自算出の注目度): 11.178575236157961
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce \emph{in-context operator learning on probability measure spaces} for optimal transport (OT). The goal is to learn a single solution operator that maps a pair of distributions to the OT map, using only few-shot samples from each distribution as a prompt and \emph{without} gradient updates at inference. We parameterize the solution operator and develop scaling-law theory in two regimes. In the \emph{nonparametric} setting, when tasks concentrate on a low-intrinsic-dimension manifold of source--target pairs, we establish generalization bounds that quantify how in-context accuracy scales with prompt size, intrinsic task dimension, and model capacity. In the \emph{parametric} setting (e.g., Gaussian families), we give an explicit architecture that recovers the exact OT map in context and provide finite-sample excess-risk bounds. Our numerical experiments on synthetic transports and generative-modeling benchmarks validate the framework.
- Abstract(参考訳): 最適輸送(OT)のための確率測度空間上での 'emph{in-context operator learning' を導入する。
目的は、各ディストリビューションからのサンプルをプロンプトとして使用し、推論時に\emph{without}勾配を更新することで、一対のディストリビューションをOTマップにマップする単一ソリューション演算子を学習することである。
解演算子をパラメタライズし、スケーリング法則を2つのシステマで開発する。
emph{nonparametric} 設定では、タスクがソース-ターゲット対の低内在次元多様体に集中する場合、インコンテキスト精度が即時サイズ、本質的タスク次元、モデルキャパシティとどのようにスケールするかを定量化する一般化境界を確立する。
emph{parametric} 設定(例えばガウス族)では、文脈において正確な OT 写像を復元し、有限サンプル超リスク境界を提供する明示的なアーキテクチャを与える。
合成輸送および生成モデルベンチマークに関する数値実験により,その枠組みが検証された。
関連論文リスト
- Length-Aware Adversarial Training for Variable-Length Trajectories: Digital Twins for Mall Shopper Paths [4.841565047500658]
本研究では, 時間スタンプを伴って, 訪れた場所・項目の列を列挙した, エンフェバリアブルな長さ軌跡の生成モデルについて検討する。
軌道長が非常に均一な場合、標準のミニバッチトレーニングは不安定である。
本稿では,bf length-aware sample (LAS) を提案する。
論文 参考訳(メタデータ) (2026-01-04T20:52:07Z) - Adaptive Symmetrization of the KL Divergence [10.632997610787207]
機械学習における多くのタスクは、有限個のサンプル集合が与えられた確率分布を学習するために記述または縮小することができる。
一般的なアプローチは、(経験的)データ分布とパラメータ化された分布(例えば、正規化フロー(NF)やエネルギーベースモデル(EBM)との統計的分岐を最小化することである。
論文 参考訳(メタデータ) (2025-11-14T10:41:59Z) - Neural Local Wasserstein Regression [16.52489456261937]
本研究では,予測値と応答値の両方が確率測度である分布分布分布分布回帰の推定問題について検討する。
既存のアプローチは通常、大域的最適輸送写像や接空間線型化に依存している。
ワッサーシュタイン空間の局所的に定義された輸送写像を通して回帰をモデル化するフレキシブルな非パラメトリックフレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-13T21:54:18Z) - In-Context Learning Is Provably Bayesian Inference: A Generalization Theory for Meta-Learning [51.56484100374058]
本稿では,ICLリスクをベイズギャップとポストリアバリアンスの2つのコンポーネントに分割する基本的リスク分解を導入する。
一様アテンション変換器の場合、このギャップの非漸近上界を導出し、事前学習プロンプトの数への依存を明確にする。
後方変動は本質的なタスクの不確実性を表すモデルに依存しないリスクである。
論文 参考訳(メタデータ) (2025-10-13T03:42:31Z) - MAP: Low-compute Model Merging with Amortized Pareto Fronts via Quadratic Approximation [80.47072100963017]
Amortized Pareto Front (MAP) を用いた新しい低演算アルゴリズム Model Merging を導入する。
MAPは、複数のモデルをマージするためのスケーリング係数のセットを効率的に識別し、関連するトレードオフを反映する。
また,タスク数が比較的少ないシナリオではベイジアンMAP,タスク数の多い状況ではNested MAPを導入し,計算コストを削減した。
論文 参考訳(メタデータ) (2024-06-11T17:55:25Z) - ProbVLM: Probabilistic Adapter for Frozen Vision-Language Models [69.50316788263433]
本稿では,事前学習された視覚言語モデルの埋め込みに対する確率分布を推定する確率的アダプタProbVLMを提案する。
本稿では,検索タスクにおける不確実性埋め込みのキャリブレーションを定量化し,ProbVLMが他の手法よりも優れていることを示す。
本稿では,大規模な事前学習型潜伏拡散モデルを用いて,埋め込み分布を可視化する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-07-01T18:16:06Z) - Asynchronously Trained Distributed Topographic Maps [0.0]
分散トレーニングによって特徴マップを生成するために,N$の自律ユニットを用いたアルゴリズムを提案する。
単位の自律性は、分散探索とカスケード駆動の重み更新スキームを組み合わせることで、時間と空間のスパース相互作用によって達成される。
論文 参考訳(メタデータ) (2023-01-20T01:15:56Z) - Multi-Task Learning for Sparsity Pattern Heterogeneity: Statistical and Computational Perspectives [10.514866749547558]
マルチタスク学習(MTL)において、複数の線形モデルがデータセットの集合上で協調的に訓練される問題を考える。
我々のフレームワークの重要な特徴は、回帰係数のスパーシティパターンと非ゼロ係数の値がタスク間で異なることである。
提案手法は,1) 係数のサポートを個別に促進し,2) 非ゼロ係数の値を類似させることにより,タスク間の情報共有を奨励する。
これにより、非ゼロ係数値がタスク間で異なる場合でも、モデルが可変選択中に強度を借りることができる。
論文 参考訳(メタデータ) (2022-12-16T19:52:25Z) - Learning Augmentation Distributions using Transformed Risk Minimization [47.236227685707526]
本稿では,古典的リスク最小化の拡張として,新しいemphTransformed Risk Minimization(TRM)フレームワークを提案する。
重要な応用として、与えられたクラスの予測器による分類性能を改善するために、学習強化に焦点を当てる。
論文 参考訳(メタデータ) (2021-11-16T02:07:20Z) - Making Affine Correspondences Work in Camera Geometry Computation [62.7633180470428]
局所的な特徴は、ポイント・ツー・ポイント対応ではなく、リージョン・ツー・リージョンを提供する。
本稿では,全モデル推定パイプラインにおいて,地域間マッチングを効果的に活用するためのガイドラインを提案する。
実験により、アフィンソルバはより高速な実行時にポイントベースソルバに匹敵する精度を達成できることが示された。
論文 参考訳(メタデータ) (2020-07-20T12:07:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。