論文の概要: Learning in Function Spaces: An Unified Functional Analytic View of Supervised and Unsupervised Learning
- arxiv url: http://arxiv.org/abs/2603.14272v1
- Date: Sun, 15 Mar 2026 08:06:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.713563
- Title: Learning in Function Spaces: An Unified Functional Analytic View of Supervised and Unsupervised Learning
- Title(参考訳): 関数空間における学習 : 教師付き・教師なし学習の統一的機能解析的視点
- Authors: K. Lakshmanan,
- Abstract要約: 多くの機械学習アルゴリズムは、データ分布で定義された関数を推定するための手順として解釈することができる。
データ分散によって誘導される関数空間に対する変動最適化として、幅広い学習問題を定式化する概念的枠組みを提案する。
- 参考スコア(独自算出の注目度): 1.4637008301481798
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many machine learning algorithms can be interpreted as procedures for estimating functions defined on the data distribution. In this paper we present a conceptual framework that formulates a wide range of learning problems as variational optimization over function spaces induced by the data distribution. Within this framework the data distribution defines operators that capture structural properties of the data, such as similarity relations or statistical dependencies. Learning algorithms can then be viewed as estimating functions expressed in bases determined by these operators. This perspective provides a unified way to interpret several learning paradigms. In supervised learning the objective functional is defined using labeled data and typically corresponds to minimizing prediction risk, whereas unsupervised learning relies on structural properties of the input distribution and leads to objectives based on similarity or smoothness constraints. From this viewpoint, the distinction between learning paradigms arises primarily from the choice of the functional being optimized rather than from the underlying function space. We illustrate this framework by discussing connections with kernel methods, spectral clustering, and manifold learning, highlighting how operators induced by data distributions naturally define function representations used by learning algorithms. The goal of this work is not to introduce a new algorithm but to provide a conceptual framework that clarifies the role of function spaces and operators in modern machine learning.
- Abstract(参考訳): 多くの機械学習アルゴリズムは、データ分布で定義された関数を推定するための手順として解釈することができる。
本稿では,データ分散によって誘導される関数空間に対する変動最適化として,幅広い学習問題を定式化する概念的枠組みを提案する。
このフレームワーク内で、データ分散は、類似性関係や統計的依存関係など、データの構造特性をキャプチャする演算子を定義する。
学習アルゴリズムは、これらの演算子によって決定される基底で表現される関数を推定することができる。
この観点は、複数の学習パラダイムを解釈する統一的な方法を提供する。
教師なし学習では、客観的関数はラベル付きデータを用いて定義され、典型的には予測リスクの最小化に対応するが、教師なし学習は入力分布の構造的特性に依存し、類似性や滑らかさの制約に基づいて目的に導かれる。
この観点から、学習パラダイムの区別は主に、基礎となる関数空間からではなく、最適化された関数の選択から生じる。
データ分散によって誘導される演算子がどのように自然に関数表現を定義するのかを強調して、カーネル手法、スペクトルクラスタリング、多様体学習との関係を論じる。
この研究の目的は、新しいアルゴリズムを導入することではなく、現代的な機械学習における関数空間と演算子の役割を明らかにする概念的なフレームワークを提供することである。
関連論文リスト
- Operator learning meets inverse problems: A probabilistic perspective [5.311997112925023]
演算子学習は無限次元関数空間間の写像を近似するための堅牢なフレームワークを提供する。
本章では、演算子学習と逆問題との交点における発展について調査する。
論文 参考訳(メタデータ) (2025-08-27T18:34:40Z) - Neural Feature Learning in Function Space [5.807950618412389]
本稿では,ニューラル特徴抽出器を用いたシステム設計学習フレームワークを提案する。
内部積を備えた関数空間における統計的依存と特徴表現を統一する特徴幾何学を導入する。
データサンプルから最適な特徴を学習するための体系的なアルゴリズム設計を提供するネスト手法を提案する。
論文 参考訳(メタデータ) (2023-09-18T20:39:12Z) - An Entropy-Based Model for Hierarchical Learning [3.1473798197405944]
実世界のデータセットに共通する特徴は、データドメインがマルチスケールであることである。
本稿では,このマルチスケールデータ構造を利用した学習モデルを提案する。
階層的な学習モデルは、人間の論理的かつ進歩的な学習メカニズムにインスパイアされている。
論文 参考訳(メタデータ) (2022-12-30T13:14:46Z) - Offline Reinforcement Learning with Differentiable Function
Approximation is Provably Efficient [65.08966446962845]
歴史的データを用いて意思決定戦略を最適化することを目的としたオフライン強化学習は、現実の応用に広く適用されている。
微分関数クラス近似(DFA)を用いたオフライン強化学習の検討から一歩踏み出した。
最も重要なことは、悲観的な適合Q-ラーニングアルゴリズムを解析することにより、オフライン微分関数近似が有効であることを示すことである。
論文 参考訳(メタデータ) (2022-10-03T07:59:42Z) - Invariant Causal Mechanisms through Distribution Matching [86.07327840293894]
本研究では、因果的視点と不変表現を学習するための新しいアルゴリズムを提供する。
実験により,このアルゴリズムは様々なタスク群でうまく動作し,特にドメインの一般化における最先端のパフォーマンスを観察する。
論文 参考訳(メタデータ) (2022-06-23T12:06:54Z) - Stabilizing Q-learning with Linear Architectures for Provably Efficient
Learning [53.17258888552998]
本研究では,線形関数近似を用いた基本的な$Q$-learningプロトコルの探索変種を提案する。
このアルゴリズムの性能は,新しい近似誤差というより寛容な概念の下で,非常に優雅に低下することを示す。
論文 参考訳(メタデータ) (2022-06-01T23:26:51Z) - Learning Operators with Coupled Attention [9.715465024071333]
本稿では,近年の注目機構の成功を動機とした,新しい演算子学習手法であるLOCAを提案する。
我々のアーキテクチャでは、入力関数は有限個の特徴にマッピングされ、その特徴は出力クエリの場所に依存する注意重みで平均化される。
これらの注意重みを積分変換と組み合わせることで、LOCAは目標出力関数の相関関係を明示的に学習することができる。
論文 参考訳(メタデータ) (2022-01-04T08:22:03Z) - A geometric perspective on functional outlier detection [0.0]
これまでに提案したよりも広く適用可能で現実的な機能外乱検出の概念を考案する。
本研究では,関数型データセットの幾何学的構造を確実に推論し,可視化するために,単純な多様体学習法が利用できることを示す。
合成および実データ集合に関する実験により、本手法は、少なくとも既存の関数型データ固有手法と同程度に、外乱検出性能をもたらすことを示した。
論文 参考訳(メタデータ) (2021-09-14T17:42:57Z) - Learning outside the Black-Box: The pursuit of interpretable models [78.32475359554395]
本稿では,任意の連続ブラックボックス関数の連続的大域的解釈を生成するアルゴリズムを提案する。
我々の解釈は、その芸術の以前の状態から飛躍的な進歩を表している。
論文 参考訳(メタデータ) (2020-11-17T12:39:44Z) - Estimating Structural Target Functions using Machine Learning and
Influence Functions [103.47897241856603]
統計モデルから特定可能な関数として生じる対象関数の統計的機械学習のための新しい枠組みを提案する。
このフレームワークは問題とモデルに依存しないものであり、応用統計学における幅広い対象パラメータを推定するのに使用できる。
我々は、部分的に観測されていない情報を持つランダム/二重ロバストな問題において、いわゆる粗大化に特に焦点をあてた。
論文 参考訳(メタデータ) (2020-08-14T16:48:29Z) - Explaining Black Box Predictions and Unveiling Data Artifacts through
Influence Functions [55.660255727031725]
影響関数は、影響力のあるトレーニング例を特定することによって、モデルの判断を説明する。
本稿では,代表課題における影響関数と共通単語順応法の比較を行う。
我々は,学習データ中の成果物を明らかにすることができる影響関数に基づく新しい尺度を開発した。
論文 参考訳(メタデータ) (2020-05-14T00:45:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。