論文の概要: Local transfer learning from one data space to another
- arxiv url: http://arxiv.org/abs/2302.00160v1
- Date: Wed, 1 Feb 2023 00:46:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-02 13:42:54.778425
- Title: Local transfer learning from one data space to another
- Title(参考訳): あるデータ空間から別のデータ空間への局所転送学習
- Authors: H. N. Mhaskar and Ryan O'Dowd
- Abstract要約: 1つのデータ空間上の関数をもう1つのデータ空間に持ち上げることで、新しいデータセット上の関数を近似することができることを示す。
我々は、リフトが定義できる対象データ空間のサブセットを決定することに興味を持ち、関数の局所的滑らかさとそのリフトの関連性について述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A fundamental problem in manifold learning is to approximate a functional
relationship in a data chosen randomly from a probability distribution
supported on a low dimensional sub-manifold of a high dimensional ambient
Euclidean space. The manifold is essentially defined by the data set itself
and, typically, designed so that the data is dense on the manifold in some
sense. The notion of a data space is an abstraction of a manifold encapsulating
the essential properties that allow for function approximation. The problem of
transfer learning (meta-learning) is to use the learning of a function on one
data set to learn a similar function on a new data set. In terms of function
approximation, this means lifting a function on one data space (the base data
space) to another (the target data space). This viewpoint enables us to connect
some inverse problems in applied mathematics (such as inverse Radon transform)
with transfer learning. In this paper we examine the question of such lifting
when the data is assumed to be known only on a part of the base data space. We
are interested in determining subsets of the target data space on which the
lifting can be defined, and how the local smoothness of the function and its
lifting are related.
- Abstract(参考訳): 多様体学習の基本的な問題は、高次元ユークリッド空間の低次元部分多様体上で支持される確率分布からランダムに選択されたデータの関数関係を近似することである。
多様体は本質的にデータセット自身で定義され、典型的には、データがある意味で多様体に密着するように設計される。
データ空間の概念は、関数近似を可能にする本質的性質をカプセル化した多様体の抽象である。
転送学習(meta-learning)の問題は、あるデータセット上の関数の学習を使用して、新しいデータセットで同様の関数を学習することだ。
関数近似の観点では、これはあるデータ空間(ベースデータ空間)から別のデータ空間(対象データ空間)へ関数を持ち上げることを意味する。
この観点から、応用数学における逆問題(逆ラドン変換など)と転移学習を結びつけることができる。
本稿では,データをベースデータ空間の一部でのみ知っていると仮定した場合に,そのようなリフティングの問題を考察する。
我々は、リフトが定義できる対象データ空間のサブセットを決定することに興味を持ち、関数の局所的滑らかさとそのリフトの関連性について述べる。
関連論文リスト
- Symmetry Discovery for Different Data Types [52.2614860099811]
等価ニューラルネットワークは、そのアーキテクチャに対称性を取り入れ、より高度な一般化性能を実現する。
本稿では,タスクの入出力マッピングを近似したトレーニングニューラルネットワークによる対称性発見手法であるLieSDを提案する。
我々は,2体問題,慣性行列予測のモーメント,トップクォークタグ付けといった課題におけるLieSDの性能を検証した。
論文 参考訳(メタデータ) (2024-10-13T13:39:39Z) - Manifold Learning via Foliations and Knowledge Transfer [0.0]
分類器として訓練された深部ReLUニューラルネットワークを用いたデータ空間上の自然な幾何学的構造を提供する。
そのような葉の特異点が測度ゼロ集合に含まれており、局所正則葉は至る所に存在することを示す。
実験により、データは葉の葉と相関していることが示された。
論文 参考訳(メタデータ) (2024-09-11T16:53:53Z) - Learning on manifolds without manifold learning [0.0]
未知分布からランダムに描画されたデータに基づく関数近似は、機械学習において重要な問題である。
本稿では,未知多様体を部分多様体の周囲超球面として投影し,超球面上に特別に設計されたカーネルを用いてワンショット近似を構築する問題について考察する。
論文 参考訳(メタデータ) (2024-02-20T03:27:53Z) - Improving embedding of graphs with missing data by soft manifolds [51.425411400683565]
グラフ埋め込みの信頼性は、連続空間の幾何がグラフ構造とどの程度一致しているかに依存する。
我々は、この問題を解決することができる、ソフト多様体と呼ばれる新しい多様体のクラスを導入する。
グラフ埋め込みにソフト多様体を用いることで、複雑なデータセット上のデータ解析における任意のタスクを追求するための連続空間を提供できる。
論文 参考訳(メタデータ) (2023-11-29T12:48:33Z) - FATE: Feature-Agnostic Transformer-based Encoder for learning
generalized embedding spaces in flow cytometry data [4.550634499956126]
我々は,潜在的な特徴集合の交わりに入力空間を拘束することなく,様々な特徴を持つデータを有効に活用することを目的としている。
特徴量の整合を必要とせずに直接データを処理できる新しいアーキテクチャを提案する。
本モデルの利点は, 急性骨髄性白血病の血流データにおける癌細胞の自動検出である。
論文 参考訳(メタデータ) (2023-11-06T18:06:38Z) - Towards a mathematical understanding of learning from few examples with
nonlinear feature maps [68.8204255655161]
トレーニングセットがわずか数個のデータポイントから構成されるデータ分類の問題を考える。
我々は、AIモデルの特徴空間の幾何学、基礎となるデータ分布の構造、モデルの一般化能力との間の重要な関係を明らかにする。
論文 参考訳(メタデータ) (2022-11-07T14:52:58Z) - Diversify and Disambiguate: Learning From Underspecified Data [76.67228314592904]
DivDisは、テストディストリビューションからラベルのないデータを活用することで、タスクに対するさまざまな仮説のコレクションを学ぶフレームワークである。
我々はDivDisが画像分類や自然言語処理問題において頑健な特徴を用いた仮説を見つける能力を示す。
論文 参考訳(メタデータ) (2022-02-07T18:59:06Z) - Uniform-in-Phase-Space Data Selection with Iterative Normalizing Flows [0.0]
データの位相空間を均一に分散するようにデータポイントを選択する戦略が提案されている。
データセットの小さなサブセットのみを使用して確率マップを構築する場合、レアデータポイントの確率を正確に推定するために反復法が用いられる。
提案フレームワークは、豊富なデータが利用可能であれば、データ効率のよい機械学習を可能にするための実行可能な経路として実証されている。
論文 参考訳(メタデータ) (2021-12-28T20:06:28Z) - Multilevel orthogonal Bochner function subspaces with applications to
robust machine learning [1.533771872970755]
このデータを、関連するボヒナー空間内のランダムフィールドのインスタンスとみなす。
私たちのキーとなる観察は、クラスが主に2つの異なる部分空間に存在することである。
論文 参考訳(メタデータ) (2021-10-04T22:01:01Z) - Switch Spaces: Learning Product Spaces with Sparse Gating [48.591045282317424]
製品空間における表現を学習するためのデータ駆動アプローチであるswitch spacesを提案する。
我々は空間の選択、結合、切り替えを学習するスパースゲーティング機構を導入する。
知識グラフの補完と項目レコメンデーションの実験により,提案したスイッチ空間が新たな最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2021-02-17T11:06:59Z) - Graph Embedding with Data Uncertainty [113.39838145450007]
スペクトルベースのサブスペース学習は、多くの機械学習パイプラインにおいて、一般的なデータ前処理ステップである。
ほとんどの部分空間学習法は、不確実性の高いデータにつながる可能性のある測定の不正確さやアーティファクトを考慮していない。
論文 参考訳(メタデータ) (2020-09-01T15:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。