論文の概要: A Geometric Framework for Neural Feature Learning
- arxiv url: http://arxiv.org/abs/2309.10140v1
- Date: Mon, 18 Sep 2023 20:39:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 17:37:29.321493
- Title: A Geometric Framework for Neural Feature Learning
- Title(参考訳): ニューラル特徴学習のための幾何学的枠組み
- Authors: Xiangxiang Xu, Lizhong Zheng
- Abstract要約: 本稿では,特徴空間の幾何学的構造を利用したニューラル特徴抽出器に基づくシステム設計学習フレームワークを提案する。
データサンプルから最適な特徴を学習するための学習アルゴリズムを設計するためのネスト手法を提案する。
- 参考スコア(独自算出の注目度): 6.861324267170669
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present a novel framework for learning system design based on neural
feature extractors by exploiting geometric structures in feature spaces. First,
we introduce the feature geometry, which unifies statistical dependence and
features in the same functional space with geometric structures. By applying
the feature geometry, we formulate each learning problem as solving the optimal
feature approximation of the dependence component specified by the learning
setting. We propose a nesting technique for designing learning algorithms to
learn the optimal features from data samples, which can be applied to
off-the-shelf network architectures and optimizers. To demonstrate the
application of the nesting technique, we further discuss multivariate learning
problems, including conditioned inference and multimodal learning, where we
present the optimal features and reveal their connections to classical
approaches.
- Abstract(参考訳): 本稿では,特徴空間の幾何学的構造を利用したニューラル特徴抽出器に基づくシステム設計学習フレームワークを提案する。
まず,同じ関数空間における統計的依存と特徴を幾何学的構造で統一する特徴幾何を導入する。
特徴幾何学を適用することにより,各学習問題を学習設定で指定された依存成分の最適特徴近似解として定式化する。
本稿では,データサンプルから最適な特徴を学習するための学習アルゴリズムを設計するためのネスト手法を提案する。
ネスト手法の適用を実証するため,条件付き推論やマルチモーダル学習など多変量学習の問題についても論じ,最適な特徴を示し,古典的アプローチとの関係を明らかにする。
関連論文リスト
- Hierarchical Ensemble-Based Feature Selection for Time Series Forecasting [0.0]
非定常性のための階層的積み重ねに基づく特徴選択のための新しいアンサンブルアプローチを導入する。
当社のアプローチでは,階層構造を用いた機能間の共依存を利用しています。
このアプローチの有効性は、合成およびよく知られた実生活データセット上で実証される。
論文 参考訳(メタデータ) (2023-10-26T16:40:09Z) - Offline Reinforcement Learning with Differentiable Function
Approximation is Provably Efficient [65.08966446962845]
歴史的データを用いて意思決定戦略を最適化することを目的としたオフライン強化学習は、現実の応用に広く適用されている。
微分関数クラス近似(DFA)を用いたオフライン強化学習の検討から一歩踏み出した。
最も重要なことは、悲観的な適合Q-ラーニングアルゴリズムを解析することにより、オフライン微分関数近似が有効であることを示すことである。
論文 参考訳(メタデータ) (2022-10-03T07:59:42Z) - Minimax Optimal Kernel Operator Learning via Multilevel Training [11.36492861074981]
2つの無限次元ソボレフ再生核ヒルベルト空間間のヒルベルト・シュミット作用素の学習の統計的極限について検討する。
無限次元関数空間間の線形作用素を学習する際に最適なマルチレベルカーネル演算子学習アルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-09-28T21:31:43Z) - Stabilizing Q-learning with Linear Architectures for Provably Efficient
Learning [53.17258888552998]
本研究では,線形関数近似を用いた基本的な$Q$-learningプロトコルの探索変種を提案する。
このアルゴリズムの性能は,新しい近似誤差というより寛容な概念の下で,非常に優雅に低下することを示す。
論文 参考訳(メタデータ) (2022-06-01T23:26:51Z) - Self-Attention Neural Bag-of-Features [103.70855797025689]
我々は最近導入された2D-Attentionの上に構築し、注意学習方法論を再構築する。
本稿では,関連情報を強調した2次元目視マスクを学習する機能・時間的アテンション機構を提案する。
論文 参考訳(メタデータ) (2022-01-26T17:54:14Z) - Towards Open-World Feature Extrapolation: An Inductive Graph Learning
Approach [80.8446673089281]
グラフ表現と学習を伴う新しい学習パラダイムを提案する。
本フレームワークは,1) 下位モデルとしてのバックボーンネットワーク(フィードフォワードニューラルネットなど)が,予測ラベルの入力および出力として機能を取り,2) 上位モデルとしてのグラフニューラルネットワークが,観測データから構築された特徴データグラフをメッセージパッシングすることで,新機能の埋め込みを外挿することを学ぶ。
論文 参考訳(メタデータ) (2021-10-09T09:02:45Z) - A Functional Perspective on Learning Symmetric Functions with Neural
Networks [48.80300074254758]
本研究では,測定値に基づいて定義されたニューラルネットワークの学習と表現について検討する。
正規化の異なる選択の下で近似と一般化境界を確立する。
得られたモデルは効率よく学習でき、入力サイズにまたがる一般化保証を享受できる。
論文 参考訳(メタデータ) (2020-08-16T16:34:33Z) - Feature Extraction Functions for Neural Logic Rule Learning [4.181432858358386]
ニューラルネットワークの予測行動に論理規則として抽象化された人間の知識を統合する機能を提案する。
他の既存のニューラルネットワークのアプローチとは異なり、これらの関数のプログラム的性質は、特別な数学的エンコーディングを一切必要としないことを意味する。
論文 参考訳(メタデータ) (2020-08-14T12:35:07Z) - A Trainable Optimal Transport Embedding for Feature Aggregation and its
Relationship to Attention [96.77554122595578]
固定サイズのパラメータ化表現を導入し、与えられた入力セットから、そのセットとトレーニング可能な参照の間の最適な輸送計画に従って要素を埋め込み、集約する。
我々のアプローチは大規模なデータセットにスケールし、参照のエンドツーエンドのトレーニングを可能にすると同時に、計算コストの少ない単純な教師なし学習メカニズムも提供する。
論文 参考訳(メタデータ) (2020-06-22T08:35:58Z) - Similarity of Neural Networks with Gradients [8.804507286438781]
本稿では,特徴ベクトルと勾配ベクトルの両方を利用してニューラルネットワークの表現を設計することを提案する。
提案手法はニューラルネットワークの類似性を計算するための最先端の手法を提供する。
論文 参考訳(メタデータ) (2020-03-25T17:04:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。