論文の概要: Feature Network Methods in Machine Learning and Applications
- arxiv url: http://arxiv.org/abs/2401.04874v1
- Date: Wed, 10 Jan 2024 01:57:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-11 15:40:56.924089
- Title: Feature Network Methods in Machine Learning and Applications
- Title(参考訳): 機械学習と応用における特徴ネットワーク手法
- Authors: Xinying Mu, Mark Kon
- Abstract要約: 機械学習(ML)機能ネットワーク(英: machine learning feature network)は、機械学習タスクにおけるML機能を、その類似性に基づいて接続するグラフである。
本稿では,機能クラスタリングとフィードフォワード学習によって階層的な接続が形成される,深い木構造特徴ネットワークの例を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A machine learning (ML) feature network is a graph that connects ML features
in learning tasks based on their similarity. This network representation allows
us to view feature vectors as functions on the network. By leveraging function
operations from Fourier analysis and from functional analysis, one can easily
generate new and novel features, making use of the graph structure imposed on
the feature vectors. Such network structures have previously been studied
implicitly in image processing and computational biology. We thus describe
feature networks as graph structures imposed on feature vectors, and provide
applications in machine learning. One application involves graph-based
generalizations of convolutional neural networks, involving structured deep
learning with hierarchical representations of features that have varying depth
or complexity. This extends also to learning algorithms that are able to
generate useful new multilevel features. Additionally, we discuss the use of
feature networks to engineer new features, which can enhance the expressiveness
of the model. We give a specific example of a deep tree-structured feature
network, where hierarchical connections are formed through feature clustering
and feed-forward learning. This results in low learning complexity and
computational efficiency. Unlike "standard" neural features which are limited
to modulated (thresholded) linear combinations of adjacent ones, feature
networks offer more general feedforward dependencies among features. For
example, radial basis functions or graph structure-based dependencies between
features can be utilized.
- Abstract(参考訳): 機械学習(ml)機能ネットワークは、その類似性に基づいて学習タスクのml機能を接続するグラフである。
このネットワーク表現により,特徴ベクトルをネットワーク上の関数として見ることができる。
フーリエ解析や関数解析から関数操作を活用することで、特徴ベクトルに課されるグラフ構造を利用して、新しくて新しい特徴を容易に生成することができる。
このようなネットワーク構造は、画像処理や計算生物学において暗黙的に研究されてきた。
そこで我々は,特徴ベクトルに課されるグラフ構造として特徴ネットワークを記述し,機械学習に応用する。
ひとつは畳み込みニューラルネットワークのグラフベースの一般化で、深さや複雑さの異なる特徴を階層的に表現した構造化ディープラーニングを含む。
これはまた、有用な新しいマルチレベル機能を生成することができる学習アルゴリズムにも拡張される。
さらに,機能ネットワークを用いて新たな特徴を設計し,モデルの表現性を向上する方法について論じる。
機能クラスタリングとフィードフォワード学習によって階層的な接続が形成される,深い木構造特徴ネットワークの具体例を示す。
その結果、学習の複雑さと計算効率が低下する。
隣接する部分の変調(保持)線形結合に制限される「標準的な」神経機能とは異なり、特徴ネットワークは特徴間のより一般的なフィードフォワード依存性を提供する。
例えば、機能間のラジアル基底関数やグラフ構造に基づく依存関係を利用することができる。
関連論文リスト
- Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Going Beyond Neural Network Feature Similarity: The Network Feature
Complexity and Its Interpretation Using Category Theory [64.06519549649495]
機能的に等価な機能と呼ぶものの定義を提供します。
これらの特徴は特定の変換の下で等価な出力を生成する。
反復的特徴マージ(Iterative Feature Merging)というアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-10T16:27:12Z) - Joint Feature and Differentiable $ k $-NN Graph Learning using Dirichlet
Energy [103.74640329539389]
特徴選択と識別可能な$k $-NNグラフ学習を同時に行うディープFS法を提案する。
我々は、ニューラルネットワークで$ k $-NNグラフを学習する際の非微分可能性問題に対処するために、最適輸送理論を用いる。
本モデルの有効性を,合成データセットと実世界のデータセットの両方で広範な実験により検証する。
論文 参考訳(メタデータ) (2023-05-21T08:15:55Z) - Learning Dynamics and Structure of Complex Systems Using Graph Neural
Networks [13.509027957413409]
我々は、非線形力学系の例から時系列に適合するようにグラフニューラルネットワークを訓練した。
学習した表現とモデルコンポーネントの簡単な解釈を見出した。
我々は,信念伝達における統計的相互作用と,それに対応する学習ネットワークのパラメータ間のグラフトランスレータの同定に成功した。
論文 参考訳(メタデータ) (2022-02-22T15:58:16Z) - The staircase property: How hierarchical structure can guide deep
learning [38.713566366330326]
本稿では,深層ニューラルネットワークが階層的に学習できるデータ分布の構造特性を明らかにする。
この特性を満たす関数は、通常のニューラルネットワーク上で階層的に座標降下を用いて時間的に学習できることを実証する。
論文 参考訳(メタデータ) (2021-08-24T08:19:05Z) - Optimal Approximation with Sparse Neural Networks and Applications [0.0]
深い疎結合ニューラルネットワークを用いて、関数クラスの複雑性を$L(mathbb Rd)$で測定する。
また、ニューラルネットワークを誘導する関数の可算コレクションである表現システムについても紹介する。
次に、レート歪曲理論とウェッジレット構成を用いて、$beta$マンガ的関数と呼ばれるクラスの複雑性を分析する。
論文 参考訳(メタデータ) (2021-08-14T05:14:13Z) - Toward Understanding the Feature Learning Process of Self-supervised
Contrastive Learning [43.504548777955854]
本研究では,その特徴学習過程を解析することにより,ニューラルネットワークの特徴表現のコントラスト学習について検討する。
textbfReLUネットワークを用いたコントラスト学習は、適切な拡張が採用されれば、所望のスパース特徴を確実に学習できることを実証する。
論文 参考訳(メタデータ) (2021-05-31T16:42:09Z) - The Connection Between Approximation, Depth Separation and Learnability
in Neural Networks [70.55686685872008]
学習可能性と近似能力の関係について検討する。
対象関数の深いネットワークでの学習性は、より単純なクラスがターゲットを近似する能力に依存することを示す。
論文 参考訳(メタデータ) (2021-01-31T11:32:30Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - Neural networks adapting to datasets: learning network size and topology [77.34726150561087]
ニューラルネットワークは、勾配に基づくトレーニングの過程で、そのサイズとトポロジの両方を学習できるフレキシブルなセットアップを導入します。
結果として得られるネットワークは、特定の学習タスクとデータセットに合わせたグラフの構造を持つ。
論文 参考訳(メタデータ) (2020-06-22T12:46:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。