論文の概要: Topological Learning in Multi-Class Data Sets
- arxiv url: http://arxiv.org/abs/2301.09734v4
- Date: Thu, 8 Feb 2024 17:16:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-10 03:14:43.346781
- Title: Topological Learning in Multi-Class Data Sets
- Title(参考訳): マルチクラスデータセットにおけるトポロジ学習
- Authors: Christopher Griffin and Trevor Karn and Benjamin Apple
- Abstract要約: フィードフォワードディープニューラルネットワーク(DNN)の学習におけるトポロジカル複雑度の影響について検討する。
我々は,複数の構築およびオープンソースデータセットに対するトポロジ的分類アルゴリズムの評価を行った。
- 参考スコア(独自算出の注目度): 0.3050152425444477
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We specialize techniques from topological data analysis to the problem of
characterizing the topological complexity (as defined in the body of the paper)
of a multi-class data set. As a by-product, a topological classifier is defined
that uses an open sub-covering of the data set. This sub-covering can be used
to construct a simplicial complex whose topological features (e.g., Betti
numbers) provide information about the classification problem. We use these
topological constructs to study the impact of topological complexity on
learning in feedforward deep neural networks (DNNs). We hypothesize that
topological complexity is negatively correlated with the ability of a fully
connected feedforward deep neural network to learn to classify data correctly.
We evaluate our topological classification algorithm on multiple constructed
and open source data sets. We also validate our hypothesis regarding the
relationship between topological complexity and learning in DNN's on multiple
data sets.
- Abstract(参考訳): トポロジカルデータ解析から,多クラスデータセットのトポロジカル複雑性(論文の本文で定義されている)を特徴付ける問題まで,その技法を専門とする。
副産物として、データセットのオープンサブカバーを使用するトポロジカル分類器が定義される。
この部分被覆は、位相的特徴(例えばベティ数)が分類問題に関する情報を提供する単純複体を構成するのに使うことができる。
これらのトポロジカル構成を用いて,feedforward deep neural networks (dnn) の学習におけるトポロジカル複雑度の影響について検討した。
位相的複雑性は、完全に接続されたフィードフォワード深層ニューラルネットワークがデータを正しく分類する能力と負の相関関係にあると仮定する。
我々は,複数の構築およびオープンソースデータセットのトポロジ分類アルゴリズムを評価する。
また,複数データセット上でのDNNにおける位相的複雑性と学習の関係に関する仮説を検証した。
関連論文リスト
- Defining Neural Network Architecture through Polytope Structures of Dataset [53.512432492636236]
本稿では, ニューラルネットワーク幅の上下境界を定義し, 問題となるデータセットのポリトープ構造から情報を得る。
本研究では,データセットのポリトープ構造を学習したニューラルネットワークから推定できる逆条件を探索するアルゴリズムを開発した。
MNIST、Fashion-MNIST、CIFAR10といった一般的なデータセットは、顔の少ない2つ以上のポリトップを用いて効率的にカプセル化できることが確立されている。
論文 参考訳(メタデータ) (2024-02-04T08:57:42Z) - The Computational Complexity of Concise Hypersphere Classification [49.57441416941195]
本稿では,二元データに対する超球分類問題の複雑性理論による最初の研究である。
パラメータ化複雑性のパラダイムを用いて、入力データに存在する可能性のある構造特性の影響を分析する。
論文 参考訳(メタデータ) (2023-12-12T09:33:03Z) - Image Classification using Combination of Topological Features and
Neural Networks [1.0323063834827417]
我々は、データ空間から重要なトポロジ的特徴を抽出するために、永続的ホモロジー法、すなわち、トポロジ的データ解析(TDA)の技法を用いる。
これは、MNISTデータセット内の複数のクラスから画像を分類することを目的として行われた。
提案手法は,1ストリームと2ストリームのニューラルネットワークによって構成されるディープラーニングアプローチにトポロジ的特徴を挿入する。
論文 参考訳(メタデータ) (2023-11-10T20:05:40Z) - On Characterizing the Evolution of Embedding Space of Neural Networks
using Algebraic Topology [9.537910170141467]
特徴埋め込み空間のトポロジがベッチ数を介してよく訓練されたディープニューラルネットワーク(DNN)の層を通過するとき、どのように変化するかを検討する。
深度が増加するにつれて、トポロジカルに複雑なデータセットが単純なデータセットに変換され、ベッチ数はその最小値に達することが示される。
論文 参考訳(メタデータ) (2023-11-08T10:45:12Z) - Data Topology-Dependent Upper Bounds of Neural Network Widths [52.58441144171022]
まず、3層ニューラルネットワークがコンパクトな集合上のインジケータ関数を近似するように設計可能であることを示す。
その後、これは単純複体へと拡張され、その位相構造に基づいて幅の上界が導かれる。
トポロジカルアプローチを用いて3層ReLUネットワークの普遍近似特性を証明した。
論文 参考訳(メタデータ) (2023-05-25T14:17:15Z) - Unsupervised hierarchical clustering using the learning dynamics of RBMs [0.0]
Restricted Boltzmann Machine (RBM) の学習力学を利用した関係データツリー構築のための新しい汎用的手法を提案する。
提案手法は,Plefka拡張から派生した平均場アプローチに基づいて,無秩序なシステムの文脈で開発された。
人工的に階層的なデータセットと3つの異なる実世界のデータセット(桁のイメージ、ヒトゲノムの突然変異、タンパク質のファミリー)でテストした。
論文 参考訳(メタデータ) (2023-02-03T16:53:32Z) - Rethinking Persistent Homology for Visual Recognition [27.625893409863295]
本稿では,様々な訓練シナリオにおける画像分類におけるトポロジ的特性の有効性を詳細に分析する。
例えば、小さなデータセット上で単純なネットワークをトレーニングするなど、トポロジ的特徴から最も恩恵を受けるシナリオを特定します。
論文 参考訳(メタデータ) (2022-07-09T08:01:11Z) - Topological Deep Learning: Going Beyond Graph Data [26.325857542512047]
我々は、広く採用されている位相領域を含むよりリッチなデータ構造の上に構築された統一的な深層学習フレームワークを提案する。
具体的には、新しいタイプのトポロジカルドメインであるコンプレックスを導入する。
我々は、主に注意に基づくCCNNに焦点を当てた、メッセージパッシング複合ニューラルネットワーク(CCNN)のクラスを開発する。
論文 参考訳(メタデータ) (2022-06-01T16:21:28Z) - Amortized Inference for Causal Structure Learning [72.84105256353801]
因果構造を学習することは、通常、スコアまたは独立テストを使用して構造を評価することを伴う探索問題を引き起こす。
本研究では,観測・干渉データから因果構造を予測するため,変分推論モデルを訓練する。
我々のモデルは、実質的な分布シフトの下で頑健な一般化能力を示す。
論文 参考訳(メタデータ) (2022-05-25T17:37:08Z) - Dist2Cycle: A Simplicial Neural Network for Homology Localization [66.15805004725809]
単純複体は多方向順序関係を明示的にエンコードするグラフの高次元一般化と見なすことができる。
単体錯体の$k$-homological特徴によってパラメータ化された関数のグラフ畳み込みモデルを提案する。
論文 参考訳(メタデータ) (2021-10-28T14:59:41Z) - Dive into Layers: Neural Network Capacity Bounding using Algebraic
Geometry [55.57953219617467]
ニューラルネットワークの学習性はそのサイズと直接関連していることを示す。
入力データとニューラルネットワークのトポロジ的幾何学的複雑さを測定するためにベッチ数を用いる。
実世界のデータセットMNISTで実験を行い、分析結果と結論を検証した。
論文 参考訳(メタデータ) (2021-09-03T11:45:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。