論文の概要: Topological Structure is Predictive of Deep Neural Network Success in
Learning
- arxiv url: http://arxiv.org/abs/2301.09734v1
- Date: Mon, 23 Jan 2023 21:54:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-25 14:47:44.126379
- Title: Topological Structure is Predictive of Deep Neural Network Success in
Learning
- Title(参考訳): トポロジカル構造は学習におけるディープニューラルネットワークの成功を予測する
- Authors: Christopher Griffin and Trevor Karn and Benjamin Apple
- Abstract要約: 基礎となるトレーニングデータの構造は、ディープニューラルネットワーク(DNN)がデータを分類する能力に劇的な影響を及ぼす可能性があることを示す。
それらのトポロジ的構造における単純さは、DNNが2つのデータセットで操作できる能力の大部分を説明できることを示す。
- 参考スコア(独自算出の注目度): 0.08594140167290097
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning has become a fundamental tool in modern science, yet its
limitations are still not fully understood. Using a simple children's game, we
show that the topological structure of the underlying training data can have a
dramatic effect on the ability of a deep neural network (DNN) classifier to
learn to classify data. We then take insights obtained from this toy model and
apply them to two physical data sets (one from particle physics and one from
acoustics), which are known to be amenable to classification by DNN's. We show
that the simplicity in their topological structure explains the majority of the
DNN's ability to operate on these data sets by showing that fully interpretable
topological classifiers are able to perform nearly as well as their DNN
counterparts.
- Abstract(参考訳): 機械学習は現代科学の基本的なツールとなっているが、その限界はまだ完全には理解されていない。
簡単な子どものゲームを用いて、基礎となるトレーニングデータのトポロジ的構造がディープニューラルネットワーク(DNN)分類器のデータの分類学習能力に劇的な影響を及ぼすことを示した。
次に,この玩具モデルから得られた知見を2つの物理データセット(素粒子物理学から1つ,音響学から1つ)に適用する。
それらのトポロジ的構造における単純さは、DNNがこれらのデータセットで操作する能力の大部分を、完全に解釈可能なトポロジ的分類器が、DNNとほぼ同等に動作可能であることを示すことによって説明できる。
関連論文リスト
- Defining Neural Network Architecture through Polytope Structures of Dataset [53.512432492636236]
本稿では, ニューラルネットワーク幅の上下境界を定義し, 問題となるデータセットのポリトープ構造から情報を得る。
本研究では,データセットのポリトープ構造を学習したニューラルネットワークから推定できる逆条件を探索するアルゴリズムを開発した。
MNIST、Fashion-MNIST、CIFAR10といった一般的なデータセットは、顔の少ない2つ以上のポリトップを用いて効率的にカプセル化できることが確立されている。
論文 参考訳(メタデータ) (2024-02-04T08:57:42Z) - The Computational Complexity of Concise Hypersphere Classification [49.57441416941195]
本稿では,二元データに対する超球分類問題の複雑性理論による最初の研究である。
パラメータ化複雑性のパラダイムを用いて、入力データに存在する可能性のある構造特性の影響を分析する。
論文 参考訳(メタデータ) (2023-12-12T09:33:03Z) - Image Classification using Combination of Topological Features and
Neural Networks [1.0323063834827417]
我々は、データ空間から重要なトポロジ的特徴を抽出するために、永続的ホモロジー法、すなわち、トポロジ的データ解析(TDA)の技法を用いる。
これは、MNISTデータセット内の複数のクラスから画像を分類することを目的として行われた。
提案手法は,1ストリームと2ストリームのニューラルネットワークによって構成されるディープラーニングアプローチにトポロジ的特徴を挿入する。
論文 参考訳(メタデータ) (2023-11-10T20:05:40Z) - On Characterizing the Evolution of Embedding Space of Neural Networks
using Algebraic Topology [9.537910170141467]
特徴埋め込み空間のトポロジがベッチ数を介してよく訓練されたディープニューラルネットワーク(DNN)の層を通過するとき、どのように変化するかを検討する。
深度が増加するにつれて、トポロジカルに複雑なデータセットが単純なデータセットに変換され、ベッチ数はその最小値に達することが示される。
論文 参考訳(メタデータ) (2023-11-08T10:45:12Z) - Data Topology-Dependent Upper Bounds of Neural Network Widths [52.58441144171022]
まず、3層ニューラルネットワークがコンパクトな集合上のインジケータ関数を近似するように設計可能であることを示す。
その後、これは単純複体へと拡張され、その位相構造に基づいて幅の上界が導かれる。
トポロジカルアプローチを用いて3層ReLUネットワークの普遍近似特性を証明した。
論文 参考訳(メタデータ) (2023-05-25T14:17:15Z) - Unsupervised hierarchical clustering using the learning dynamics of RBMs [0.0]
Restricted Boltzmann Machine (RBM) の学習力学を利用した関係データツリー構築のための新しい汎用的手法を提案する。
提案手法は,Plefka拡張から派生した平均場アプローチに基づいて,無秩序なシステムの文脈で開発された。
人工的に階層的なデータセットと3つの異なる実世界のデータセット(桁のイメージ、ヒトゲノムの突然変異、タンパク質のファミリー)でテストした。
論文 参考訳(メタデータ) (2023-02-03T16:53:32Z) - Rethinking Persistent Homology for Visual Recognition [27.625893409863295]
本稿では,様々な訓練シナリオにおける画像分類におけるトポロジ的特性の有効性を詳細に分析する。
例えば、小さなデータセット上で単純なネットワークをトレーニングするなど、トポロジ的特徴から最も恩恵を受けるシナリオを特定します。
論文 参考訳(メタデータ) (2022-07-09T08:01:11Z) - Topological Deep Learning: Going Beyond Graph Data [26.325857542512047]
我々は、広く採用されている位相領域を含むよりリッチなデータ構造の上に構築された統一的な深層学習フレームワークを提案する。
具体的には、新しいタイプのトポロジカルドメインであるコンプレックスを導入する。
我々は、主に注意に基づくCCNNに焦点を当てた、メッセージパッシング複合ニューラルネットワーク(CCNN)のクラスを開発する。
論文 参考訳(メタデータ) (2022-06-01T16:21:28Z) - Amortized Inference for Causal Structure Learning [72.84105256353801]
因果構造を学習することは、通常、スコアまたは独立テストを使用して構造を評価することを伴う探索問題を引き起こす。
本研究では,観測・干渉データから因果構造を予測するため,変分推論モデルを訓練する。
我々のモデルは、実質的な分布シフトの下で頑健な一般化能力を示す。
論文 参考訳(メタデータ) (2022-05-25T17:37:08Z) - Dist2Cycle: A Simplicial Neural Network for Homology Localization [66.15805004725809]
単純複体は多方向順序関係を明示的にエンコードするグラフの高次元一般化と見なすことができる。
単体錯体の$k$-homological特徴によってパラメータ化された関数のグラフ畳み込みモデルを提案する。
論文 参考訳(メタデータ) (2021-10-28T14:59:41Z) - Dive into Layers: Neural Network Capacity Bounding using Algebraic
Geometry [55.57953219617467]
ニューラルネットワークの学習性はそのサイズと直接関連していることを示す。
入力データとニューラルネットワークのトポロジ的幾何学的複雑さを測定するためにベッチ数を用いる。
実世界のデータセットMNISTで実験を行い、分析結果と結論を検証した。
論文 参考訳(メタデータ) (2021-09-03T11:45:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。