論文の概要: Representation Learning via Manifold Flattening and Reconstruction
- arxiv url: http://arxiv.org/abs/2305.01777v4
- Date: Fri, 8 Sep 2023 00:31:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-11 18:02:54.050426
- Title: Representation Learning via Manifold Flattening and Reconstruction
- Title(参考訳): マニフォールドフラット化と再構成による表現学習
- Authors: Michael Psenka, Druv Pai, Vishal Raman, Shankar Sastry, Yi Ma
- Abstract要約: 本研究では,組込み部分多様体の線形化と再構成を行うニューラルネットワークのペアを明示的に構築するアルゴリズムを提案する。
このような生成されたニューラルネットワークは、FlatNet(FlatNet)と呼ばれ、理論的に解釈可能であり、大規模に計算可能であり、データをテストするためにうまく一般化されている。
- 参考スコア(独自算出の注目度): 10.823557517341964
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work proposes an algorithm for explicitly constructing a pair of neural
networks that linearize and reconstruct an embedded submanifold, from finite
samples of this manifold. Our such-generated neural networks, called Flattening
Networks (FlatNet), are theoretically interpretable, computationally feasible
at scale, and generalize well to test data, a balance not typically found in
manifold-based learning methods. We present empirical results and comparisons
to other models on synthetic high-dimensional manifold data and 2D image data.
Our code is publicly available.
- Abstract(参考訳): 本研究は,この多様体の有限サンプルから埋め込み部分多様体を線形化し再構成する一対のニューラルネットワークを明示的に構築するアルゴリズムを提案する。
我々の生成したニューラルネットワークはFlatNetと呼ばれ、理論的に解釈可能であり、大規模に計算可能であり、データをテストするためにうまく一般化されている。
合成高次元多様体データと2次元画像データにおける実験結果と他のモデルとの比較を行った。
私たちのコードは公開されています。
関連論文リスト
- Riemannian Residual Neural Networks [58.925132597945634]
残余ニューラルネットワーク(ResNet)の拡張方法を示す。
ResNetは、機械学習において、有益な学習特性、優れた経験的結果、そして様々なニューラルネットワークを構築する際に容易に組み込める性質のために、ユビキタスになった。
論文 参考訳(メタデータ) (2023-10-16T02:12:32Z) - Effects of Data Geometry in Early Deep Learning [16.967930721746672]
ディープニューラルネットワークは、画像からグラフまで、さまざまなタイプのデータ上の関数を、基礎構造によって近似することができる。
ニューラルネットワークが線形関数として振る舞う領域にデータ多様体を分割する。
論文 参考訳(メタデータ) (2022-12-29T17:32:05Z) - Experimental Observations of the Topology of Convolutional Neural
Network Activations [2.4235626091331737]
トポロジカル・データ解析は、複雑な構造のコンパクトでノイズ・ロバストな表現を提供する。
ディープニューラルネットワーク(DNN)は、モデルアーキテクチャによって定義された一連の変換に関連する数百万のパラメータを学習する。
本稿では,画像分類に使用される畳み込みニューラルネットワークの解釈可能性に関する知見を得る目的で,TDAの最先端技術を適用した。
論文 参考訳(メタデータ) (2022-12-01T02:05:44Z) - Semi-Supervised Manifold Learning with Complexity Decoupled Chart
Autoencoders [65.2511270059236]
本研究は、クラスラベルなどの半教師付き情報を付加できる非対称符号化復号プロセスを備えたチャートオートエンコーダを導入する。
データ多様体の内在次元に依存するネットワークの理論的近似力について論じる。
論文 参考訳(メタデータ) (2022-08-22T19:58:03Z) - Adaptive Convolutional Dictionary Network for CT Metal Artifact
Reduction [62.691996239590125]
本稿では,金属人工物削減のための適応畳み込み辞書ネットワーク(ACDNet)を提案する。
我々のACDNetは、トレーニングデータを介して、アーティファクトフリーCT画像の事前を自動で学習し、入力されたCT画像ごとに表現カーネルを適応的に調整することができる。
本手法は,モデルに基づく手法の明確な解釈可能性を継承し,学習に基づく手法の強力な表現能力を維持する。
論文 参考訳(メタデータ) (2022-05-16T06:49:36Z) - A singular Riemannian geometry approach to Deep Neural Networks II.
Reconstruction of 1-D equivalence classes [78.120734120667]
入力空間における出力多様体内の点の事前像を構築する。
我々は、n-次元実空間から(n-1)-次元実空間へのニューラルネットワークマップの場合の簡易性に焦点をあてる。
論文 参考訳(メタデータ) (2021-12-17T11:47:45Z) - Geometry-Aware Hierarchical Bayesian Learning on Manifolds [5.182379239800725]
多様体値の視覚データに基づく学習のための階層型ベイズ学習モデルを提案する。
まず、幾何学的認識とカーネル内畳み込みの性質を持つカーネルを導入する。
次に、ガウス過程回帰を用いて入力を整理し、最終的に特徴集約のための階層的ベイズネットワークを実装する。
論文 参考訳(メタデータ) (2021-10-30T05:47:05Z) - Data Augmentation Through Monte Carlo Arithmetic Leads to More
Generalizable Classification in Connectomics [0.0]
我々はMonte Carlo Arithmeticを用いて構造コネクトーム推定パイプラインを摂動する。
摂動ネットワークは、拡張データセットでキャプチャされ、年齢分類タスクに使用された。
この利点は、大量の摂動を妨げないので、データセットを極小に摂動しても意味のあるばらつきを生じさせ、その後に設計されたモデルで捉えることができることを示唆している。
論文 参考訳(メタデータ) (2021-09-20T16:06:05Z) - Leveraging Sparse Linear Layers for Debuggable Deep Networks [86.94586860037049]
学習した深い特徴表現に疎い線形モデルを適用することで、よりデバッグ可能なニューラルネットワークを実現する方法を示す。
その結果、スパースな説明は、スプリアス相関を特定し、誤分類を説明し、視覚および言語タスクにおけるモデルバイアスを診断するのに役立ちます。
論文 参考訳(メタデータ) (2021-05-11T08:15:25Z) - Learning to Segment Human Body Parts with Synthetically Trained Deep
Convolutional Networks [58.0240970093372]
本稿では,合成データのみを用いて学習した深部畳み込みニューラルネットワークに基づく人体部分分割のための新しい枠組みを提案する。
提案手法は,人体部品の実際の注釈付きデータを用いてモデルを訓練することなく,最先端の結果が得られる。
論文 参考訳(メタデータ) (2021-02-02T12:26:50Z) - Compressive Sensing and Neural Networks from a Statistical Learning
Perspective [4.561032960211816]
線形測定の少ないスパース再構成に適したニューラルネットワークのクラスに対する一般化誤差解析を提案する。
現実的な条件下では、一般化誤差は層数で対数的にしかスケールせず、測定数ではほとんど線形である。
論文 参考訳(メタデータ) (2020-10-29T15:05:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。