論文の概要: Markov-Lipschitz Deep Learning
- arxiv url: http://arxiv.org/abs/2006.08256v5
- Date: Wed, 30 Sep 2020 09:17:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 02:56:48.448879
- Title: Markov-Lipschitz Deep Learning
- Title(参考訳): Markov-Lipschitzディープラーニング
- Authors: Stan Z. Li, Zelin Zang, Lirong Wu
- Abstract要約: 局所滑らか性(英語版)(LIS)と呼ばれる事前の制約は、層をまたいで課せられ、マルコフ確率場(MRF)-ギブス分布に符号化される。
これにより、局所的な幾何学的保存とロバスト性に対する最良の解が導かれる。
実験,比較,アブレーション実験により,MLDLの多様体学習および多様体データ生成における大きな利点が示された。
- 参考スコア(独自算出の注目度): 37.7499958388076
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel framework, called Markov-Lipschitz deep learning (MLDL),
to tackle geometric deterioration caused by collapse, twisting, or crossing in
vector-based neural network transformations for manifold-based representation
learning and manifold data generation. A prior constraint, called locally
isometric smoothness (LIS), is imposed across-layers and encoded into a Markov
random field (MRF)-Gibbs distribution. This leads to the best possible
solutions for local geometry preservation and robustness as measured by locally
geometric distortion and locally bi-Lipschitz continuity. Consequently, the
layer-wise vector transformations are enhanced into well-behaved,
LIS-constrained metric homeomorphisms. Extensive experiments, comparisons, and
ablation study demonstrate significant advantages of MLDL for manifold learning
and manifold data generation. MLDL is general enough to enhance any vector
transformation-based networks. The code is available at
https://github.com/westlake-cairi/Markov-Lipschitz-Deep-Learning.
- Abstract(参考訳): 本稿では,ベクトル型ニューラルネットワーク変換における崩壊,ねじれ,交差による幾何学的劣化に対処するために,マルコフ・リプシッツ深層学習(mldl)と呼ばれる新しい枠組みを提案する。
局所等尺スムースネス (LIS) と呼ばれる事前の制約は層をまたいで課せられ、マルコフ確率場 (MRF)-ギブス分布に符号化される。
これは局所幾何学的歪みと局所二リプシッツ連続性によって測定される局所幾何学的保存とロバスト性にとって最良の解となる。
その結果、層ワイドベクトル変換は、よく定義された LIS 制約付き計量同型へと拡張される。
総合的な実験,比較,アブレーション研究により,MLDLの多様体学習および多様体データ生成における大きな利点が示された。
MLDLはベクトル変換ベースのネットワークを強化するのに十分である。
コードはhttps://github.com/westlake-cairi/markov-lipschitz-deep-learningで入手できる。
関連論文リスト
- Deep Learning as Ricci Flow [38.27936710747996]
ディープニューラルネットワーク(DNN)は、複雑なデータの分布を近似する強力なツールである。
分類タスク中のDNNによる変換は、ハミルトンのリッチ流下で期待されるものと類似していることを示す。
本研究の成果は, 微分幾何学や離散幾何学から, 深層学習における説明可能性の問題まで, ツールの利用を動機づけるものである。
論文 参考訳(メタデータ) (2024-04-22T15:12:47Z) - Scalable manifold learning by uniform landmark sampling and constrained
locally linear embedding [0.6144680854063939]
本研究では,大規模・高次元データを効率的に操作できるスケーラブルな多様体学習法を提案する。
異なるタイプの合成データセットと実世界のベンチマークにおけるSCMLの有効性を実証的に検証した。
scMLはデータサイズや埋め込み次元の増大とともにスケールし、グローバル構造を保存する上で有望なパフォーマンスを示す。
論文 参考訳(メタデータ) (2024-01-02T08:43:06Z) - ParsNets: A Parsimonious Orthogonal and Low-Rank Linear Networks for
Zero-Shot Learning [22.823915322924304]
本稿では,ParsNetsと呼ばれるゼロショット学習(ZSL)において,既存の深層モデルに対して同等あるいはさらに優れた性能を実現するために,並列かつ効率的な設計手法を提案する。
局所線型性の一般化を容易にするため,クラス内サンプルに低ランク制約を課し,クラス間サンプルに高ランク制約を課すことにより,学習特徴量に対する最大マージン幾何学を構築した。
ZSLにおけるモデルの適応性と相反するオーバー/アンダーフィッティングを強化するために、サンプルワイドインジケータのセットを使用して、これらのベース線形ネットワークからスパースサブセットを選択して複合を形成する。
論文 参考訳(メタデータ) (2023-12-15T11:32:11Z) - A Unified Algebraic Perspective on Lipschitz Neural Networks [88.14073994459586]
本稿では,様々なタイプの1-Lipschitzニューラルネットワークを統一する新しい視点を提案する。
そこで本研究では,SDP(Common semidefinite Programming)条件の解析解を求めることによって,既存の多くの手法を導出し,一般化することができることを示す。
SDPベースのLipschitz Layers (SLL) と呼ばれる我々のアプローチは、非自明で効率的な凸ポテンシャル層の一般化を設計できる。
論文 参考訳(メタデータ) (2023-03-06T14:31:09Z) - Scaling Forward Gradient With Local Losses [117.22685584919756]
フォワード学習は、ディープニューラルネットワークを学ぶためのバックプロップに代わる生物学的に妥当な代替手段である。
重みよりも活性化に摂動を適用することにより、前方勾配のばらつきを著しく低減できることを示す。
提案手法はMNIST と CIFAR-10 のバックプロップと一致し,ImageNet 上で提案したバックプロップフリーアルゴリズムよりも大幅に優れていた。
論文 参考訳(メタデータ) (2022-10-07T03:52:27Z) - GSMFlow: Generation Shifts Mitigating Flow for Generalized Zero-Shot
Learning [55.79997930181418]
Generalized Zero-Shot Learningは、目に見えないクラスから見えないクラスに意味的な知識を移すことで、目に見えないクラスと見えないクラスの両方から画像を認識することを目的としている。
生成モデルの利点を生かして、見学したクラスから学んだ知識に基づいて、現実的な見知らぬサンプルを幻覚させることは、有望な解決策である。
本研究では,複数の条件付きアフィン結合層からなるフローベース生成フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-05T04:04:37Z) - Circular-Symmetric Correlation Layer based on FFT [11.634729459989996]
連続群 $S1 times mathbbR$ 上のロト変換同変相関の形式性に基づく円対称相関層 (CCL) を提案する。
各種の認識・分類タスク・データセットに対して,CCLを組み込んだ汎用ネットワークの性能解析を行った。
論文 参考訳(メタデータ) (2021-07-26T21:06:20Z) - ResNet-LDDMM: Advancing the LDDMM Framework Using Deep Residual Networks [86.37110868126548]
本研究では,eulerの離散化スキームに基づく非定常ode(フロー方程式)の解法として,深層残留ニューラルネットワークを用いた。
複雑なトポロジー保存変換の下での3次元形状の多種多様な登録問題について述べる。
論文 参考訳(メタデータ) (2021-02-16T04:07:13Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。