論文の概要: Connections between Operator-splitting Methods and Deep Neural Networks
with Applications in Image Segmentation
- arxiv url: http://arxiv.org/abs/2307.09052v2
- Date: Mon, 9 Oct 2023 14:32:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-13 05:49:22.548109
- Title: Connections between Operator-splitting Methods and Deep Neural Networks
with Applications in Image Segmentation
- Title(参考訳): 演算子分割法と深部ニューラルネットワークの接続と画像分割への応用
- Authors: Hao Liu, Xue-Cheng Tai, Raymond Chan
- Abstract要約: ディープニューラルネットワークと数学的アルゴリズムの接続方法はまだ開発中だ。
ディープニューラルネットワークについて,特に演算子分割との接続において,アルゴリズムによる説明を行う。
Pottsモデルを解く演算子分割法に着想を得た2つのネットワークを提案する。
- 参考スコア(独自算出の注目度): 7.668812831777923
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural network is a powerful tool for many tasks. Understanding why it
is so successful and providing a mathematical explanation is an important
problem and has been one popular research direction in past years. In the
literature of mathematical analysis of deep neural networks, a lot of works is
dedicated to establishing representation theories. How to make connections
between deep neural networks and mathematical algorithms is still under
development. In this paper, we give an algorithmic explanation for deep neural
networks, especially in their connections with operator splitting. We show that
with certain splitting strategies, operator-splitting methods have the same
structure as networks. Utilizing this connection and the Potts model for image
segmentation, two networks inspired by operator-splitting methods are proposed.
The two networks are essentially two operator-splitting algorithms solving the
Potts model. Numerical experiments are presented to demonstrate the
effectiveness of the proposed networks.
- Abstract(参考訳): ディープニューラルネットワークは多くのタスクに強力なツールである。
なぜそれが成功し、数学的説明を提供するのかを理解することは重要な問題であり、過去数年間で人気のある研究の方向性であった。
ディープニューラルネットワークの数学的解析の文献では、表現理論の確立に多くの研究が費やされている。
ディープニューラルネットワークと数学的アルゴリズムの接続方法はまだ開発中だ。
本稿では,深層ニューラルネットワーク,特に演算子分割との関連について,アルゴリズムによる説明を行う。
特定の分割戦略により、演算子分割法はネットワークと同じ構造を持つことを示す。
この接続とPottsモデルを用いて,演算子分割法に着想を得た2つのネットワークを提案する。
2つのネットワークは、Pottsモデルを解く2つの演算子分割アルゴリズムである。
提案するネットワークの有効性を実証するために数値実験を行った。
関連論文リスト
- Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Double-well Net for Image Segmentation [10.424879461404581]
ダブルウェルネット(Double-well Nets)として知られる画像セグメンテーションのための2つの新しいディープニューラルネットワークモデルを導入する。
Pottsモデルからインスピレーションを得た私たちのモデルは、ニューラルネットワークを活用して、領域の力関数を表現する。
本稿では,2重井戸網の性能を実証し,最先端のニューラルネットワークと比較して精度と堅牢性を示した。
論文 参考訳(メタデータ) (2023-12-31T11:16:12Z) - Image segmentation with traveling waves in an exactly solvable recurrent
neural network [71.74150501418039]
繰り返しニューラルネットワークは、シーンの構造特性に応じて、画像をグループに効果的に分割できることを示す。
本稿では,このネットワークにおけるオブジェクトセグメンテーションのメカニズムを正確に記述する。
次に、グレースケール画像中の単純な幾何学的対象から自然画像まで、入力をまたいで一般化するオブジェクトセグメンテーションの簡単なアルゴリズムを実証する。
論文 参考訳(メタデータ) (2023-11-28T16:46:44Z) - PottsMGNet: A Mathematical Explanation of Encoder-Decoder Based Neural
Networks [7.668812831777923]
アルゴリズムの観点から,エンコーダ・デコーダに基づくネットワークアーキテクチャについて検討する。
画像分割には2相ポッツモデルを用いる。
離散的なPottsMGNetはエンコーダ-デコーダベースネットワークと等価であることを示す。
論文 参考訳(メタデータ) (2023-07-18T07:48:48Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - The Connection Between Approximation, Depth Separation and Learnability
in Neural Networks [70.55686685872008]
学習可能性と近似能力の関係について検討する。
対象関数の深いネットワークでの学習性は、より単純なクラスがターゲットを近似する能力に依存することを示す。
論文 参考訳(メタデータ) (2021-01-31T11:32:30Z) - Feature Sharing Cooperative Network for Semantic Segmentation [10.305130700118399]
協調学習を用いた意味セグメンテーション手法を提案する。
特徴マップを共有することにより、2つのネットワークのうちの1つが1つのネットワークで取得できない情報を得ることができる。
提案手法は従来の単一ネットワークやネットワークアンサンブルよりも高いセグメンテーション精度を実現した。
論文 参考訳(メタデータ) (2021-01-20T00:22:00Z) - NAS-Navigator: Visual Steering for Explainable One-Shot Deep Neural
Network Synthesis [53.106414896248246]
本稿では,分析者がドメイン知識を注入することで,解のサブグラフ空間を効果的に構築し,ネットワーク探索をガイドするフレームワークを提案する。
このテクニックを反復的に適用することで、アナリストは、与えられたアプリケーションに対して最高のパフォーマンスのニューラルネットワークアーキテクチャに収束することができる。
論文 参考訳(メタデータ) (2020-09-28T01:48:45Z) - The Representation Theory of Neural Networks [7.724617675868718]
ニューラルネットワークは、量子表現の数学的理論によって表現できることを示す。
ネットワーククイバーが共通のニューラルネットワークの概念に優しく適応していることを示します。
また、ニューラルネットワークがデータから表現を生成する方法を理解するためのクイバー表現モデルも提供します。
論文 参考訳(メタデータ) (2020-07-23T19:02:14Z) - Deep Representation Learning For Multimodal Brain Networks [9.567489601729328]
本稿では,マルチモーダル脳ネットワークを融合させるために,エンドツーエンドの深層グラフ表現学習(Deep Multimodal Brain Networks - DMBN)を提案する。
脳構造ネットワークから機能ネットワークへの高階ネットワークマッピングはノード領域で学習される。
実験結果は,提案手法が他の最先端の深層脳ネットワークモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-07-19T20:32:05Z) - ESPN: Extremely Sparse Pruned Networks [50.436905934791035]
簡単な反復マスク探索法により,非常に深いネットワークの最先端の圧縮を実現することができることを示す。
本アルゴリズムは,シングルショット・ネットワーク・プルーニング法とロッテ・ティケット方式のハイブリッド・アプローチを示す。
論文 参考訳(メタデータ) (2020-06-28T23:09:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。