論文の概要: Analysis of Information Flow Through U-Nets
- arxiv url: http://arxiv.org/abs/2101.08427v1
- Date: Thu, 21 Jan 2021 03:53:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-21 07:59:56.850657
- Title: Analysis of Information Flow Through U-Nets
- Title(参考訳): U-Netによる情報フローの解析
- Authors: Suemin Lee and Ivan V. Baji\'c
- Abstract要約: 情報理論ツールを使用して、U-Netによる情報フローの洞察を得ます。
入力/出力層と中間層間の相互情報がどのようにU-Netの様々な部分を通る情報フローを理解するのに有用なツールとなるかを示す。
- 参考スコア(独自算出の注目度): 26.24508656138528
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks (DNNs) have become ubiquitous in medical image
processing and analysis. Among them, U-Nets are very popular in various image
segmentation tasks. Yet, little is known about how information flows through
these networks and whether they are indeed properly designed for the tasks they
are being proposed for. In this paper, we employ information-theoretic tools in
order to gain insight into information flow through U-Nets. In particular, we
show how mutual information between input/output and an intermediate layer can
be a useful tool to understand information flow through various portions of a
U-Net, assess its architectural efficiency, and even propose more efficient
designs.
- Abstract(参考訳): ディープニューラルネットワーク(Deep Neural Networks, DNN)は、医用画像処理と分析においてユビキタスである。
U-Netは様々な画像分割タスクで非常に人気がある。
しかし、これらのネットワークを通して情報がどのように流れるのか、そして彼らが実際に提案されているタスクのために適切に設計されているかどうかについてはほとんど知られていない。
本稿では,U-Netを介する情報フローの洞察を得るために,情報理論ツールを用いる。
特に,入力/出力層と中間層の間の相互情報がどのように,U-Netの様々な部分を通過する情報の流れを理解し,そのアーキテクチャ効率を評価し,より効率的な設計を提案するのに役立つかを示す。
関連論文リスト
- Enhancing Small Object Encoding in Deep Neural Networks: Introducing
Fast&Focused-Net with Volume-wise Dot Product Layer [0.0]
我々は、小さなオブジェクトを固定長特徴ベクトルに符号化するのに適した、新しいディープニューラルネットワークアーキテクチャであるFast&Focused-Netを紹介する。
Fast&Focused-Netは、CNNのいくつかの固有の制限に対処するために設計された、新たに提案された一連のレイヤであるVDP(Volume-wise Dot Product)レイヤを採用しています。
CIFAR-10, CIFAR-100, STL-10, SVHN-Cropped, Fashion-MNISTなどのデータセットでは, オブジェクト分類タスクにおいて, ネットワークが最先端の手法よりも優れていた。
画像分類における変換器エンコーダ(ViT)と組み合わせた場合
論文 参考訳(メタデータ) (2024-01-18T09:31:25Z) - Deep Spiking-UNet for Image Processing [101.4553345195388]
本稿では,SNN(Spike Neural Networks)とU-Netアーキテクチャを組み合わせた,画像処理のためのスパイキング-UNetの概念を紹介する。
効率的なスパイキング-UNetを実現するためには,スパイクによる高忠実度情報伝播の確保と,効果的なトレーニング戦略の策定という2つの課題に直面する。
実験の結果,画像のセグメンテーションとデノイングにおいて,スパイキングUNetは非スパイキングと同等の性能を発揮することがわかった。
論文 参考訳(メタデータ) (2023-07-20T16:00:19Z) - Designing Deep Networks for Scene Recognition [3.493180651702109]
ネットワーク設計において広く受け入れられている原則を実証するために、広範な実験を行い、データを変更すると劇的な性能差が生じる可能性があることを実証する。
本稿では,データ指向ネットワーク設計という新しいネットワーク設計手法を提案する。
本稿では,半分未満の計算資源を用いてシーン認識性能を向上させるディープ・ナロー・ネットワークとDilated Poolingモジュールを提案する。
論文 参考訳(メタデータ) (2023-03-13T18:28:06Z) - Influencer Detection with Dynamic Graph Neural Networks [56.1837101824783]
インフルエンサー検出のための動的グラフニューラルネットワーク(GNN)の構成について検討する。
GNNにおける深層多面的注意と時間特性の符号化が性能を著しく向上させることを示す。
論文 参考訳(メタデータ) (2022-11-15T13:00:25Z) - Mutual information estimation for graph convolutional neural networks [0.0]
本稿では,学習中にネットワークの内部表現を追跡するアーキテクチャに依存しない手法を提案する。
グラフベースアーキテクチャで導入された帰納バイアスが、完全に接続されたニューラルネットワークに対して相互情報平面をどのように変化させるかを比較する。
論文 参考訳(メタデータ) (2022-03-31T08:30:04Z) - Towards Interpretable Deep Networks for Monocular Depth Estimation [78.84690613778739]
我々は,深部MDEネットワークの解釈可能性について,その隠蔽ユニットの深さ選択性を用いて定量化する。
本稿では,解釈可能なMDE深層ネットワークを,元のアーキテクチャを変更することなく学習する手法を提案する。
実験により,本手法は深部MDEネットワークの解釈可能性を向上させることができることが示された。
論文 参考訳(メタデータ) (2021-08-11T16:43:45Z) - GDDR: GNN-based Data-Driven Routing [0.0]
グラフニューラルネットワーク(GNN)を用いたアプローチは、多層パーセプトロンアーキテクチャを用いた以前の作業と同様に、少なくとも実行できることを示した。
GNNには、トレーニングされたエージェントを、余分な作業なしで異なるネットワークトポロジに一般化できるというメリットが加えられている。
論文 参考訳(メタデータ) (2021-04-20T12:12:17Z) - Understanding the Role of Individual Units in a Deep Neural Network [85.23117441162772]
本稿では,画像分類と画像生成ネットワーク内の隠れ単位を系統的に同定する分析フレームワークを提案する。
まず、シーン分類に基づいて訓練された畳み込みニューラルネットワーク(CNN)を分析し、多様なオブジェクト概念にマッチするユニットを発見する。
第2に、シーンを生成するために訓練されたGANモデルについて、同様の分析手法を用いて分析する。
論文 参考訳(メタデータ) (2020-09-10T17:59:10Z) - Ventral-Dorsal Neural Networks: Object Detection via Selective Attention [51.79577908317031]
我々はVDNet(Ventral-Dorsal Networks)と呼ばれる新しいフレームワークを提案する。
人間の視覚システムの構造にインスパイアされた我々は「Ventral Network」と「Dorsal Network」の統合を提案する。
実験の結果,提案手法は最先端の物体検出手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-15T23:57:36Z) - WW-Nets: Dual Neural Networks for Object Detection [48.67090730174743]
ネットワーク接続重みの暗黙的なオブジェクト位置知識を用いて、オブジェクト検出タスクにおける選択的注意を誘導する、新しいディープ畳み込みニューラルネットワークフレームワークを提案する。
我々のアプローチはWhat-Where Nets (WW-Nets)と呼ばれ、人間の視覚経路の構造にインスパイアされている。
論文 参考訳(メタデータ) (2020-05-15T21:16:22Z) - Unpacking Information Bottlenecks: Unifying Information-Theoretic
Objectives in Deep Learning [41.99004805664721]
Information Bottleneck原則は、ディープニューラルネットワークのトレーニングと一般化方法を説明するメカニズムを提供する。
複数の競合する目的が文献で提案されており、これらの目的に使用される情報理論量の計算は困難である。
我々は,密度推定などの煩雑なツールに頼ることなく,最適化に親しみやすいサロゲート目標を開発する。
論文 参考訳(メタデータ) (2020-03-27T17:05:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。