論文の概要: Analysis of Information Flow Through U-Nets
- arxiv url: http://arxiv.org/abs/2101.08427v1
- Date: Thu, 21 Jan 2021 03:53:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-21 07:59:56.850657
- Title: Analysis of Information Flow Through U-Nets
- Title(参考訳): U-Netによる情報フローの解析
- Authors: Suemin Lee and Ivan V. Baji\'c
- Abstract要約: 情報理論ツールを使用して、U-Netによる情報フローの洞察を得ます。
入力/出力層と中間層間の相互情報がどのようにU-Netの様々な部分を通る情報フローを理解するのに有用なツールとなるかを示す。
- 参考スコア(独自算出の注目度): 26.24508656138528
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks (DNNs) have become ubiquitous in medical image
processing and analysis. Among them, U-Nets are very popular in various image
segmentation tasks. Yet, little is known about how information flows through
these networks and whether they are indeed properly designed for the tasks they
are being proposed for. In this paper, we employ information-theoretic tools in
order to gain insight into information flow through U-Nets. In particular, we
show how mutual information between input/output and an intermediate layer can
be a useful tool to understand information flow through various portions of a
U-Net, assess its architectural efficiency, and even propose more efficient
designs.
- Abstract(参考訳): ディープニューラルネットワーク(Deep Neural Networks, DNN)は、医用画像処理と分析においてユビキタスである。
U-Netは様々な画像分割タスクで非常に人気がある。
しかし、これらのネットワークを通して情報がどのように流れるのか、そして彼らが実際に提案されているタスクのために適切に設計されているかどうかについてはほとんど知られていない。
本稿では,U-Netを介する情報フローの洞察を得るために,情報理論ツールを用いる。
特に,入力/出力層と中間層の間の相互情報がどのように,U-Netの様々な部分を通過する情報の流れを理解し,そのアーキテクチャ効率を評価し,より効率的な設計を提案するのに役立つかを示す。
関連論文リスト
- Enhancing Neural Network Interpretability Through Conductance-Based Information Plane Analysis [0.0]
インフォメーションプレーン(Information Plane)は、ニューラルネットワーク内の情報の流れを分析するための概念的フレームワークである。
本稿では,入力特徴に対する感度尺度であるレイヤコンダクタンスを用いて情報平面解析を強化する手法を提案する。
論文 参考訳(メタデータ) (2024-08-26T23:10:42Z) - Enhancing Small Object Encoding in Deep Neural Networks: Introducing
Fast&Focused-Net with Volume-wise Dot Product Layer [0.0]
我々は、小さなオブジェクトを固定長特徴ベクトルに符号化するのに適した、新しいディープニューラルネットワークアーキテクチャであるFast&Focused-Netを紹介する。
Fast&Focused-Netは、CNNのいくつかの固有の制限に対処するために設計された、新たに提案された一連のレイヤであるVDP(Volume-wise Dot Product)レイヤを採用しています。
CIFAR-10, CIFAR-100, STL-10, SVHN-Cropped, Fashion-MNISTなどのデータセットでは, オブジェクト分類タスクにおいて, ネットワークが最先端の手法よりも優れていた。
画像分類における変換器エンコーダ(ViT)と組み合わせた場合
論文 参考訳(メタデータ) (2024-01-18T09:31:25Z) - Deep Internal Learning: Deep Learning from a Single Input [88.59966585422914]
多くの場合、手元にある入力からネットワークをトレーニングする価値がある。
これは、トレーニングデータが少なく、多様性が大きい多くの信号および画像処理問題に特に関係している。
本研究の目的は,この2つの重要な方向に向けて,過去数年間に提案されてきた深層学習技術について報告することである。
論文 参考訳(メタデータ) (2023-12-12T16:48:53Z) - Deep Multi-Threshold Spiking-UNet for Image Processing [51.88730892920031]
本稿では,SNN(Spike Neural Networks)とU-Netアーキテクチャを組み合わせた,画像処理のためのスパイキング-UNetの概念を紹介する。
効率的なスパイキング-UNetを実現するためには,スパイクによる高忠実度情報伝播の確保と,効果的なトレーニング戦略の策定という2つの課題に直面する。
実験の結果,画像のセグメンテーションとデノイングにおいて,スパイキングUNetは非スパイキングと同等の性能を発揮することがわかった。
論文 参考訳(メタデータ) (2023-07-20T16:00:19Z) - Designing Deep Networks for Scene Recognition [3.493180651702109]
ネットワーク設計において広く受け入れられている原則を実証するために、広範な実験を行い、データを変更すると劇的な性能差が生じる可能性があることを実証する。
本稿では,データ指向ネットワーク設計という新しいネットワーク設計手法を提案する。
本稿では,半分未満の計算資源を用いてシーン認識性能を向上させるディープ・ナロー・ネットワークとDilated Poolingモジュールを提案する。
論文 参考訳(メタデータ) (2023-03-13T18:28:06Z) - Influencer Detection with Dynamic Graph Neural Networks [56.1837101824783]
インフルエンサー検出のための動的グラフニューラルネットワーク(GNN)の構成について検討する。
GNNにおける深層多面的注意と時間特性の符号化が性能を著しく向上させることを示す。
論文 参考訳(メタデータ) (2022-11-15T13:00:25Z) - Mutual information estimation for graph convolutional neural networks [0.0]
本稿では,学習中にネットワークの内部表現を追跡するアーキテクチャに依存しない手法を提案する。
グラフベースアーキテクチャで導入された帰納バイアスが、完全に接続されたニューラルネットワークに対して相互情報平面をどのように変化させるかを比較する。
論文 参考訳(メタデータ) (2022-03-31T08:30:04Z) - Towards Interpretable Deep Networks for Monocular Depth Estimation [78.84690613778739]
我々は,深部MDEネットワークの解釈可能性について,その隠蔽ユニットの深さ選択性を用いて定量化する。
本稿では,解釈可能なMDE深層ネットワークを,元のアーキテクチャを変更することなく学習する手法を提案する。
実験により,本手法は深部MDEネットワークの解釈可能性を向上させることができることが示された。
論文 参考訳(メタデータ) (2021-08-11T16:43:45Z) - Ventral-Dorsal Neural Networks: Object Detection via Selective Attention [51.79577908317031]
我々はVDNet(Ventral-Dorsal Networks)と呼ばれる新しいフレームワークを提案する。
人間の視覚システムの構造にインスパイアされた我々は「Ventral Network」と「Dorsal Network」の統合を提案する。
実験の結果,提案手法は最先端の物体検出手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-15T23:57:36Z) - WW-Nets: Dual Neural Networks for Object Detection [48.67090730174743]
ネットワーク接続重みの暗黙的なオブジェクト位置知識を用いて、オブジェクト検出タスクにおける選択的注意を誘導する、新しいディープ畳み込みニューラルネットワークフレームワークを提案する。
我々のアプローチはWhat-Where Nets (WW-Nets)と呼ばれ、人間の視覚経路の構造にインスパイアされている。
論文 参考訳(メタデータ) (2020-05-15T21:16:22Z) - Unpacking Information Bottlenecks: Unifying Information-Theoretic
Objectives in Deep Learning [41.99004805664721]
Information Bottleneck原則は、ディープニューラルネットワークのトレーニングと一般化方法を説明するメカニズムを提供する。
複数の競合する目的が文献で提案されており、これらの目的に使用される情報理論量の計算は困難である。
我々は,密度推定などの煩雑なツールに頼ることなく,最適化に親しみやすいサロゲート目標を開発する。
論文 参考訳(メタデータ) (2020-03-27T17:05:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。