論文の概要: Pre-processing and Compression: Understanding Hidden Representation Refinement Across Imaging Domains via Intrinsic Dimension
- arxiv url: http://arxiv.org/abs/2408.08381v4
- Date: Mon, 21 Oct 2024 15:18:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-08 07:29:14.181110
- Title: Pre-processing and Compression: Understanding Hidden Representation Refinement Across Imaging Domains via Intrinsic Dimension
- Title(参考訳): プレプロセッシングと圧縮:内在次元を通した画像領域における隠れ表現再構成の理解
- Authors: Nicholas Konz, Maciej A. Mazurowski,
- Abstract要約: 医用画像モデルは,ネットワークの早期に表現IDがピークとなることを示す。
また、このピーク表現IDと入力空間内のデータのIDとの強い相関関係も見出す。
- 参考スコア(独自算出の注目度): 1.7495213911983414
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, there has been interest in how geometric properties such as intrinsic dimension (ID) of a neural network's hidden representations change through its layers, and how such properties are predictive of important model behavior such as generalization ability. However, evidence has begun to emerge that such behavior can change significantly depending on the domain of the network's training data, such as natural versus medical images. Here, we further this inquiry by exploring how the ID of a network's learned representations changes through its layers, in essence, characterizing how the network successively refines the information content of input data to be used for predictions. Analyzing eleven natural and medical image datasets across six network architectures, we find that how ID changes through the network differs noticeably between natural and medical image models. Specifically, medical image models peak in representation ID earlier in the network, implying a difference in the image features and their abstractness that are typically used for downstream tasks in these domains. Additionally, we discover a strong correlation of this peak representation ID with the ID of the data in its input space, implying that the intrinsic information content of a model's learned representations is guided by that of the data it was trained on. Overall, our findings emphasize notable discrepancies in network behavior between natural and non-natural imaging domains regarding hidden representation information content, and provide further insights into how a network's learned features are shaped by its training data.
- Abstract(参考訳): 近年,ニューラルネットワークの隠蔽表現の内在次元(ID)などの幾何学的特性が層を通してどのように変化するか,一般化能力などの重要なモデル行動を予測する方法が注目されている。
しかし、このような行動が自然画像や医用画像などのネットワークのトレーニングデータの領域によって大きく変化するという証拠が浮上し始めた。
ここでは,ネットワークの学習した表現のIDが階層を通してどのように変化するのかを,本質的には,ネットワークが予測に使用する入力データの情報内容を連続的に洗練するかを特徴付けることによって,この調査をさらに進める。
6つのネットワークアーキテクチャにまたがる11の自然画像と医療画像のデータセットを分析し、ネットワークを通してのIDの変化が、自然画像と医療画像のモデルとで顕著に異なることを発見した。
具体的には、医用画像モデルは、ネットワークの初期に表現IDがピークに達し、これらの領域の下流タスクに一般的に使用される画像特徴とそれらの抽象性の違いが示唆される。
さらに,このピーク表現IDと入力空間内のデータのIDとの強い相関関係を見出した。
全体として、本研究は、隠れ表現情報の内容に関する自然画像領域と非自然画像領域のネットワーク行動の顕著な相違を強調し、ネットワークの学習した特徴がトレーニングデータによってどのように形成されるかについて、さらなる知見を提供する。
関連論文リスト
- Cross-domain Variational Capsules for Information Extraction [0.0]
その意図は、データの顕著な特徴を特定し、この識別メカニズムを使用して、他の目に見えない領域のデータからインサイトを自動的に生成することであった。
可変オートエンコーダ(VAE)とカプセルネットワークを組み合わせた情報抽出アルゴリズムを提案する。
さまざまなドメインに属する画像の可視性を含むデータセットの数が減少していることに気付き、マルチドメイン画像特徴データセットが作成され、公開されている。
論文 参考訳(メタデータ) (2022-10-13T20:04:36Z) - Prune and distill: similar reformatting of image information along rat
visual cortex and deep neural networks [61.60177890353585]
深部畳み込み神経ネットワーク(CNN)は、脳の機能的類似、視覚野の腹側流の優れたモデルを提供することが示されている。
ここでは、CNNまたは視覚野の内部表現で知られているいくつかの顕著な統計的パターンについて考察する。
我々は、CNNと視覚野が、オブジェクト表現の次元展開/縮小と画像情報の再構成と、同様の密接な関係を持っていることを示す。
論文 参考訳(メタデータ) (2022-05-27T08:06:40Z) - Decomposing neural networks as mappings of correlation functions [57.52754806616669]
本研究では,ディープフィードフォワードネットワークによって実装された確率分布のマッピングについて検討する。
ニューラルネットワークで使用できる異なる情報表現と同様に、データに不可欠な統計を識別する。
論文 参考訳(メタデータ) (2022-02-10T09:30:31Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Transferring Knowledge with Attention Distillation for Multi-Domain
Image-to-Image Translation [28.272982411879845]
画像から画像への翻訳作業のための教師-学生パラダイムにおいて、勾配に基づく注意が伝達する知識としてどのように使われるかを示す。
また、教員と学生のネットワークが異なるドメインでトレーニングされている場合、トレーニング中に「疑似意識」が適用可能であることも示している。
論文 参考訳(メタデータ) (2021-08-17T06:47:04Z) - Joint Learning of Neural Transfer and Architecture Adaptation for Image
Recognition [77.95361323613147]
現在の最先端の視覚認識システムは、大規模データセット上でニューラルネットワークを事前トレーニングし、より小さなデータセットでネットワーク重みを微調整することに依存している。
本稿では,各ドメインタスクに適応したネットワークアーキテクチャの動的適応と,効率と効率の両面で重みの微調整の利点を実証する。
本手法は,ソースドメインタスクでスーパーネットトレーニングを自己教師付き学習に置き換え,下流タスクで線形評価を行うことにより,教師なしパラダイムに容易に一般化することができる。
論文 参考訳(メタデータ) (2021-03-31T08:15:17Z) - Characterization and recognition of handwritten digits using Julia [0.0]
我々は,MNISTデータセットの桁を認識可能なハイブリッドニューラルネットワークモデルを実装した。
提案したニューラルモデルネットワークは、画像から特徴を抽出し、層内の特徴を層ごとに認識することができる。
また、MNISTデータセットの自動エンコーディングシステムと変分自動エンコーディングシステムを認識することもできる。
論文 参考訳(メタデータ) (2021-02-24T00:30:41Z) - An analysis of the transfer learning of convolutional neural networks
for artistic images [1.9336815376402716]
巨大な自然画像データセットからのトランスファー学習は、アート分析アプリケーションの中核となっている。
本稿ではまず,ネットワークの内部表現を可視化する手法を用いて,ネットワークが芸術的イメージで何を学んだかを理解するための手がかりを提供する。
特徴空間とパラメータ空間の両方のメトリクスと、最大アクティベーション画像のセットで計算されたメトリクスのおかげで、学習プロセスが導入した変化を定量的に分析する。
論文 参考訳(メタデータ) (2020-11-05T09:45:32Z) - DoFE: Domain-oriented Feature Embedding for Generalizable Fundus Image
Segmentation on Unseen Datasets [96.92018649136217]
対象ドメインに対するCNNの一般化能力を向上させるために,新しいドメイン指向特徴埋め込み(DoFE)フレームワークを提案する。
私たちのDoFEフレームワークは、マルチソースドメインから学んだ追加のドメイン事前知識で、画像機能を動的に強化します。
本フレームワークは、未確認データセットのセグメンテーション結果を満足して生成し、他の領域の一般化やネットワークの正規化手法を超越する。
論文 参考訳(メタデータ) (2020-10-13T07:28:39Z) - Self-Supervised Discovery of Anatomical Shape Landmarks [5.693003993674883]
画像中のランドマークを自動的に位置決めし、検出し、その後の分析に使用できる自己教師型ニューラルネットワークアプローチを提案する。
本稿では,一組の入力画像のみを取り込み,統計的形状解析に即時に利用できるランドマークを生成する,完全なフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T00:56:33Z) - Ventral-Dorsal Neural Networks: Object Detection via Selective Attention [51.79577908317031]
我々はVDNet(Ventral-Dorsal Networks)と呼ばれる新しいフレームワークを提案する。
人間の視覚システムの構造にインスパイアされた我々は「Ventral Network」と「Dorsal Network」の統合を提案する。
実験の結果,提案手法は最先端の物体検出手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-15T23:57:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。