論文の概要: Deep Kronecker Network
- arxiv url: http://arxiv.org/abs/2210.13327v1
- Date: Mon, 24 Oct 2022 15:28:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 13:19:45.093927
- Title: Deep Kronecker Network
- Title(参考訳): Deep Kronecker Network
- Authors: Long Feng and Guang Yang
- Abstract要約: 本稿では,MRI,fMRI,CTなどの医用画像データを解析するための新しい枠組みを提案する。
Deep Kronecker Network (DKN)は、サンプルサイズを小さくし、望ましいモデル解釈を提供し、CNNとして予測能力を達成する。
- 参考スコア(独自算出の注目度): 2.0223555288901105
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose Deep Kronecker Network (DKN), a novel framework designed for
analyzing medical imaging data, such as MRI, fMRI, CT, etc. Medical imaging
data is different from general images in at least two aspects: i) sample size
is usually much more limited, ii) model interpretation is more of a concern
compared to outcome prediction. Due to its unique nature, general methods, such
as convolutional neural network (CNN), are difficult to be directly applied. As
such, we propose DKN, that is able to i) adapt to low sample size limitation,
ii) provide desired model interpretation, and iii) achieve the prediction power
as CNN. The DKN is general in the sense that it not only works for both matrix
and (high-order) tensor represented image data, but also could be applied to
both discrete and continuous outcomes. The DKN is built on a Kronecker product
structure and implicitly imposes a piecewise smooth property on coefficients.
Moreover, the Kronecker structure can be written into a convolutional form, so
DKN also resembles a CNN, particularly, a fully convolutional network (FCN).
Furthermore, we prove that with an alternating minimization algorithm, the
solutions of DKN are guaranteed to converge to the truth geometrically even if
the objective function is highly nonconvex. Interestingly, the DKN is also
highly connected to the tensor regression framework proposed by Zhou et al.
(2010), where a CANDECOMP/PARAFAC (CP) low-rank structure is imposed on tensor
coefficients. Finally, we conduct both classification and regression analyses
using real MRI data from the Alzheimer's Disease Neuroimaging Initiative (ADNI)
to demonstrate the effectiveness of DKN.
- Abstract(参考訳): 我々は,MRI,fMRI,CTなどの医用画像データを解析するための新しいフレームワークであるDeep Kronecker Network (DKN)を提案する。
医用画像データは、少なくとも2つの点で一般的な画像とは異なる。
i) サンプルサイズは通常、はるかに制限されている。
二 モデル解釈は、結果予測よりも、より関心事である。
独自の性質のため、畳み込みニューラルネットワーク(CNN)のような一般的な手法を直接適用することは困難である。
そこで我々はdknを提案しました
一 サンプルサイズ制限の低さに適応すること。
二 所望のモデル解釈を提供すること、及び
三 CNNの予測能力を達成すること。
DKNは一般に、行列と(高次)テンソル表現された画像データの両方に作用するだけでなく、離散的および連続的な結果にも適用することができる。
DKN は Kronecker の積構造の上に構築され、係数に対して暗黙的に滑らかな性質を課す。
さらに、クロネッカー構造は畳み込み形式に書けるので、DKNはCNN、特に完全な畳み込みネットワーク(FCN)にも似ている。
さらに、反復最小化アルゴリズムにより、DKNの解は、目的関数が極めて非凸である場合でも、幾何学的に真理に収束することが保証される。
興味深いことに、DKNは Zhou et al. (2010) によって提案されたテンソル回帰フレームワークと強く結びついており、CANDECOMP/PARAFAC (CP) 低ランク構造がテンソル係数に課される。
最後に、アルツハイマー病神経画像イニシアチブ(ADNI)の実際のMRIデータを用いて分類と回帰分析を行い、DKNの有効性を実証する。
関連論文リスト
- Canonical Correlation Guided Deep Neural Network [14.188285111418516]
深層ニューラルネットワーク(CCDNN)により実現可能な標準相関学習フレームワークを提案する。
提案手法では、最適化の定式化は相関を最大化するために制限されず、代わりに正規相関を制約として行う。
相関による冗長性を低減するために、冗長性フィルタを設計する。
論文 参考訳(メタデータ) (2024-09-28T16:08:44Z) - Beyond Unconstrained Features: Neural Collapse for Shallow Neural Networks with General Data [0.8594140167290099]
ニューラル崩壊(Neural collapse, NC)は、ディープ・ニューラル・ネットワーク(DNN)の終末期に発生する現象である。
2層または3層ニューラルネットワークでNCが発生した場合の完全な特徴付けを提供する。
論文 参考訳(メタデータ) (2024-09-03T12:30:21Z) - Compact & Capable: Harnessing Graph Neural Networks and Edge Convolution
for Medical Image Classification [0.0]
本稿では,重要なグラフノード間の接続を強く表現するために,RGBチャネルの特徴値の相互接続性を活用し,GNNとエッジ畳み込みを組み合わせた新しいモデルを提案する。
提案モデルでは,最新のDeep Neural Networks (DNN) と同等に動作するが,1000倍のパラメータが減少し,トレーニング時間とデータ要求が短縮される。
論文 参考訳(メタデータ) (2023-07-24T13:39:21Z) - Parameter Convex Neural Networks [13.42851919291587]
本研究では,ある条件下でのニューラルネットワークのパラメータに関して凸である指数的多層ニューラルネットワーク(EMLP)を提案する。
後期実験では,指数グラフ畳み込みネットワーク(EGCN)を同じアーキテクチャで構築し,グラフ分類データセット上で実験を行う。
論文 参考訳(メタデータ) (2022-06-11T16:44:59Z) - InDuDoNet+: A Model-Driven Interpretable Dual Domain Network for Metal
Artifact Reduction in CT Images [53.4351366246531]
InDuDoNet+と呼ばれる新しい解釈可能な二重ドメインネットワークを構築し、CT画像の微細な埋め込みを行う。
異なる組織間のCT値を分析し,InDuDoNet+の事前観測ネットワークにマージすることで,その一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-12-23T15:52:37Z) - An Uncertainty-Driven GCN Refinement Strategy for Organ Segmentation [53.425900196763756]
本研究では,不確実性解析とグラフ畳み込みネットワークに基づくセグメンテーション改善手法を提案する。
半教師付きグラフ学習問題を定式化するために、特定の入力ボリュームにおける畳み込みネットワークの不確実性レベルを用いる。
本手法は膵臓で1%,脾臓で2%向上し,最先端のCRF改善法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-06T18:55:07Z) - Learning Deep Interleaved Networks with Asymmetric Co-Attention for
Image Restoration [65.11022516031463]
本稿では,高品質(本社)画像再構成のために,異なる状態の情報をどのように組み合わせるべきかを学習するディープインターリーブドネットワーク(DIN)を提案する。
本稿では,各インターリーブノードにアタッチメントされた非対称なコアテンション(AsyCA)を提案し,その特性依存性をモデル化する。
提案したDINはエンドツーエンドで訓練でき、様々な画像復元タスクに適用できる。
論文 参考訳(メタデータ) (2020-10-29T15:32:00Z) - ACDC: Weight Sharing in Atom-Coefficient Decomposed Convolution [57.635467829558664]
我々は,CNNにおいて,畳み込みカーネル間の構造正則化を導入する。
我々はCNNがパラメータや計算量を劇的に減らして性能を維持していることを示す。
論文 参考訳(メタデータ) (2020-09-04T20:41:47Z) - Operational vs Convolutional Neural Networks for Image Denoising [25.838282412957675]
畳み込みニューラルネットワーク(CNN)は近年,適応学習能力により画像デノナイズ技術として好まれている。
データ変換のコアに新たな非線形性を埋め込むための柔軟性を向上するヘテロジニアスネットワークモデルを提案する。
ONNとCNNの比較評価は、線形演算子に富んだONNが等価かつよく知られた深層構成のCNNに対して優れたノイズ発生性能を達成できるという決定的な証拠が得られる。
論文 参考訳(メタデータ) (2020-09-01T12:15:28Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Revealing the Structure of Deep Neural Networks via Convex Duality [70.15611146583068]
我々は,正規化深層ニューラルネットワーク(DNN)について検討し,隠蔽層の構造を特徴付ける凸解析フレームワークを導入する。
正規正規化学習問題に対する最適隠蔽層重みの集合が凸集合の極点として明確に見出されることを示す。
ホワイトデータを持つ深部ReLUネットワークに同じ特徴を応用し、同じ重み付けが成り立つことを示す。
論文 参考訳(メタデータ) (2020-02-22T21:13:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。