論文の概要: Imaging Conductivity from Current Density Magnitude using Neural
Networks
- arxiv url: http://arxiv.org/abs/2204.02441v1
- Date: Tue, 5 Apr 2022 18:31:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-07 15:27:35.583020
- Title: Imaging Conductivity from Current Density Magnitude using Neural
Networks
- Title(参考訳): ニューラルネットワークを用いた電流密度マグニチュードからのイメージング導電率
- Authors: Bangti Jin and Xiyao Li and Xiliang Lu
- Abstract要約: 内部電流密度から導電率を撮像するニューラルネットワークに基づく再構成手法を開発した。
この手法は,データノイズの存在に関して,顕著な堅牢性を持っていることが観察された。
- 参考スコア(独自算出の注目度): 1.8692254863855962
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Conductivity imaging represents one of the most important tasks in medical
imaging. In this work we develop a neural network based reconstruction
technique for imaging the conductivity from the magnitude of the internal
current density. It is achieved by formulating the problem as a relaxed
weighted least-gradient problem, and then approximating its minimizer by
standard fully connected feedforward neural networks. We derive bounds on two
components of the generalization error, i.e., approximation error and
statistical error, explicitly in terms of properties of the neural networks
(e.g., depth, total number of parameters, and the bound of the network
parameters). We illustrate the performance and distinct features of the
approach on several numerical experiments. Numerically, it is observed that the
approach enjoys remarkable robustness with respect to the presence of data
noise.
- Abstract(参考訳): 伝導率イメージングは、医療画像における最も重要なタスクの1つである。
本研究では,内部電流密度の大きさから導電率をイメージングするニューラルネットワークを用いた再構成手法を開発した。
緩和された重み付き最小勾配問題として問題を定式化し、標準の完全連結フィードフォワードニューラルネットワークによって最小値の近似を行うことで実現される。
一般化誤差の2つの成分、すなわち近似誤差と統計誤差に基づいて、ニューラルネットワークの特性(例えば、深さ、パラメータの総数、およびネットワークパラメータの境界)を明示的に導出する。
いくつかの数値実験において,本手法の性能と特徴について述べる。
数値的には、このアプローチはデータノイズの存在に関して著しく堅牢性が保たれていることが観察される。
関連論文リスト
- Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Addressing caveats of neural persistence with deep graph persistence [54.424983583720675]
神経の持続性に影響を与える主な要因は,ネットワークの重みのばらつきと大きな重みの空間集中である。
単一層ではなく,ニューラルネットワーク全体へのニューラルネットワークの持続性に基づくフィルタリングの拡張を提案する。
これにより、ネットワーク内の永続的なパスを暗黙的に取り込み、分散に関連する問題を緩和するディープグラフの永続性測定が得られます。
論文 参考訳(メタデータ) (2023-07-20T13:34:11Z) - Measure theoretic results for approximation by neural networks with
limited weights [0.0]
開区間から有限個の方向としきい値で重みが変化する単一層ニューラルネットワークの近似特性について検討した。
連続関数空間におけるそのようなネットワークの密度に関する必要十分かつ十分な測度理論条件を得る。
論文 参考訳(メタデータ) (2023-04-04T15:34:53Z) - Conductivity Imaging from Internal Measurements with Mixed Least-Squares
Deep Neural Networks [4.228167013618626]
我々は,楕円型問題における導電率分布を再構築するために,ディープニューラルネットワークを用いた新しいアプローチを開発した。
連続的および経験的損失の両方に対して、導電率の深いニューラルネットワーク近似を徹底的に分析する。
論文 参考訳(メタデータ) (2023-03-29T04:43:03Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Anomaly Detection in Image Datasets Using Convolutional Neural Networks,
Center Loss, and Mahalanobis Distance [0.0]
ユーザーアクティビティは、品質や無関係な画像やデータベクターのかなりの数を生成します。
ニューラルネットワークの場合、異常は通常分布外サンプルとして定義される。
本研究では,画像データセットにおける非分布サンプルの監督的および半監督的検出手法を提案する。
論文 参考訳(メタデータ) (2021-04-13T13:44:03Z) - Topological obstructions in neural networks learning [67.8848058842671]
損失勾配関数フローのグローバル特性について検討する。
損失関数とそのモースコンプレックスの位相データ解析を用いて,損失面の大域的特性と勾配軌道に沿った局所的挙動を関連付ける。
論文 参考訳(メタデータ) (2020-12-31T18:53:25Z) - The Representation Power of Neural Networks: Breaking the Curse of
Dimensionality [0.0]
浅層および深層ニューラルネットワークの量に対する上限を証明します。
我々はさらに、これらの境界がコロボフ函数を近似するために必要となる連続関数近似器の最小パラメータ数にほぼ一致することを証明した。
論文 参考訳(メタデータ) (2020-12-10T04:44:07Z) - Compressive sensing with un-trained neural networks: Gradient descent
finds the smoothest approximation [60.80172153614544]
訓練されていない畳み込みニューラルネットワークは、画像の回復と復元に非常に成功したツールとして登場した。
トレーニングされていない畳み込みニューラルネットワークは、ほぼ最小限のランダムな測定値から、十分に構造化された信号や画像を概ね再構成可能であることを示す。
論文 参考訳(メタデータ) (2020-05-07T15:57:25Z) - Beyond Dropout: Feature Map Distortion to Regularize Deep Neural
Networks [107.77595511218429]
本稿では,ディープニューラルネットワークの中間層に関連する実験的なRademacher複雑性について検討する。
上記の問題に対処するための特徴歪み法(Disout)を提案する。
より高い試験性能を有するディープニューラルネットワークを作製するための特徴写像歪みの優位性を解析し、実証した。
論文 参考訳(メタデータ) (2020-02-23T13:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。