論文の概要: Quantitative reconstruction of defects in multi-layered bonded
composites using fully convolutional network-based ultrasonic inversion
- arxiv url: http://arxiv.org/abs/2109.07284v1
- Date: Sat, 11 Sep 2021 10:34:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-17 10:41:20.183121
- Title: Quantitative reconstruction of defects in multi-layered bonded
composites using fully convolutional network-based ultrasonic inversion
- Title(参考訳): 完全畳み込み型超音波インバージョンによる多層ボンド複合材料の欠陥の定量的再構成
- Authors: Jing Rao, Fangshu Yang, Huadong Mo, Stefan Kollmannsberger, Ernst Rank
- Abstract要約: 本研究では, 接着複合材料に隠れた欠陥を定量的に再構築するために, 教師付き完全畳み込みネットワーク(FCN)に基づく超音波法を提案する。
FCNベースの逆転法は多層複合材料において有用な特徴を自動的に抽出することができる。
その結果, FCNを用いた超音波インバージョン法は, 高コントラスト欠陥の超音波速度モデルを正確に再構成できることがわかった。
- 参考スコア(独自算出の注目度): 0.26249027950824505
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ultrasonic methods have great potential applications to detect and
characterize defects in multi-layered bonded composites. However, it remains
challenging to quantitatively reconstruct defects, such as disbonds and kissing
bonds, that influence the integrity of adhesive bonds and seriously reduce the
strength of assemblies. In this work, an ultrasonic method based on the
supervised fully convolutional network (FCN) is proposed to quantitatively
reconstruct defects hidden in multi-layered bonded composites. In the training
process of this method, an FCN establishes a non-linear mapping from measured
ultrasonic data to the corresponding velocity models of multi-layered bonded
composites. In the predicting process, the trained network obtained from the
training process is used to directly reconstruct the velocity models from the
new measured ultrasonic data of adhesively bonded composites. The presented
FCN-based inversion method can automatically extract useful features in
multi-layered composites. Although this method is computationally expensive in
the training process, the prediction itself in the online phase takes only
seconds. The numerical results show that the FCN-based ultrasonic inversion
method is capable to accurately reconstruct ultrasonic velocity models of the
high contrast defects, which has great potential for online detection of
adhesively bonded composites.
- Abstract(参考訳): 超音波法は多層ボンド複合材料における欠陥の検出と特性評価に非常に有用である。
しかし, 接着性結合の完全性に影響を与え, 集合体の強度を著しく低下させるような, 脱結合やキス結合などの欠陥を定量的に再構築することは依然として困難である。
本研究では,多層複合材料に隠れた欠陥を定量的に再構築するために,教師付き完全畳み込みネットワーク(FCN)に基づく超音波法を提案する。
この方法の訓練過程において,FCNは測定された超音波データから多層接着複合材料の対応する速度モデルへの非線形マッピングを確立する。
予測プロセスでは, 接着性複合材料の新しい測定超音波データから速度モデルを直接再構成するために, 訓練過程から得られたトレーニングネットワークを用いる。
提案手法は多層複合材料の有用な特徴を自動的に抽出する。
この方法はトレーニングプロセスでは計算コストがかかるが、オンラインフェーズでの予測自体は数秒しかかからない。
その結果, FCNを用いた超音波インバージョン法は, 高コントラスト欠陥の超音波速度モデルを高精度に再構成できることがわかった。
関連論文リスト
- Multi-frequency Neural Born Iterative Method for Solving 2-D Inverse Scattering Problems [3.171666227612361]
多周波電磁逆散乱問題(ISP)に対処する深層学習に基づくイメージング手法を提案する。
深層学習技術とEM物理法則を組み合わせることで,多周波ニューラルボルン反復法(Neural BIM)の開発に成功した。
多周波ニューラルBIMの有効性は、ISPを解くための精度と計算効率の向上を実証し、合成および実験データを通して検証する。
論文 参考訳(メタデータ) (2024-09-02T15:16:07Z) - Improving Diffusion Inverse Problem Solving with Decoupled Noise Annealing [84.97865583302244]
本稿では,新しいノイズアニーリングプロセスに依存するDAPS (Decoupled Annealing Posterior Sampling) 法を提案する。
DAPSは、複数の画像復元タスクにおけるサンプル品質と安定性を著しく改善する。
例えば、フェーズ検索のためのFFHQ 256データセット上で、PSNRが30.72dBである場合、既存の手法と比較して9.12dBの改善となる。
論文 参考訳(メタデータ) (2024-07-01T17:59:23Z) - Multi-Weight Respecification of Scan-specific Learning for Parallel
Imaging [25.47472506331645]
k空間(RAKI)のための非線形人工神経ネットワークは、他の線形手法よりも優れたノイズ耐性を示す。
RAKIは高い加速速度では性能が悪く、トレーニングサンプルとして大量の自己校正信号が必要である。
MW-RAKIと呼ばれるアンダーサンプルデータに重み付け行列を実装したマルチウェイト手法を提案する。
論文 参考訳(メタデータ) (2022-04-05T04:28:06Z) - Mixed Precision Low-bit Quantization of Neural Network Language Models
for Speech Recognition [67.95996816744251]
長期間のメモリリカレントニューラルネットワーク(LSTM-RNN)とトランスフォーマーで表される最先端言語モデル(LM)は、実用アプリケーションではますます複雑で高価なものになりつつある。
現在の量子化法は、均一な精度に基づいており、量子化誤差に対するLMの異なる部分での様々な性能感度を考慮できない。
本稿では,新しい混合精度ニューラルネットワークLM量子化法を提案する。
論文 参考訳(メタデータ) (2021-11-29T12:24:02Z) - Reference-based Magnetic Resonance Image Reconstruction Using Texture
Transforme [86.6394254676369]
高速MRI再構成のための新しいテクスチャトランスフォーマーモジュール(TTM)を提案する。
変換器のクエリやキーとしてアンダーサンプルのデータと参照データを定式化する。
提案したTTMは、MRIの再構成手法に積み重ねることで、その性能をさらに向上させることができる。
論文 参考訳(メタデータ) (2021-11-18T03:06:25Z) - A deep learning driven pseudospectral PCE based FFT homogenization
algorithm for complex microstructures [68.8204255655161]
提案手法は,従来の手法よりも高速に評価できる一方で,興味の中心モーメントを予測できることを示す。
提案手法は,従来の手法よりも高速に評価できると同時に,興味の中心モーメントを予測できることを示す。
論文 参考訳(メタデータ) (2021-10-26T07:02:14Z) - Regularization by Denoising Sub-sampled Newton Method for Spectral CT
Multi-Material Decomposition [78.37855832568569]
スペクトルctを用いたマルチマテリアル画像再構成のためのモデルベース最大後課題の解決法を提案する。
特に,プラグイン画像復号化機能に基づく正規化最適化問題について提案する。
スペクトルct材料分解の数値的および実験的結果を示す。
論文 参考訳(メタデータ) (2021-03-25T15:20:10Z) - Deep Unfolded Recovery of Sub-Nyquist Sampled Ultrasound Image [94.42139459221784]
本稿では,ISTAアルゴリズムの展開に基づく時空間領域におけるサブNyquistサンプルからの再構成手法を提案する。
本手法は,高品質な撮像性能を確保しつつ,配列要素数,サンプリングレート,計算時間を削減できる。
論文 参考訳(メタデータ) (2021-03-01T19:19:38Z) - CNN-Based Image Reconstruction Method for Ultrafast Ultrasound Imaging [9.659642285903418]
超高速超音波(US)は、フルビューフレームを1kHz以上で取得できるバイオメディカルイメージングに革命をもたらした。
強い回折アーチファクトに悩まされ、主に格子状葉、サイドローブ、エッジウェーブによって引き起こされる。
本稿では,2段階の畳み込みニューラルネットワーク(CNN)を用いた画像再構成手法を提案する。
論文 参考訳(メタデータ) (2020-08-28T17:15:37Z) - Low-dimensional Manifold Constrained Disentanglement Network for Metal
Artifact Reduction [17.01644053979103]
アーティファクト・ディアンタングメント・ネットワーク (ADN) が, 臨床画像を直接検査して提案され, 臨床データセットに有望な結果が得られた。
パッチ多様体が一般に低次元であることのイメージ特性を活かした低次元多様体 (LDM) 制約付き非絡合ネットワーク (DN) を提案する。
提案手法は,ペアおよび/またはペアなしの学習環境におけるMAR性能を安定的に向上できることを示す。
論文 参考訳(メタデータ) (2020-07-08T03:47:34Z) - Training Variational Networks with Multi-Domain Simulations:
Speed-of-Sound Image Reconstruction [5.47832435255656]
変分ネットワーク(VN)は画像再構成における逆問題を最適化するための学習に基づく潜在的アプローチであることが示されている。
本稿では,従来のトランスデューサと単側組織アクセスを用いたパルスエコーSoS画像再構成問題に対するVNソリューションを初めて提示する。
提案手法とマルチソースドメイントレーニングを組み合わせることで,VNのドメイン適応能力を大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-06-25T13:32:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。