論文の概要: DeePore: a deep learning workflow for rapid and comprehensive
characterization of porous materials
- arxiv url: http://arxiv.org/abs/2005.03759v2
- Date: Sat, 10 Oct 2020 09:06:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 07:05:48.221021
- Title: DeePore: a deep learning workflow for rapid and comprehensive
characterization of porous materials
- Title(参考訳): deepore:多孔質材料の迅速かつ包括的なキャラクタリゼーションのためのディープラーニングワークフロー
- Authors: Arash Rabbani, Masoud Babaei, Reza Shams, Ying Da Wang, Traiwit Chung
- Abstract要約: DeePoreは、マイクロトモグラフィー画像に基づく幅広い多孔質材料特性を推定するためのディープラーニングワークフローである。
我々は,2563ボクセルの大きさの多孔質ジオマテリアルの半実3次元構造を17700個生成し,各試料の物理特性を,対応する細孔ネットワークモデル上の物理シミュレーションを用いて計算した。
CNNは、このデータセットに基づいて、多孔質材料のいくつかの形態的、水圧的、電気的、機械的特性を1秒で推定するように訓練されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: DeePore is a deep learning workflow for rapid estimation of a wide range of
porous material properties based on the binarized micro-tomography images. By
combining naturally occurring porous textures we generated 17700 semi-real 3-D
micro-structures of porous geo-materials with size of 256^3 voxels and 30
physical properties of each sample are calculated using physical simulations on
the corresponding pore network models. Next, a designed feed-forward
convolutional neural network (CNN) is trained based on the dataset to estimate
several morphological, hydraulic, electrical, and mechanical characteristics of
the porous material in a fraction of a second. In order to fine-tune the CNN
design, we tested 9 different training scenarios and selected the one with the
highest average coefficient of determination (R^2) equal to 0.885 for 1418
testing samples. Additionally, 3 independent synthetic images as well as 3
realistic tomography images have been tested using the proposed method and
results are compared with pore network modelling and experimental data,
respectively. Tested absolute permeabilities had around 13 % relative error
compared to the experimental data which is noticeable considering the accuracy
of the direct numerical simulation methods such as Lattice Boltzmann and Finite
Volume. The workflow is compatible with any physical size of the images due to
its dimensionless approach and can be used to characterize large-scale 3-D
images by averaging the model outputs for a sliding window that scans the whole
geometry.
- Abstract(参考訳): DeePoreはバイナライズされたマイクロトモグラフィー画像に基づいて多孔質材料特性を高速に推定するためのディープラーニングワークフローである。
天然に存在する多孔質テクスチャを組み合わせることで, 256^3ボクセルと30個の試料の物性を有する多孔質地球材料の17700個の半実3次元構造を, 対応する細孔ネットワークモデル上で物理シミュレーションにより計算した。
次に、設計されたフィードフォワード畳み込みニューラルネットワーク(CNN)をデータセットに基づいて訓練し、多孔質材料の形態的、水圧的、電気的、機械的特性を1秒で推定する。
CNN 設計を微調整するために,9つの異なる訓練シナリオを検証し,1418 試験試料の 0.885 に等しい判定係数 (R^2) の高いものを選択した。
さらに,提案手法を用いて3つの独立した合成画像と3つのリアルトモグラフィー画像が試験され,それぞれ細孔ネットワークモデリングと実験データと比較された。
実験した絶対透過率は, 格子ボルツマンや有限体積などの直接数値シミュレーション法の精度を考慮すると, 実験データと比較して約13%の誤差を示した。
ワークフローは、その次元のないアプローチのため、画像の物理的サイズと互換性があり、幾何学全体を走査するスライディングウィンドウのモデル出力を平均することで、大規模な3d画像のキャラクタリゼーションに使用できる。
関連論文リスト
- WiNet: Wavelet-based Incremental Learning for Efficient Medical Image Registration [68.25711405944239]
深部画像登録は異常な精度と高速な推測を示した。
近年の進歩は、粗大から粗大の方法で密度変形場を推定するために、複数のカスケードまたはピラミッドアーキテクチャを採用している。
本稿では,様々なスケールにわたる変位/速度場に対して,スケールワイブレット係数を漸進的に推定するモデル駆動WiNetを提案する。
論文 参考訳(メタデータ) (2024-07-18T11:51:01Z) - Deep learning of multi-resolution X-Ray micro-CT images for multi-scale
modelling [0.0]
本研究では3次元拡張深部超解像(EDSR)畳み込みニューラルネットワークを開発し,大規模空間スケールで高分解能データを生成する。
我々は,テキスト解析,セグメンテーション動作,多相流シミュレーション(PNM)を用いてネットワークを検証した。
EDSR生成モデルは、不均一性の存在下での実験挙動を予測するための基礎LRモデルよりも精度が高い。
論文 参考訳(メタデータ) (2021-11-01T21:49:22Z) - A deep learning driven pseudospectral PCE based FFT homogenization
algorithm for complex microstructures [68.8204255655161]
提案手法は,従来の手法よりも高速に評価できる一方で,興味の中心モーメントを予測できることを示す。
提案手法は,従来の手法よりも高速に評価できると同時に,興味の中心モーメントを予測できることを示す。
論文 参考訳(メタデータ) (2021-10-26T07:02:14Z) - Estimating permeability of 3D micro-CT images by physics-informed CNNs
based on DNS [1.6274397329511197]
本稿では,地質岩のマイクロCTによる透水率予測手法を提案する。
透過性予測専用のCNNのためのトレーニングデータセットは、古典格子ボルツマン法(LBM)によって通常生成される透過性ラベルからなる。
その代わりに、定常ストークス方程式を効率的かつ分散並列に解き、直接数値シミュレーション(DNS)を行う。
論文 参考訳(メタデータ) (2021-09-04T08:43:19Z) - Aug3D-RPN: Improving Monocular 3D Object Detection by Synthetic Images
with Virtual Depth [64.29043589521308]
仮想深度で画像を合成することでトレーニングデータを増強するレンダリングモジュールを提案する。
レンダリングモジュールは、RGB画像と対応するスパース深度画像とを入力として、さまざまなフォトリアリスティック合成画像を出力する。
さらに,深度推定タスクを通じて共同で最適化することで,検出モデルを改善する補助モジュールを導入する。
論文 参考訳(メタデータ) (2021-07-28T11:00:47Z) - Multi-Scale Neural Networks for to Fluid Flow in 3D Porous Media [0.0]
我々は多孔質メディアシミュレーションデータから学習できる汎用的なマルチスケールディープラーニングモデルを開発した。
単一のグラフィックス処理ユニットで約1秒で大きな画像の評価が可能です。
論文 参考訳(メタデータ) (2021-02-10T23:38:36Z) - MudrockNet: Semantic Segmentation of Mudrock SEM Images through Deep
Learning [0.0]
本稿では,GoogleのDeepLab-v3+アーキテクチャに基づく深層学習SEMセグメンテーションモデルMudrockNetを提案する。
訓練された深層学習モデルは、約90%の画素精度を取得し、試験データの予測値は、銀粒の0.6591と毛穴の0.6642の平均交点(IoU)を得た。
論文 参考訳(メタデータ) (2021-02-05T19:38:44Z) - Fed-Sim: Federated Simulation for Medical Imaging [131.56325440976207]
本稿では、2つの学習可能なニューラルモジュールからなる物理駆動型生成手法を提案する。
データ合成フレームワークは、複数のデータセットの下流セグメンテーション性能を改善する。
論文 参考訳(メタデータ) (2020-09-01T19:17:46Z) - Deep learning for lithological classification of carbonate rock micro-CT
images [52.77024349608834]
本研究は,ブラジルのプリサルト炭酸塩岩微視的画像のパターン同定にディープラーニング技術を適用することを目的としている。
4つの畳み込みニューラルネットワークモデルが提案された。
精度によると、リサイズ画像で訓練されたモデル2は、最初の評価アプローチでは平均75.54%、2番目の評価では平均81.33%に達した。
論文 参考訳(メタデータ) (2020-07-30T19:14:00Z) - Intrinsic Autoencoders for Joint Neural Rendering and Intrinsic Image
Decomposition [67.9464567157846]
合成3Dモデルからリアルな画像を生成するためのオートエンコーダを提案し,同時に実像を本質的な形状と外観特性に分解する。
実験により, レンダリングと分解の併用処理が有益であることが確認され, 画像から画像への翻訳の質的, 定量的なベースラインよりも優れた結果が得られた。
論文 参考訳(メタデータ) (2020-06-29T12:53:58Z) - Physical Accuracy of Deep Neural Networks for 2D and 3D Multi-Mineral
Segmentation of Rock micro-CT Images [0.0]
4つのCNNアーキテクチャのパフォーマンスは、10の構成で2Dおよび3Dケースでテストされる。
新しいネットワークアーキテクチャはU-netとResNetのハイブリッド統合として導入され、Net-in-Network構成の短いスキップ接続と長いスキップ接続を組み合わせたものである。
3D実装は、他のテストされたモデル全てをボクセルワイズと物理的精度で上回っている。
論文 参考訳(メタデータ) (2020-02-13T03:14:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。