論文の概要: Predicting Porosity, Permeability, and Tortuosity of Porous Media from
Images by Deep Learning
- arxiv url: http://arxiv.org/abs/2007.02820v1
- Date: Mon, 6 Jul 2020 15:27:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-13 02:17:24.755375
- Title: Predicting Porosity, Permeability, and Tortuosity of Porous Media from
Images by Deep Learning
- Title(参考訳): 深層学習による多孔質媒体の多孔性, 透過性, トルトゥース性予測
- Authors: Krzysztof M. Graczyk and Maciej Matyka
- Abstract要約: 畳み込みニューラルネットワーク(CNN)を用いて、障害物の初期構成と多孔質媒体の3つの基本量との関係を符号化する。
CNNは、ポーシティ、透過性、およびトルトゥシティを精度良く予測できることが示されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional neural networks (CNN) are utilized to encode the relation
between initial configurations of obstacles and three fundamental quantities in
porous media: porosity ($\varphi$), permeability $k$, and tortuosity ($T$). The
two-dimensional systems with obstacles are considered. The fluid flow through a
porous medium is simulated with the lattice Boltzmann method. It is
demonstrated that the CNNs are able to predict the porosity, permeability, and
tortuosity with good accuracy. With the usage of the CNN models, the relation
between $T$ and $\varphi$ has been reproduced and compared with the empirical
estimate. The analysis has been performed for the systems with $\varphi \in
(0.37,0.99)$ which covers five orders of magnitude span for permeability $k \in
(0.78, 2.1\times 10^5)$ and tortuosity $T \in (1.03,2.74)$.
- Abstract(参考訳): 畳み込みニューラルネットワーク(convolutional neural network, cnn)は、障害物の初期構成と多孔質メディアにおける3つの基本的な量の関係をエンコードするために使用される。
障害物のある二次元システムを考える。
格子ボルツマン法により多孔質媒質中の流体の流れをシミュレートする。
その結果,cnnは細孔性,透水性,tortuosityを精度良く予測できることがわかった。
CNNモデルの使用により、$T$と$\varphi$の関係が再現され、経験的推定値と比較された。
この分析は、$\varphi \in (0.37,0.99)$で、透過性$k \in (0.78, 2.1\times 10^5)$と tortuosity $T \in (1.03,2.74)$の5桁をカバーしている。
関連論文リスト
- Dimension-independent rates for structured neural density estimation [20.127707015407967]
深部ニューラルネットワークは, 構造密度の学習において, 次元に依存しない収束率を達成することを示す。
我々の結果は、画像、音声、ビデオ、テキストデータの現実的なモデルに適用できる。
論文 参考訳(メタデータ) (2024-11-22T17:50:27Z) - Beyond Closure Models: Learning Chaotic-Systems via Physics-Informed Neural Operators [78.64101336150419]
カオスシステムの長期的挙動を予測することは、気候モデリングなどの様々な応用に不可欠である。
このような完全解法シミュレーションに対する別のアプローチは、粗いグリッドを使用して、時間テキストモデルによってエラーを修正することである。
この制限を克服する物理インフォームド・ニューラル演算子(PINO)を用いたエンド・ツー・エンドの学習手法を提案する。
論文 参考訳(メタデータ) (2024-08-09T17:05:45Z) - Bayesian Inference with Deep Weakly Nonlinear Networks [57.95116787699412]
我々は,完全連結ニューラルネットワークによるベイズ推定が解けることを示す物理レベルの厳密さを示す。
我々はモデルエビデンスを計算し、任意の温度で1/N$で任意の順序に後続する手法を提供する。
論文 参考訳(メタデータ) (2024-05-26T17:08:04Z) - Matching the Statistical Query Lower Bound for k-sparse Parity Problems with Stochastic Gradient Descent [83.85536329832722]
勾配勾配降下(SGD)は,$d$次元ハイパーキューブ上の$k$パリティ問題を効率的に解くことができることを示す。
次に、SGDでトレーニングされたニューラルネットワークがどのようにして、小さな統計的エラーで$k$-parityの問題を解決するかを実証する。
論文 参考訳(メタデータ) (2024-04-18T17:57:53Z) - Combining Image- and Geometric-based Deep Learning for Shape Regression:
A Comparison to Pixel-level Methods for Segmentation in Chest X-Ray [0.07143413923310668]
本稿では,軽量なCNNバックボーンと幾何学的ニューラルネットワーク(Point Transformer)を組み合わせたハイブリッド手法を提案する。
我々は、nnU-Netを上位ベースラインとして含み、提案したメソッドよりも3.7倍のトレーニング可能なパラメータを持つ。
論文 参考訳(メタデータ) (2024-01-15T09:03:50Z) - Predicting the wall-shear stress and wall pressure through convolutional
neural networks [1.95992742032823]
本研究では,畳み込み型ニューラルネットワークが乱流開水路内の壁量を予測する能力を評価することを目的とした。
FCNの予測は、提案したR-Netアーキテクチャの予測と比較される。
R-Netはまた、速度変動場を$y+ = 50$で予測できる。
論文 参考訳(メタデータ) (2023-03-01T18:03:42Z) - Improved techniques for deterministic l2 robustness [63.34032156196848]
畳み込みニューラルネットワーク(CNN)を$l_2$ノルムの下で厳密な1-Lipschitz制約で訓練することは、対向的堅牢性、解釈可能な勾配、安定した訓練に有用である。
我々は,最後の線形層を1重層に置き換えることで,1-Lipschitz CNNのロバスト性を証明する手法を提案する。
我々は,CIFAR-10およびCIFAR-100における標準および証明可能な堅牢な精度の最先端化を図る。
論文 参考訳(メタデータ) (2022-11-15T19:10:12Z) - Scalable Lipschitz Residual Networks with Convex Potential Flows [120.27516256281359]
残差ネットワーク勾配流における凸ポテンシャルを用いることで,1ドルのLipschitz変換が組み込まれていることを示す。
CIFAR-10の包括的な実験は、アーキテクチャのスケーラビリティと、証明可能な防御に$ell$のアプローチの利点を実証している。
論文 参考訳(メタデータ) (2021-10-25T07:12:53Z) - The Rate of Convergence of Variation-Constrained Deep Neural Networks [35.393855471751756]
変動制約のあるニューラルネットワークのクラスは、任意に小さな定数$delta$に対して、ほぼパラメトリックレート$n-1/2+delta$を達成することができることを示す。
その結果、滑らかな関数の近似に必要な神経機能空間は、しばしば知覚されるものほど大きくない可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-22T21:28:00Z) - Fundamental tradeoffs between memorization and robustness in random
features and neural tangent regimes [15.76663241036412]
モデルがトレーニングのごく一部を記憶している場合、そのソボレフ・セミノルムは低い有界であることを示す。
実験によって初めて、(iv)ミンノルム補間器の堅牢性における多重発色現象が明らかになった。
論文 参考訳(メタデータ) (2021-06-04T17:52:50Z) - Function approximation by deep neural networks with parameters $\{0,\pm
\frac{1}{2}, \pm 1, 2\}$ [91.3755431537592]
C_beta$-smooth関数は、パラメータ$0,pm frac12, pm 1, 2$のニューラルネットワークによって近似できることが示されている。
構築されたネットワークの深さ、幅、およびアクティブパラメータの数は、対数係数まで、$[-1,1]$のパラメータを持つネットワークと同じ近似誤差に依存します。
論文 参考訳(メタデータ) (2021-03-15T19:10:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。