論文の概要: PSDNet: Determination of Particle Size Distributions Using Synthetic
Soil Images and Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2303.04269v1
- Date: Tue, 7 Mar 2023 22:42:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-09 15:47:57.300579
- Title: PSDNet: Determination of Particle Size Distributions Using Synthetic
Soil Images and Convolutional Neural Networks
- Title(参考訳): PSDNet: 合成土壌画像と畳み込みニューラルネットワークを用いた粒子径分布の決定
- Authors: Javad Manashti, Pouyan Pirnia, Alireza Manashty, Sahar Ujan, Matthew
Toews, Fran\c{c}ois Duhaime
- Abstract要約: 提案したConvNetモデルでは, 根平均二乗誤差が1.8%, 3.3%, 2.8%, 決定係数が0。
事前学習ネットワークでは, 特徴抽出モデルと伝達学習モデルを用いて, 根平均二乗誤差の2.4 %と2.8 %を得た。
- 参考スコア(独自算出の注目度): 1.6572129046599933
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This project aimed to determine the grain size distribution of granular
materials from images using convolutional neural networks. The application of
ConvNet and pretrained ConvNet models, including AlexNet, SqueezeNet,
GoogLeNet, InceptionV3, DenseNet201, MobileNetV2, ResNet18, ResNet50,
ResNet101, Xception, InceptionResNetV2, ShuffleNet, and NASNetMobile was
studied. Synthetic images of granular materials created with the discrete
element code YADE were used. All the models were trained and verified with
grayscale and color band datasets with image sizes ranging from 32 to 160
pixels. The proposed ConvNet model predicts the percentages of mass retained on
the finest sieve, coarsest sieve, and all sieves with root-mean-square errors
of 1.8 %, 3.3 %, and 2.8 %, respectively, and a coefficient of determination of
0.99. For pretrained networks, root-mean-square errors of 2.4 % and 2.8 % were
obtained for the finest sieve with feature extraction and transfer learning
models, respectively.
- Abstract(参考訳): 本研究の目的は,畳み込みニューラルネットワークを用いた画像から粒状物質の粒度分布を決定することである。
ConvNetと、AlexNet、SqueezeNet、GoogLeNet、InceptionV3、DenseNet201、MobileNetV2、ResNet18、ResNet50、ResNet101、Xception、InceptionResNetV2、ShuffleNet、NASNetMobileを含む事前訓練されたConvNetモデルの適用について研究した。
離散素子コードYADEで作成した粒状物質の合成画像を用いた。
すべてのモデルは、画像サイズが32から160ピクセルのグレースケールとカラーバンドデータセットでトレーニングされ、検証された。
提案するconvnetモデルは, 最微細シーブ, 粗粗シーブおよび全シーブに保持される質量の割合を, それぞれ1.8 %, 3.3 %, 2.8 %, 決定係数 0.99 で予測する。
事前学習ネットワークでは, 特徴抽出モデルと伝達学習モデルを用いて, 根平均二乗誤差2.4 %と2.8 %を得た。
関連論文リスト
- ImageNet-D: Benchmarking Neural Network Robustness on Diffusion Synthetic Object [78.58860252442045]
我々は、深層モデルの堅牢性をベンチマークするハードイメージのためのデータソースとして、生成モデルを紹介した。
このベンチマークを ImageNet-D と呼ぶ以前の作業よりも、背景、テクスチャ、材料が多様化したイメージを生成することができます。
我々の研究は、拡散モデルが視覚モデルをテストするのに効果的な情報源となることを示唆している。
論文 参考訳(メタデータ) (2024-03-27T17:23:39Z) - Learning to Generate Parameters of ConvNets for Unseen Image Data [36.68392191824203]
ConvNetは大量の画像データに依存しており、ネットワークパラメータを学習するための反復最適化アルゴリズムを採用している。
本稿では,新しい学習パラダイムを提案し,予測タスクにConvNetのパラメータ学習を定式化する。
提案手法は,2種類の画像データセットに対して有効であることを示す。
論文 参考訳(メタデータ) (2023-10-18T10:26:18Z) - ScaleNet: An Unsupervised Representation Learning Method for Limited
Information [0.0]
ScaleNet という,シンプルで効率的な非教師なし表現学習手法を提案する。
ハリスコーナー情報のような特定の画像特徴は、回転予測タスクの効率において重要な役割を果たす。
限られたデータを持つScaleNetモデルから転送されたパラメータは、RotNetモデルと比較して、ImageNet分類タスクを約6%改善する。
論文 参考訳(メタデータ) (2023-10-03T19:13:43Z) - Comparing PSDNet, pretrained networks, and traditional feature
extraction for predicting the particle size distribution of granular
materials from photographs [0.0]
画像サイズと色帯域の影響を,32から160ピクセルの6つの画像サイズと,PSDNet入力としてグレースケールとカラーイメージを用いて検証した。
その結果、すべてのPSDNet色とグレースケールの特徴の組み合わせは、ランダムなテストデータセットで1.8%、物質除去法で9.1%を超える割合で、ルート平均2乗誤差(RMSE)につながることが示された。
論文 参考訳(メタデータ) (2023-03-07T22:29:38Z) - MogaNet: Multi-order Gated Aggregation Network [64.16774341908365]
我々は,識別的視覚的表現学習のために,MogaNetと呼ばれる現代ConvNetの新たなファミリーを提案する。
MogaNetは概念的に単純だが効果的な畳み込みをカプセル化し、集約をコンパクトモジュールに集約する。
MogaNetは、ImageNetの最先端のViTやConvNetと比較して、優れたスケーラビリティ、パラメータの大幅な効率、競争性能を示している。
論文 参考訳(メタデータ) (2022-11-07T04:31:17Z) - Network Augmentation for Tiny Deep Learning [73.57192520534585]
ニューラルネットワークの性能向上のための新しいトレーニング手法であるNetAug(Net Aug)を紹介する。
画像分類と物体検出におけるNetAugの有効性を示す。
論文 参考訳(メタデータ) (2021-10-17T18:48:41Z) - BCNet: Searching for Network Width with Bilaterally Coupled Network [56.14248440683152]
この問題に対処するため、BCNet(Bilaterally Coupled Network)と呼ばれる新しいスーパーネットを導入する。
BCNetでは、各チャネルは高度に訓練され、同じ量のネットワーク幅を担っているため、ネットワーク幅をより正確に評価することができる。
提案手法は,他のベースライン手法と比較して,最先端あるいは競合的な性能を実現する。
論文 参考訳(メタデータ) (2021-05-21T18:54:03Z) - BasisNet: Two-stage Model Synthesis for Efficient Inference [39.34855162835054]
効率的なニューラルネットワークアーキテクチャの最近の進歩、条件計算、早期終了をシンプルな新しい形式で組み合わせたBasisNetを紹介します。
提案手法では,入力に依存した組合せ係数のプレビューと生成を行う軽量モデルを導入し,その後,より正確なスペシャリストモデルの合成を制御し,最終的な予測を行う。
ImageNet分類ベンチマークでは、BasisNetとMobileNetsをバックボーンとして、精度と効率のトレードオフに明確な優位性を示しました。
論文 参考訳(メタデータ) (2021-05-07T00:21:56Z) - Post-training deep neural network pruning via layer-wise calibration [70.65691136625514]
本論文では,自動合成フラクタル画像に基づくコンピュータビジョンモデルに対するデータフリーな拡張を提案する。
実データを使用する場合は、トレーニング後の設定で65%の間隔で8ビットの精度でImageNet上のResNet50モデルを取得できます。
論文 参考訳(メタデータ) (2021-04-30T14:20:51Z) - Model Rubik's Cube: Twisting Resolution, Depth and Width for TinyNets [65.28292822614418]
解像度、深さ、幅を同時に拡大する巨大な公式は、ニューラルネットワークのためのルービックキューブを提供する。
本稿では,最小モデルサイズと計算コストで深層ニューラルネットワークを得るためのツイストルールを検討することを目的とする。
論文 参考訳(メタデータ) (2020-10-28T08:49:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。