論文の概要: Efficient Neural Net Approaches in Metal Casting Defect Detection
- arxiv url: http://arxiv.org/abs/2208.04150v1
- Date: Mon, 8 Aug 2022 13:54:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-09 12:56:53.871387
- Title: Efficient Neural Net Approaches in Metal Casting Defect Detection
- Title(参考訳): 効率的なニューラルネットワークによる金属鋳造欠陥検出
- Authors: Rohit Lal, Bharath Kumar Bolla, Sabeesh Ethiraj
- Abstract要約: 本研究は,精度と推定時間の観点から効率の良い軽量アーキテクチャを提案する。
以上の結果から,深度的に分離可能な畳み込みを持つ590Kパラメータのカスタムモデルが事前学習アーキテクチャよりも優れていたことが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: One of the most pressing challenges prevalent in the steel manufacturing
industry is the identification of surface defects. Early identification of
casting defects can help boost performance, including streamlining production
processes. Though, deep learning models have helped bridge this gap and
automate most of these processes, there is a dire need to come up with
lightweight models that can be deployed easily with faster inference times.
This research proposes a lightweight architecture that is efficient in terms of
accuracy and inference time compared with sophisticated pre-trained CNN
architectures like MobileNet, Inception, and ResNet, including vision
transformers. Methodologies to minimize computational requirements such as
depth-wise separable convolution and global average pooling (GAP) layer,
including techniques that improve architectural efficiencies and augmentations,
have been experimented. Our results indicate that a custom model of 590K
parameters with depth-wise separable convolutions outperformed pretrained
architectures such as Resnet and Vision transformers in terms of accuracy
(81.87%) and comfortably outdid architectures such as Resnet, Inception, and
Vision transformers in terms of faster inference times (12 ms). Blurpool fared
outperformed other techniques, with an accuracy of 83.98%. Augmentations had a
paradoxical effect on the model performance. No direct correlation between
depth-wise and 3x3 convolutions on inference time, they, however, they played a
direct role in improving model efficiency by enabling the networks to go deeper
and by decreasing the number of trainable parameters. Our work sheds light on
the fact that custom networks with efficient architectures and faster inference
times can be built without the need of relying on pre-trained architectures.
- Abstract(参考訳): 鉄鋼工業における最も差し迫った課題の1つは、表面欠陥の同定である。
鋳造欠陥の早期同定は、生産プロセスの合理化を含む性能向上に役立つ。
ディープラーニングモデルは、このギャップを橋渡しして、これらのプロセスのほとんどを自動化するのに役立ったが、より早い推論時間で簡単にデプロイできる軽量なモデルを考え出す必要がある。
本研究は,MobileNetやInception,ResNetといった高度なトレーニング済みCNNアーキテクチャと比較して,精度と推論時間の観点から効率の良い軽量アーキテクチャを提案する。
アーキテクチャ効率や拡張性を改善する技術を含む,深度的に分離可能な畳み込みやグローバル平均プーリング(GAP)層などの計算要求を最小化する手法が実験されている。
以上の結果から,奥行き分離可能な畳み込みを持つ590kパラメータのカスタムモデルが,resnetやvision transformersといった事前学習済みアーキテクチャを精度81.87%,resnet,inception,vision transformersといった快適に時代遅れなアーキテクチャを高速推論時間(12ms)で上回っていることが示された。
blurpoolは83.98%の精度で他の技術よりも優れていた。
拡張はモデル性能にパラドックス的影響を与えた。
深さ方向の畳み込みと3x3の畳み込みとの直接の相関はみられなかったが、ネットワークがより深くなり、訓練可能なパラメータの数を減少させることで、モデル効率の向上に直接的な役割を果たした。
私たちの仕事は、効率的なアーキテクチャと高速な推論時間を備えたカスタムネットワークを、事前トレーニングされたアーキテクチャに頼ることなく構築できるという事実に光を当てています。
関連論文リスト
- Enhancing Physics-Informed Neural Networks Through Feature Engineering [18.055120576191204]
本稿では,単層アダプティブ・フィーチャー・エンジニアリング・ネットワークであるSAFE-NETを紹介する。
基準となる特徴工学手法よりもはるかに少ないパラメータで、マグニチュードオーダーの低いエラーを実現する。
数値計算の結果,SAFE-NETはより高速に収束し,より深いネットワークや複雑なネットワークよりも優れていた。
論文 参考訳(メタデータ) (2025-02-11T03:07:28Z) - Accelerating Linear Recurrent Neural Networks for the Edge with Unstructured Sparsity [39.483346492111515]
線形リカレントニューラルネットワークは、推論中に一定のメモリ使用量と時間毎の時間を含む強力な長距離シーケンスモデリングを可能にする。
非構造化空間は、互換性のあるハードウェアプラットフォームによって加速されるときに、計算とメモリの要求を大幅に削減できる魅力的なソリューションを提供する。
非常に疎い線形RNNは、高密度ベースラインよりも高い効率と性能のトレードオフを一貫して達成している。
論文 参考訳(メタデータ) (2025-02-03T13:09:21Z) - Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - TurboViT: Generating Fast Vision Transformers via Generative
Architecture Search [74.24393546346974]
近年、視覚変換器は様々な視覚認知タスクに対処する上で、前例のないレベルの性能を示している。
近年,効率的な視覚変換器の設計に関する研究が盛んに行われている。
本研究では,生成型アーキテクチャサーチによる高速ビジョントランスフォーマーアーキテクチャの設計について検討する。
論文 参考訳(メタデータ) (2023-08-22T13:08:29Z) - Efficient Deep Learning Methods for Identification of Defective Casting
Products [0.0]
本稿では,事前学習型およびカスタムビルド型AIアーキテクチャを比較し,比較した。
その結果、カスタムアーキテクチャは、事前訓練済みのモバイルアーキテクチャよりも効率的であることがわかった。
モデルをより堅牢で一般化可能にするため、カスタムアーキテクチャ上で拡張実験も実施されている。
論文 参考訳(メタデータ) (2022-05-14T19:35:05Z) - SmoothNets: Optimizing CNN architecture design for differentially
private deep learning [69.10072367807095]
DPSGDは、サンプルごとの勾配の切り抜きとノイズ付けを必要とする。
これにより、非プライベートトレーニングと比較してモデルユーティリティが削減される。
SmoothNetと呼ばれる新しいモデルアーキテクチャを蒸留し,DP-SGDトレーニングの課題に対するロバスト性の向上を特徴とした。
論文 参考訳(メタデータ) (2022-05-09T07:51:54Z) - The Untapped Potential of Off-the-Shelf Convolutional Neural Networks [29.205446247063673]
ResNet-50のような既存の市販モデルは、ImageNet上で95%以上の精度を持つことを示す。
このレベルのパフォーマンスは現在、20倍以上のパラメータとはるかに複雑なトレーニング手順を持つモデルを上回る。
論文 参考訳(メタデータ) (2021-03-17T20:04:46Z) - An Efficient Quantitative Approach for Optimizing Convolutional Neural
Networks [16.072287925319806]
本稿では,CNNアーキテクチャの品質を推定し,設計の探索プロセスを導く3D-Receptive Field (3DRF)を提案する。
我々のモデルは、MobileNetやResNetのような最先端のCNN構造と比較して、最大5.47%の精度向上と65.38%のパラメータを達成できる。
論文 参考訳(メタデータ) (2020-09-11T05:14:34Z) - Towards Practical Lipreading with Distilled and Efficient Models [57.41253104365274]
ニューラルネットワークの復活により、リリーディングは多くの進歩を目の当たりにした。
最近の研究は、最適なアーキテクチャを見つけるか、一般化を改善することで、パフォーマンスを改善するといった側面に重点を置いている。
現在の方法論と、実践的なシナリオにおける効果的なリップリーディングのデプロイ要件との間には、依然として大きなギャップがあります。
まず, LRW と LRW-1000 をそれぞれ 88.5% と 46.6% に比例して, 最先端の性能を高めることを提案する。
論文 参考訳(メタデータ) (2020-07-13T16:56:27Z) - Making DensePose fast and light [78.49552144907513]
このタスクを解くことができる既存のニューラルネットワークモデルは、非常にパラメータ化されている。
現在のモデルで端末のDense Pose推論を有効にするには、高価なサーバーサイドのインフラをサポートし、安定したインターネット接続が必要である。
本研究では,DensePose R-CNNモデルのアーキテクチャを再設計することで,最終的なネットワークがその精度の大部分を維持しつつ,より軽量で高速なネットワークを実現することを目的とする。
論文 参考訳(メタデータ) (2020-06-26T19:42:20Z) - FBNetV3: Joint Architecture-Recipe Search using Predictor Pretraining [65.39532971991778]
サンプル選択とランキングの両方を導くことで、アーキテクチャとトレーニングのレシピを共同でスコアする精度予測器を提案する。
高速な進化的検索をCPU分で実行し、さまざまなリソース制約に対するアーキテクチャと準備のペアを生成します。
FBNetV3は最先端のコンパクトニューラルネットワークのファミリーを構成しており、自動と手動で設計された競合より優れている。
論文 参考訳(メタデータ) (2020-06-03T05:20:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。