論文の概要: Efficient Neural Net Approaches in Metal Casting Defect Detection
- arxiv url: http://arxiv.org/abs/2208.04150v1
- Date: Mon, 8 Aug 2022 13:54:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-09 12:56:53.871387
- Title: Efficient Neural Net Approaches in Metal Casting Defect Detection
- Title(参考訳): 効率的なニューラルネットワークによる金属鋳造欠陥検出
- Authors: Rohit Lal, Bharath Kumar Bolla, Sabeesh Ethiraj
- Abstract要約: 本研究は,精度と推定時間の観点から効率の良い軽量アーキテクチャを提案する。
以上の結果から,深度的に分離可能な畳み込みを持つ590Kパラメータのカスタムモデルが事前学習アーキテクチャよりも優れていたことが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: One of the most pressing challenges prevalent in the steel manufacturing
industry is the identification of surface defects. Early identification of
casting defects can help boost performance, including streamlining production
processes. Though, deep learning models have helped bridge this gap and
automate most of these processes, there is a dire need to come up with
lightweight models that can be deployed easily with faster inference times.
This research proposes a lightweight architecture that is efficient in terms of
accuracy and inference time compared with sophisticated pre-trained CNN
architectures like MobileNet, Inception, and ResNet, including vision
transformers. Methodologies to minimize computational requirements such as
depth-wise separable convolution and global average pooling (GAP) layer,
including techniques that improve architectural efficiencies and augmentations,
have been experimented. Our results indicate that a custom model of 590K
parameters with depth-wise separable convolutions outperformed pretrained
architectures such as Resnet and Vision transformers in terms of accuracy
(81.87%) and comfortably outdid architectures such as Resnet, Inception, and
Vision transformers in terms of faster inference times (12 ms). Blurpool fared
outperformed other techniques, with an accuracy of 83.98%. Augmentations had a
paradoxical effect on the model performance. No direct correlation between
depth-wise and 3x3 convolutions on inference time, they, however, they played a
direct role in improving model efficiency by enabling the networks to go deeper
and by decreasing the number of trainable parameters. Our work sheds light on
the fact that custom networks with efficient architectures and faster inference
times can be built without the need of relying on pre-trained architectures.
- Abstract(参考訳): 鉄鋼工業における最も差し迫った課題の1つは、表面欠陥の同定である。
鋳造欠陥の早期同定は、生産プロセスの合理化を含む性能向上に役立つ。
ディープラーニングモデルは、このギャップを橋渡しして、これらのプロセスのほとんどを自動化するのに役立ったが、より早い推論時間で簡単にデプロイできる軽量なモデルを考え出す必要がある。
本研究は,MobileNetやInception,ResNetといった高度なトレーニング済みCNNアーキテクチャと比較して,精度と推論時間の観点から効率の良い軽量アーキテクチャを提案する。
アーキテクチャ効率や拡張性を改善する技術を含む,深度的に分離可能な畳み込みやグローバル平均プーリング(GAP)層などの計算要求を最小化する手法が実験されている。
以上の結果から,奥行き分離可能な畳み込みを持つ590kパラメータのカスタムモデルが,resnetやvision transformersといった事前学習済みアーキテクチャを精度81.87%,resnet,inception,vision transformersといった快適に時代遅れなアーキテクチャを高速推論時間(12ms)で上回っていることが示された。
blurpoolは83.98%の精度で他の技術よりも優れていた。
拡張はモデル性能にパラドックス的影響を与えた。
深さ方向の畳み込みと3x3の畳み込みとの直接の相関はみられなかったが、ネットワークがより深くなり、訓練可能なパラメータの数を減少させることで、モデル効率の向上に直接的な役割を果たした。
私たちの仕事は、効率的なアーキテクチャと高速な推論時間を備えたカスタムネットワークを、事前トレーニングされたアーキテクチャに頼ることなく構築できるという事実に光を当てています。
関連論文リスト
- Accelerating Deep Neural Networks via Semi-Structured Activation
Sparsity [0.0]
ネットワークの機能マップにスパシティを爆発させることは、推論のレイテンシを低減する方法の1つです。
そこで本研究では,セミ構造化されたアクティベーション空間を小さなランタイム修正によって活用する手法を提案する。
当社のアプローチでは,ImageNetデータセット上のResNet18モデルに対して,最小精度が1.1%の1.25倍の速度向上を実現している。
論文 参考訳(メタデータ) (2023-09-12T22:28:53Z) - TurboViT: Generating Fast Vision Transformers via Generative
Architecture Search [74.24393546346974]
近年、視覚変換器は様々な視覚認知タスクに対処する上で、前例のないレベルの性能を示している。
近年,効率的な視覚変換器の設計に関する研究が盛んに行われている。
本研究では,生成型アーキテクチャサーチによる高速ビジョントランスフォーマーアーキテクチャの設計について検討する。
論文 参考訳(メタデータ) (2023-08-22T13:08:29Z) - Pushing the Limits of Asynchronous Graph-based Object Detection with
Event Cameras [62.70541164894224]
低計算を維持しながら、そのようなモデルの深さと複雑さを拡大できるアーキテクチャ選択をいくつか導入する。
我々の手法は、密度の高いグラフニューラルネットワークよりも3.7倍高速に動作し、前方通過はわずか8.4msである。
論文 参考訳(メタデータ) (2022-11-22T15:14:20Z) - Efficient Deep Learning Methods for Identification of Defective Casting
Products [0.0]
本稿では,事前学習型およびカスタムビルド型AIアーキテクチャを比較し,比較した。
その結果、カスタムアーキテクチャは、事前訓練済みのモバイルアーキテクチャよりも効率的であることがわかった。
モデルをより堅牢で一般化可能にするため、カスタムアーキテクチャ上で拡張実験も実施されている。
論文 参考訳(メタデータ) (2022-05-14T19:35:05Z) - SmoothNets: Optimizing CNN architecture design for differentially
private deep learning [69.10072367807095]
DPSGDは、サンプルごとの勾配の切り抜きとノイズ付けを必要とする。
これにより、非プライベートトレーニングと比較してモデルユーティリティが削減される。
SmoothNetと呼ばれる新しいモデルアーキテクチャを蒸留し,DP-SGDトレーニングの課題に対するロバスト性の向上を特徴とした。
論文 参考訳(メタデータ) (2022-05-09T07:51:54Z) - The Untapped Potential of Off-the-Shelf Convolutional Neural Networks [29.205446247063673]
ResNet-50のような既存の市販モデルは、ImageNet上で95%以上の精度を持つことを示す。
このレベルのパフォーマンスは現在、20倍以上のパラメータとはるかに複雑なトレーニング手順を持つモデルを上回る。
論文 参考訳(メタデータ) (2021-03-17T20:04:46Z) - An Efficient Quantitative Approach for Optimizing Convolutional Neural
Networks [16.072287925319806]
本稿では,CNNアーキテクチャの品質を推定し,設計の探索プロセスを導く3D-Receptive Field (3DRF)を提案する。
我々のモデルは、MobileNetやResNetのような最先端のCNN構造と比較して、最大5.47%の精度向上と65.38%のパラメータを達成できる。
論文 参考訳(メタデータ) (2020-09-11T05:14:34Z) - A Compact Deep Architecture for Real-time Saliency Prediction [42.58396452892243]
唾液度モデルは、人間の視覚系における注意機構を模倣することを目的としている。
ディープモデルは多数のパラメータを持ち、リアルタイムアプリケーションには適さない。
本稿では,実時間精度予測のためのコンパクトかつ高速なモデルを提案する。
論文 参考訳(メタデータ) (2020-08-30T17:47:16Z) - Towards Practical Lipreading with Distilled and Efficient Models [57.41253104365274]
ニューラルネットワークの復活により、リリーディングは多くの進歩を目の当たりにした。
最近の研究は、最適なアーキテクチャを見つけるか、一般化を改善することで、パフォーマンスを改善するといった側面に重点を置いている。
現在の方法論と、実践的なシナリオにおける効果的なリップリーディングのデプロイ要件との間には、依然として大きなギャップがあります。
まず, LRW と LRW-1000 をそれぞれ 88.5% と 46.6% に比例して, 最先端の性能を高めることを提案する。
論文 参考訳(メタデータ) (2020-07-13T16:56:27Z) - Making DensePose fast and light [78.49552144907513]
このタスクを解くことができる既存のニューラルネットワークモデルは、非常にパラメータ化されている。
現在のモデルで端末のDense Pose推論を有効にするには、高価なサーバーサイドのインフラをサポートし、安定したインターネット接続が必要である。
本研究では,DensePose R-CNNモデルのアーキテクチャを再設計することで,最終的なネットワークがその精度の大部分を維持しつつ,より軽量で高速なネットワークを実現することを目的とする。
論文 参考訳(メタデータ) (2020-06-26T19:42:20Z) - FBNetV3: Joint Architecture-Recipe Search using Predictor Pretraining [65.39532971991778]
サンプル選択とランキングの両方を導くことで、アーキテクチャとトレーニングのレシピを共同でスコアする精度予測器を提案する。
高速な進化的検索をCPU分で実行し、さまざまなリソース制約に対するアーキテクチャと準備のペアを生成します。
FBNetV3は最先端のコンパクトニューラルネットワークのファミリーを構成しており、自動と手動で設計された競合より優れている。
論文 参考訳(メタデータ) (2020-06-03T05:20:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。