論文の概要: Quality control using convolutional neural networks applied to samples
of very small size
- arxiv url: http://arxiv.org/abs/2310.10608v2
- Date: Wed, 18 Oct 2023 16:53:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-19 12:40:45.908407
- Title: Quality control using convolutional neural networks applied to samples
of very small size
- Title(参考訳): 畳み込みニューラルネットワークを用いた超小型試料の品質制御
- Authors: Rallou A. Chatzimichail (1) and Aristides T. Hatjimihail (1) ((1)
Hellenic Complex Systems Laboratory, Drama, Greece)
- Abstract要約: 1-D畳み込みニューラルネットワーク(CNN)は、通常分散されたQC測定をシミュレートした、$n $-tuplesのデータセットを設計、訓練、テストした。
ネットワークは、同じ大きさのサンプルに適用された偽拒絶の確率が等しい統計的QC関数と比較された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Although there is extensive literature on the application of artificial
neural networks (NNs) in quality control (QC), to monitor the conformity of a
process to quality specifications, at least five QC measurements are required,
increasing the related cost. To explore the application of neural networks to
samples of QC measurements of very small size, four one-dimensional (1-D)
convolutional neural networks (CNNs) were designed, trained, and tested with
datasets of $ n $-tuples of simulated standardized normally distributed QC
measurements, for $ 1 \leq n \leq 4$. The designed neural networks were
compared to statistical QC functions with equal probabilities for false
rejection, applied to samples of the same size. When the $ n $-tuples included
at least two QC measurements distributed as $ \mathcal{N}(\mu, \sigma^2) $,
where $ 0.2 < |\mu| \leq 6.0 $, and $ 1.0 < \sigma \leq 7.0 $, the designed
neural networks outperformed the respective statistical QC functions.
Therefore, 1-D CNNs applied to samples of 2-4 quality control measurements can
be used to increase the probability of detection of the nonconformity of a
process to the quality specifications, with lower cost.
- Abstract(参考訳): 品質管理(QC)における人工ニューラルネットワーク(NN)の適用に関する広範な文献があるが、品質仕様へのプロセスの適合性を監視するためには、少なくとも5つのQC測定が必要である。
非常に小さなサイズのqc測定のサンプルへのニューラルネットワークの適用を検討するために、4つの1次元(1次元)畳み込みニューラルネットワーク(cnns)が設計、訓練、テストされ、nドルの標準正規分布qc測定をシミュレートしたデータセットで1 \leq n \leq 4$でテストされた。
設計したニューラルネットワークは、同じ大きさのサンプルに適用された偽拒絶の確率が等しい統計的qc関数と比較された。
0.2 < |\mu| \leq 6.0 $, $ 1.0 < \sigma \leq 7.0 $, $1.0 < \sigma \leq 7.0 $, 設計されたニューラルネットワークは各統計QC関数より優れていた。
そのため, 2-4 品質制御測定のサンプルに適用した 1-D CNN を用いて, プロセスの不整合の検出確率を, 低コストで品質仕様に高めることができる。
関連論文リスト
- Satellite image classification with neural quantum kernels [0.0699049312989311]
量子カーネルを使用して、ソーラーパネルを含むイメージを分類します。
後者では、拡張性を確保するために$n$-qubit QNNを反復的にトレーニングし、結果のアーキテクチャを使って$n$-qubit EQKを直接生成します。
結果はQNNの準最適トレーニングに対して堅牢である。
論文 参考訳(メタデータ) (2024-09-30T14:52:00Z) - Training Guarantees of Neural Network Classification Two-Sample Tests by Kernel Analysis [58.435336033383145]
2つのデータセットが同じ分布から来たかどうかを判断するために、ニューラルネットワークの2サンプルテストを構築し、分析する。
NTK2サンプルテストがデータセット間の偏差レベルを検出するのに必要となる、理論的に最小限のトレーニング時間を導出する。
ニューラルネットワークのトレーニングサンプルとテスト評価サンプルが無限に近づくにつれて、ニューラルネットワークの2サンプルテストに関連する統計的パワーは1になる。
論文 参考訳(メタデータ) (2024-07-05T18:41:16Z) - Evaluation of machine learning architectures on the quantification of
epistemic and aleatoric uncertainties in complex dynamical systems [0.0]
不確実量化(英: Uncertainty Quantification、UQ)は、モデル誤差の自己評価値である。
ガウス過程とファミリーUQ強化ニューラルネットワークの両方を含む機械学習技術について検討する。
検証データ上の正規化残差の分布と推定不確かさの分布の2つの指標を用いて,UQ精度(モデル精度とは異なる)を評価する。
論文 参考訳(メタデータ) (2023-06-27T02:35:25Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - Hierarchical autoregressive neural networks for statistical systems [0.05156484100374058]
我々は、例えばスピンのような物理的自由度の階層的な結合を、システムの線形範囲$L$のスケーリングに置き換えるニューロンに提案する。
我々は,2次元Isingモデルに対して,最大128×128$スピンの格子をシミュレートし,時間ベンチマークを512×512$の格子に到達させることで,その2次元Isingモデルに対するアプローチを実証した。
論文 参考訳(メタデータ) (2022-03-21T13:55:53Z) - Scalable Lipschitz Residual Networks with Convex Potential Flows [120.27516256281359]
残差ネットワーク勾配流における凸ポテンシャルを用いることで,1ドルのLipschitz変換が組み込まれていることを示す。
CIFAR-10の包括的な実験は、アーキテクチャのスケーラビリティと、証明可能な防御に$ell$のアプローチの利点を実証している。
論文 参考訳(メタデータ) (2021-10-25T07:12:53Z) - Compact representations of convolutional neural networks via weight
pruning and quantization [63.417651529192014]
本稿では、音源符号化に基づく畳み込みニューラルネットワーク(CNN)の新しいストレージフォーマットを提案し、重み付けと量子化の両方を活用する。
我々は、全接続層で0.6%、ネットワーク全体で5.44%のスペース占有率を削減し、最低でもベースラインと同じくらいの競争力を発揮する。
論文 参考訳(メタデータ) (2021-08-28T20:39:54Z) - Q-SpiNN: A Framework for Quantizing Spiking Neural Networks [14.727296040550392]
精度を著しく低下させることなく、スパイキングニューラルネットワーク(SNN)のメモリフットプリントを削減するための顕著なテクニックは量子化である。
メモリ効率の高いSNNのための新しい量子化フレームワークQ-SpiNNを提案する。
教師なしネットワークでは、Q-SpiNNはメモリフットプリントを4倍削減し、MNISTデータセットのベースラインから1%以内の精度を維持する。
教師ネットワークでは、Q-SpiNNは、DVS-Gestureデータセットのベースラインから2%以内の精度を維持しながら、メモリを2倍削減する。
論文 参考訳(メタデータ) (2021-07-05T06:01:15Z) - Implementation of quantum stochastic walks for function approximation,
two-dimensional data classification, and sequence classification [0.0]
本稿では,グラフ上の量子ウォークに基づく量子ニューラルネットワークについて検討し,勾配勾配を用いてネットワークパラメータを更新する。
5つのニューロンを持つ単純なQSNNは、単語列が文であるか否かを判断するために訓練され、QSNNがトレーニングステップ数を削減できることがわかった。
論文 参考訳(メタデータ) (2021-03-04T13:29:38Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。