論文の概要: Transfer Learning Based Hybrid Quantum Neural Network Model for Surface Anomaly Detection
- arxiv url: http://arxiv.org/abs/2409.00228v1
- Date: Fri, 30 Aug 2024 19:40:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-06 16:18:33.969179
- Title: Transfer Learning Based Hybrid Quantum Neural Network Model for Surface Anomaly Detection
- Title(参考訳): 移動学習に基づく表面異常検出のためのハイブリッド量子ニューラルネットワークモデル
- Authors: Sounak Bhowmik, Himanshu Thapliyal,
- Abstract要約: 本稿では,古典モデルのパラメータ数を著しく削減するために,量子トランスファー学習(QTL)に基づくアプローチを提案する。
性能低下なしに、トレーニング可能なパラメータの総数を初期モデルの90%まで削減できることを示す。
- 参考スコア(独自算出の注目度): 0.4604003661048266
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid increase in the volume of data increased the size and complexity of the deep learning models. These models are now more resource-intensive and time-consuming for training than ever. This paper presents a quantum transfer learning (QTL) based approach to significantly reduce the number of parameters of the classical models without compromising their performance, sometimes even improving it. Reducing the number of parameters reduces overfitting problems and training time and increases the models' flexibility and speed of response. For illustration, we have selected a surface anomaly detection problem to show that we can replace the resource-intensive and less flexible anomaly detection system (ADS) with a quantum transfer learning-based hybrid model to address the frequent emergence of new anomalies better. We showed that we could reduce the total number of trainable parameters up to 90% of the initial model without any drop in performance.
- Abstract(参考訳): データ量の急速な増加は、ディープラーニングモデルのサイズと複雑さを増大させた。
これらのモデルは今や、これまで以上にリソース集約的で、トレーニングに時間がかかる。
本稿では,量子トランスファー学習(QTL)に基づく古典モデルのパラメータ数を,性能を損なわずに大幅に削減する手法を提案する。
パラメータの数を減らすことで、過度に適合する問題やトレーニング時間を減らし、モデルの柔軟性と応答速度を向上する。
例えば、我々は、資源集約的で柔軟性の低い異常検出システム(ADS)を量子移動学習に基づくハイブリッドモデルに置き換え、新しい異常の頻繁な発生に対処できることを示すために、表面異常検出問題を選択した。
実験の結果,トレーニング可能なパラメータの総数を初期モデルの90%まで削減できることがわかった。
関連論文リスト
- Diffusion-Based Neural Network Weights Generation [80.89706112736353]
D2NWGは拡散に基づくニューラルネットワーク重み生成技術であり、転送学習のために高性能な重みを効率よく生成する。
本稿では,ニューラルネットワーク重み生成のための遅延拡散パラダイムを再放送するために,生成的ハイパー表現学習を拡張した。
我々のアプローチは大規模言語モデル(LLM)のような大規模アーキテクチャにスケーラブルであり、現在のパラメータ生成技術の限界を克服しています。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Emulation Learning for Neuromimetic Systems [0.0]
ニューラル量子化システムに関する最近の研究に基づいて、量子化運動の学習結果とチャネルドロップアウトに対するレジリエンスを報告する。
本稿では,経路を学習するだけでなく,チャネルドロップアウトに対するレジリエンスの利点を示す一般のディープQネットワーク(DQN)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-05-04T22:47:39Z) - Learning to Learn with Generative Models of Neural Network Checkpoints [71.06722933442956]
ニューラルネットワークのチェックポイントのデータセットを構築し,パラメータの生成モデルをトレーニングする。
提案手法は,幅広い損失プロンプトに対するパラメータの生成に成功している。
我々は、教師付きおよび強化学習における異なるニューラルネットワークアーキテクチャとタスクに本手法を適用した。
論文 参考訳(メタデータ) (2022-09-26T17:59:58Z) - Quantized Adaptive Subgradient Algorithms and Their Applications [39.103587572626026]
本稿では、分散トレーニングのための量子化された複合ミラー降下適応次数 (QCMD adagrad) と量子化された正規化された2次平均適応次数 (QRDA adagrad) を提案する。
量子化勾配に基づく適応学習率行列を構築し、通信コスト、精度、モデル間隔のバランスをとる。
論文 参考訳(メタデータ) (2022-08-11T04:04:03Z) - Multi-fidelity surrogate modeling using long short-term memory networks [0.0]
パラメタライズされた時間依存問題に対する多要素代理モデリングの新しいデータ駆動フレームワークを提案する。
提案した多要素LSTMネットワークは, シングルフィデリティ回帰を著しく向上するだけでなく, フィードフォワードニューラルネットワークに基づくマルチフィデリティモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-08-05T12:05:02Z) - Investigating the Relationship Between Dropout Regularization and Model
Complexity in Neural Networks [0.0]
ドロップアウト規則化は、ディープラーニングモデルのばらつきを低減するのに役立つ。
2,000のニューラルネットワークをトレーニングすることにより,ドロップアウト率とモデル複雑性の関係について検討する。
各密層に隠されたユニットの数から、最適なドロップアウト率を予測するニューラルネットワークを構築します。
論文 参考訳(メタデータ) (2021-08-14T23:49:33Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z) - Adaptive Quantization of Model Updates for Communication-Efficient
Federated Learning [75.45968495410047]
クライアントノードと中央集約サーバ間のモデル更新の通信は、連合学習において大きなボトルネックとなる。
グラディエント量子化(Gradient Quantization)は、各モデル更新間の通信に必要なビット数を削減する効果的な方法である。
通信効率と低エラーフロアを実現することを目的としたAdaFLと呼ばれる適応量子化戦略を提案する。
論文 参考訳(メタデータ) (2021-02-08T19:14:21Z) - Neural networks with late-phase weights [66.72777753269658]
学習後期に重みのサブセットを組み込むことで,SGDの解をさらに改善できることを示す。
学習の終わりに、重み空間における空間平均を取ることにより、1つのモデルを取得する。
論文 参考訳(メタデータ) (2020-07-25T13:23:37Z) - Hybrid modeling: Applications in real-time diagnosis [64.5040763067757]
我々は、機械学習にインスパイアされたモデルと物理モデルを組み合わせた、新しいハイブリッドモデリングアプローチの概要を述べる。
このようなモデルをリアルタイム診断に利用しています。
論文 参考訳(メタデータ) (2020-03-04T00:44:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。