論文の概要: The Enduring Dominance of Deep Neural Networks: A Critical Analysis of the Fundamental Limitations of Quantum Machine Learning and Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2510.08591v1
- Date: Sat, 04 Oct 2025 11:00:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:47.086403
- Title: The Enduring Dominance of Deep Neural Networks: A Critical Analysis of the Fundamental Limitations of Quantum Machine Learning and Spiking Neural Networks
- Title(参考訳): 深層ニューラルネットワークの持続的支配--量子機械学習とスパイクニューラルネットワークの基礎的限界の批判的分析
- Authors: Takehiro Ishikawa,
- Abstract要約: QMLとSNNの最近の進歩は、かなりの興奮を引き起こしている。
本稿は、DNNを短期的に置き換えることはありそうにない、と論じる。
DNNは、効率的なバックプロパゲーション、堅牢な正規化、およびスケーリングを推論時間計算にシフトするLEMのイノベーションを活用する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advancements in QML and SNNs have generated considerable excitement, promising exponential speedups and brain-like energy efficiency to revolutionize AI. However, this paper argues that they are unlikely to displace DNNs in the near term. QML struggles with adapting backpropagation due to unitary constraints, measurement-induced state collapse, barren plateaus, and high measurement overheads, exacerbated by the limitations of current noisy intermediate-scale quantum hardware, overfitting risks due to underdeveloped regularization techniques, and a fundamental misalignment with machine learning's generalization. SNNs face restricted representational bandwidth, struggling with long-range dependencies and semantic encoding in language tasks due to their discrete, spike-based processing. Furthermore, the goal of faithfully emulating the brain might impose inherent inefficiencies like cognitive biases, limited working memory, and slow learning speeds. Even their touted energy-efficient advantages are overstated; optimized DNNs with quantization can outperform SNNs in energy costs under realistic conditions. Finally, SNN training incurs high computational overhead from temporal unfolding. In contrast, DNNs leverage efficient backpropagation, robust regularization, and innovations in LRMs that shift scaling to inference-time compute, enabling self-improvement via RL and search algorithms like MCTS while mitigating data scarcity. This superiority is evidenced by recent models such as xAI's Grok-4 Heavy, which advances SOTA performance, and gpt-oss-120b, which surpasses or approaches the performance of leading industry models despite its modest 120-billion-parameter size deployable on a single 80GB GPU. Furthermore, specialized ASICs amplify these efficiency gains. Ultimately, QML and SNNs may serve niche hybrid roles, but DNNs remain the dominant, practical paradigm for AI advancement.
- Abstract(参考訳): QMLとSNNの最近の進歩は、AIに革命をもたらすために指数的スピードアップと脳に似たエネルギー効率を約束する、かなりの興奮をもたらした。
しかし,本論文は,DNNを短期的に置き換えることはありそうにないと主張している。
QMLは、ユニタリ制約によるバックプロパゲーションの適応、測定による状態崩壊、バレンプラトー、高測定オーバーヘッド、現在のノイズの多い中間スケール量子ハードウェアの制限、未発達の正規化技術によるリスクの過度な適合、機械学習の一般化による根本的なミスアライメントによって悪化する。
SNNは、離散的なスパイクベースの処理のため、言語タスクにおける長距離依存やセマンティックエンコーディングに苦しむ、表現帯域幅の制限に直面している。
さらに、脳を忠実にエミュレートするというゴールは、認知バイアス、限られたワーキングメモリ、遅い学習速度などの非効率性を課す可能性がある。
量子化による最適化されたDNNは、現実的な条件下でのエネルギーコストにおいてSNNよりも優れている。
最後に、SNNトレーニングは時間展開から高い計算オーバーヘッドを発生させる。
対照的に、DNNは効率的なバックプロパゲーション、ロバストな正規化、LRMのイノベーションを活用し、スケーリングを推論時計算に移行することで、データの不足を軽減しつつ、RLやMCTSのような検索アルゴリズムによる自己改善を可能にする。
この優位性は、最近のモデルであるxAIのGrok-4 Heavyや、80GBのGPU上に展開可能な120ビリオンパラメートルの控えめなサイズにもかかわらず、主要な業界モデルのパフォーマンスを上回り、あるいはアプローチするgpt-oss-120bなどによって証明されている。
さらに、特殊ASICはこれらの効率向上を増幅する。
結局のところ、QMLとSNNはニッチなハイブリッドの役割を担うかもしれないが、DNNはAIの進歩における支配的な実践的パラダイムであり続けている。
関連論文リスト
- Learning Neuron Dynamics within Deep Spiking Neural Networks [0.09558392439655011]
Spiking Neural Networks (SNN)は、Artificial Neural Networks (ANN)の代替として有望なエネルギー効率を提供する
ディープSNNは、Leaky Integrate-and-Fire(LIF)モデルのような単純なニューロンモデルに依存しているため、依然として制限されている。
LNMは、トレーニング中にニューロンのダイナミクスを学ぶ非線形統合火炎力学の一般的なパラメトリック定式化である。
論文 参考訳(メタデータ) (2025-10-07T18:16:57Z) - S$^2$NN: Sub-bit Spiking Neural Networks [53.08060832135342]
スパイキングニューラルネットワーク(SNN)は、マシンインテリジェンスにエネルギー効率のよいパラダイムを提供する。
最近のバイナリSNNの進歩にもかかわらず、大規模ネットワークではストレージと計算の要求が相当に大きい。
1ビット未満の重みを表すサブビットスパイキングニューラルネットワーク(S$2$NNs)を提案する。
論文 参考訳(メタデータ) (2025-09-29T04:17:44Z) - CaRe-BN: Precise Moving Statistics for Stabilizing Spiking Neural Networks in Reinforcement Learning [50.87795054453648]
Spiking Neural Networks (SNN)は、ニューロモルフィックハードウェア上で低レイテンシでエネルギー効率の意思決定を提供する。
スパイクの離散的かつ微分不可能な性質のため、直接訓練されたSNNは勾配更新を安定させるためにバッチ正規化(BN)に大きく依存する。
オンライン強化学習(RL)では、BN統計は搾取を妨げ、収束と準最適政策を遅くする。
論文 参考訳(メタデータ) (2025-09-28T10:21:17Z) - QP-SNN: Quantized and Pruned Spiking Neural Networks [10.74122828236122]
スパイキングニューラルネットワーク(SNN)はスパイクを利用して情報をエンコードし、イベント駆動方式で運用する。
資源限定シナリオにおいて,高性能なSNNを効果的に展開することを目的とした,ハードウェアフレンドリで軽量なSNNを提案する。
論文 参考訳(メタデータ) (2025-02-09T13:50:59Z) - Scalable Mechanistic Neural Networks for Differential Equations and Machine Learning [52.28945097811129]
長い時間的シーケンスを含む科学機械学習応用のための拡張ニューラルネットワークフレームワークを提案する。
計算時間と空間複雑度はそれぞれ、列長に関して立方体と二次体から線形へと減少する。
大規模な実験により、S-MNNは元のMNNと精度で一致し、計算資源を大幅に削減した。
論文 参考訳(メタデータ) (2024-10-08T14:27:28Z) - Energy-Efficient Deployment of Machine Learning Workloads on
Neuromorphic Hardware [0.11744028458220425]
ディープラーニングハードウェアアクセラレータがいくつかリリースされ、ディープニューラルネットワーク(DNN)が消費する電力と面積の削減に特化している。
個別の時系列データで動作するスパイクニューラルネットワーク(SNN)は、特殊なニューロモルフィックイベントベース/非同期ハードウェアにデプロイすると、大幅な電力削減を実現することが示されている。
本研究では,事前学習したDNNをSNNに変換するための一般的なガイドを提供するとともに,ニューロモルフィックハードウェア上でのSNNの展開を改善するためのテクニックも提示する。
論文 参考訳(メタデータ) (2022-10-10T20:27:19Z) - FSpiNN: An Optimization Framework for Memory- and Energy-Efficient
Spiking Neural Networks [14.916996986290902]
スパイキングニューラルネットワーク(SNN)は、スパイクタイピング依存の可塑性(STDP)ルールのために教師なし学習機能を提供する。
しかし、最先端のSNNは高い精度を達成するために大きなメモリフットプリントを必要とする。
トレーニングおよび推論処理のためのメモリ効率とエネルギー効率のよいSNNを得るための最適化フレームワークFSpiNNを提案する。
論文 参考訳(メタデータ) (2020-07-17T09:40:26Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。