論文の概要: Who invented deep residual learning?
- arxiv url: http://arxiv.org/abs/2509.24732v1
- Date: Mon, 29 Sep 2025 12:57:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.990679
- Title: Who invented deep residual learning?
- Title(参考訳): 誰が深層学習を発明したのか。
- Authors: Juergen Schmidhuber,
- Abstract要約: 2025年現在、21世紀の最も引用された科学論文は、残余接続を伴う深層学習に関するNNの論文である。
我々は深層学習の進化のタイムラインを提示する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Modern AI is based on deep artificial neural networks (NNs). As of 2025, the most cited scientific article of the 21st century is an NN paper on deep residual learning with residual connections. Who invented this? We present a timeline of the evolution of deep residual learning.
- Abstract(参考訳): 現代のAIはディープ・人工知能・ニューラルネットワーク(NN)に基づいている。
2025年現在、21世紀の最も引用されている科学的論文は、残余接続を伴う深層学習に関するNNの論文である。
誰がこれを発明したのですか。
我々は深層学習の進化のタイムラインを提示する。
関連論文リスト
- Semi-parametric Memory Consolidation: Towards Brain-like Deep Continual Learning [59.35015431695172]
本稿では,半パラメトリックメモリと覚醒・睡眠統合機構を統合したバイオミメティック連続学習フレームワークを提案する。
提案手法は,実世界の挑戦的連続学習シナリオにおいて,先行知識を維持しつつ,新しいタスクにおけるディープニューラルネットワークの高性能維持を可能にする。
論文 参考訳(メタデータ) (2025-04-20T19:53:13Z) - CTRQNets & LQNets: Continuous Time Recurrent and Liquid Quantum Neural Networks [76.53016529061821]
Liquid Quantum Neural Network (LQNet) とContinuous Time Recurrent Quantum Neural Network (CTRQNet) を開発した。
LQNetとCTRQNetは、バイナリ分類によってCIFAR 10で40%の精度向上を実現している。
論文 参考訳(メタデータ) (2024-08-28T00:56:03Z) - Annotated History of Modern AI and Deep Learning [0.0]
私は、ニューラルネットワーク(NN)とディープラーニングに支配される現代の人工知能(AI)の歴史に注目します。
現代のAIの歴史は、従来のAIテキストブックの焦点外のブレークスルーを強調するだろう。
NN、ディープラーニング、AI、コンピュータサイエンス、数学全般の歴史において、最も重要なイベントのタイムラインを提供します。
論文 参考訳(メタデータ) (2022-12-21T16:46:24Z) - Neurocompositional computing: From the Central Paradox of Cognition to a
new generation of AI systems [120.297940190903]
AIの最近の進歩は、限られた形態のニューロコンフォメーションコンピューティングの使用によってもたらされている。
ニューロコンポジションコンピューティングの新しい形式は、より堅牢で正確で理解しやすいAIシステムを生み出します。
論文 参考訳(メタデータ) (2022-05-02T18:00:10Z) - Deep Learning and Artificial General Intelligence: Still a Long Way to
Go [0.15229257192293197]
ニューラルネットワークアーキテクチャを用いたディープラーニングは、コンピュータサイエンス研究の最前線にある。
この記事では、現在の状態において、ディープニューラルネットワークが人工知能に到達するための選択技術である準備ができていない5つの主要な理由を批判的に示す。
論文 参考訳(メタデータ) (2022-03-25T23:36:17Z) - Provable Regret Bounds for Deep Online Learning and Control [77.77295247296041]
我々は、損失関数がニューラルネットワークのパラメータを最適化するために適応できることを示し、後から最も優れたネットと競合することを示す。
オンライン設定におけるこれらの結果の適用として、オンライン制御コントローラの証明可能なバウンダリを得る。
論文 参考訳(メタデータ) (2021-10-15T02:13:48Z) - Training Spiking Neural Networks Using Lessons From Deep Learning [28.827506468167652]
シナプスとニューロンの内部構造は、ディープラーニングの未来を垣間見ることができます。
いくつかのアイデアはニューロモルフィックエンジニアリングコミュニティでよく受け入れられ、一般的に使われているが、他のアイデアはここで初めて提示または正当化されている。
PythonパッケージであるsnnTorchを使って、この論文を補完する一連のインタラクティブチュートリアルも利用可能である。
論文 参考訳(メタデータ) (2021-09-27T09:28:04Z) - Neural Contextual Bandits with Deep Representation and Shallow
Exploration [105.8099566651448]
本稿では,深部ReLUニューラルネットワークの最後の隠蔽層を用いて,原特徴ベクトルを変換する新しい学習アルゴリズムを提案する。
既存のニューラルネットワークと比較して、ディープニューラルネットワークの最後の層でのみ探索する必要があるため、我々のアプローチは計算的にはるかに効率的です。
論文 参考訳(メタデータ) (2020-12-03T09:17:55Z) - Artificial Neural Variability for Deep Learning: On Overfitting, Noise
Memorization, and Catastrophic Forgetting [135.0863818867184]
人工ニューラルネットワーク(ANV)は、ニューラルネットワークが自然のニューラルネットワークからいくつかの利点を学ぶのに役立つ。
ANVは、トレーニングデータと学習モデルの間の相互情報の暗黙の正則化として機能する。
過度にフィットし、ノイズの記憶をラベル付けし、無視できるコストで破滅的な忘れを効果的に軽減することができる。
論文 参考訳(メタデータ) (2020-11-12T06:06:33Z) - Comments on Sejnowski's "The unreasonable effectiveness of deep learning
in artificial intelligence" [arXiv:2002.04806] [0.0]
Sejnowski氏の2020年の論文[arXiv:2002.04806]は、"The Unreasonable Effective of Deep Learning in AI"と題されている。
この論文は、なぜDCNNがモデルとして訓練された多くのマッピングを近似できるのかという暗黙の疑問に答えようとはしていない。
論文 参考訳(メタデータ) (2020-03-20T17:54:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。