論文の概要: Comments on Sejnowski's "The unreasonable effectiveness of deep learning
in artificial intelligence" [arXiv:2002.04806]
- arxiv url: http://arxiv.org/abs/2003.09415v2
- Date: Thu, 9 Apr 2020 13:45:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 22:06:58.548823
- Title: Comments on Sejnowski's "The unreasonable effectiveness of deep learning
in artificial intelligence" [arXiv:2002.04806]
- Title(参考訳): sejnowski氏の“the unreasonable effectiveness of deep learning in artificial intelligence”に対するコメント [arxiv:2002.04806]
- Authors: Leslie S. Smith
- Abstract要約: Sejnowski氏の2020年の論文[arXiv:2002.04806]は、"The Unreasonable Effective of Deep Learning in AI"と題されている。
この論文は、なぜDCNNがモデルとして訓練された多くのマッピングを近似できるのかという暗黙の疑問に答えようとはしていない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Terry Sejnowski's 2020 paper [arXiv:2002.04806] is entitled "The unreasonable
effectiveness of deep learning in artificial intelligence". However, the paper
doesn't attempt to answer the implied question of why Deep Convolutional Neural
Networks (DCNNs) can approximate so many of the mappings that they have been
trained to model. While there are detailed mathematical analyses, this short
paper attempts to look at the issue differently, considering the way that these
networks are used, the subset of these functions that can be achieved by
training (starting from some location in the original function space), as well
as the functions to which these networks will actually be applied.
- Abstract(参考訳): Terry Sejnowski氏の2020年の論文(arXiv:2002.04806)は、"The Unreasonable Effective of Deep Learning in Artificial Intelligence"と題されている。
しかし、この論文は、なぜDeep Convolutional Neural Networks(DCNN)がモデルとして訓練された多くのマッピングを近似できるのかという暗黙の疑問に答えようとはしない。
詳細な数学的解析は存在するが、この短い論文では、これらのネットワークの使用方法や、トレーニングによって達成できる機能の一部(元の関数空間のある場所から始まります)、そして、これらのネットワークが実際に適用される機能などを考慮して、問題を異なる視点で検討しようと試みている。
関連論文リスト
- Universal Approximation Theory: The Basic Theory for Deep Learning-Based Computer Vision Models [9.487731634351787]
コンピュータビジョン(CV)は人工知能において最も重要な分野の一つである。
近年,畳み込みニューラルネットワーク(CNN)とトランスフォーマーに基づくさまざまなディープラーニングモデルが,CVの多様な問題に対処するために設計されている。
これらのアルゴリズムはロボット工学や顔認識などの分野で実用化されている。
論文 参考訳(メタデータ) (2024-07-02T06:08:30Z) - Training of Physical Neural Networks [16.832505972118646]
物理ニューラルネットワーク(PNN)は、物理系の特性を利用して計算を行うニューラルネットワークである。
PNNはいつか、AIシステムで何が可能で実用的なのかを根本的に変えるかもしれない。
大規模にPNNを訓練するために、バックプロパゲーションベースやバックプロパゲーションフリーアプローチを含む多くの手法が検討されている。
論文 参考訳(メタデータ) (2024-06-05T15:28:04Z) - Training Neural Networks with Internal State, Unconstrained
Connectivity, and Discrete Activations [66.53734987585244]
真のインテリジェンスには、内部状態を管理するマシンラーニングモデルが必要だ。
このようなモデルのトレーニングに最も効果的なアルゴリズムは,まだ発見されていない。
このようなトレーニングアルゴリズムを2進アクティベーションと1つの重みの行列のみを持つアーキテクチャに適用する試みについて述べる。
論文 参考訳(メタデータ) (2023-12-22T01:19:08Z) - How Graph Neural Networks Learn: Lessons from Training Dynamics [80.41778059014393]
グラフニューラルネットワーク(GNN)の関数空間におけるトレーニングダイナミクスについて検討する。
GNNの勾配勾配勾配最適化は暗黙的にグラフ構造を利用して学習関数を更新する。
この発見は、学習したGNN関数が一般化した時期と理由に関する新たな解釈可能な洞察を提供する。
論文 参考訳(メタデータ) (2023-10-08T10:19:56Z) - Why do CNNs excel at feature extraction? A mathematical explanation [53.807657273043446]
実世界のデータセットに似た画像を生成するのに使用できる特徴抽出に基づく画像分類の新しいモデルを提案する。
本研究では,特徴の存在を検知する一方向線形関数を構築し,畳み込みネットワークで実現可能であることを示す。
論文 参考訳(メタデータ) (2023-07-03T10:41:34Z) - The rise of the lottery heroes: why zero-shot pruning is hard [3.1473798197405944]
ディープラーニング最適化の最近の進歩は、モデルのトレーニングを成功させるためには、パラメータのサブセットが本当に必要であることを示している。
トレーニング可能なサブネットワークを見つけるのは通常、コストがかかるプロセスです。
ディープラーニングモデルにおける学習されたサブグラフ構造は、トレーニング時に見つけることができるか?
論文 参考訳(メタデータ) (2022-02-24T22:49:36Z) - On the Compression of Natural Language Models [0.0]
我々は、量子化、知識蒸留、プルーニングといった最先端の圧縮技術についてレビューする。
本研究の目的は、自然言語モデル(NLM)にそのような訓練可能なサブネットワークが存在するかどうかを評価することである。
論文 参考訳(メタデータ) (2021-12-13T08:14:21Z) - A Study of the Mathematics of Deep Learning [1.14219428942199]
深層学習」/「深層ニューラルネットワーク」は、人工知能の最先端のタスクにますます展開されている技術的驚異です。
この論文は、これらの新しいディープラーニングのパラダイムの強力な理論基盤を構築するためのいくつかのステップを踏む。
論文 参考訳(メタデータ) (2021-04-28T22:05:54Z) - The Connection Between Approximation, Depth Separation and Learnability
in Neural Networks [70.55686685872008]
学習可能性と近似能力の関係について検討する。
対象関数の深いネットワークでの学習性は、より単純なクラスがターゲットを近似する能力に依存することを示す。
論文 参考訳(メタデータ) (2021-01-31T11:32:30Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - On the distance between two neural networks and the stability of
learning [59.62047284234815]
本稿では, パラメータ距離と勾配分解を, 幅広い非線形構成関数のクラスに関連付ける。
この分析により、ニューラルネットワークの深い相対信頼と降下補題と呼ばれる新しい距離関数が導かれる。
論文 参考訳(メタデータ) (2020-02-09T19:18:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。