論文の概要: The Unreasonable Effectiveness of Deep Learning in Artificial
Intelligence
- arxiv url: http://arxiv.org/abs/2002.04806v1
- Date: Wed, 12 Feb 2020 05:25:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-01 18:45:34.900069
- Title: The Unreasonable Effectiveness of Deep Learning in Artificial
Intelligence
- Title(参考訳): 人工知能における深層学習の有効性
- Authors: Terrence J. Sejnowski
- Abstract要約: ディープ・ラーニング・ネットワークは、高いレベルのパフォーマンスで、音声、キャプション写真、言語間のテキスト翻訳を認識できるように訓練されている。
深層学習は皮質のアーキテクチャにインスパイアされ、計画と生存に不可欠な他の脳の領域で見られる可能性がある。
- 参考スコア(独自算出の注目度): 1.5229257192293197
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning networks have been trained to recognize speech, caption
photographs and translate text between languages at high levels of performance.
Although applications of deep learning networks to real world problems have
become ubiquitous, our understanding of why they are so effective is lacking.
These empirical results should not be possible according to sample complexity
in statistics and non-convex optimization theory. However, paradoxes in the
training and effectiveness of deep learning networks are being investigated and
insights are being found in the geometry of high-dimensional spaces. A
mathematical theory of deep learning would illuminate how they function, allow
us to assess the strengths and weaknesses of different network architectures
and lead to major improvements. Deep learning has provided natural ways for
humans to communicate with digital devices and is foundational for building
artificial general intelligence. Deep learning was inspired by the architecture
of the cerebral cortex and insights into autonomy and general intelligence may
be found in other brain regions that are essential for planning and survival,
but major breakthroughs will be needed to achieve these goals.
- Abstract(参考訳): ディープ・ラーニング・ネットワークは、高いパフォーマンスで音声認識、キャプション写真、言語間のテキスト翻訳を訓練されている。
深層学習ネットワークの現実世界問題への応用が普及しつつあるが、それがなぜこれほど効果的なのかについての我々の理解は不足している。
これらの経験的結果は、統計学や非凸最適化理論のサンプル複雑性によっては不可能である。
しかし、深層学習ネットワークの訓練と効果のパラドックスが研究され、高次元空間の幾何学における洞察が発見されている。
ディープラーニングの数学的理論は、それらがどのように機能するかを照らし、異なるネットワークアーキテクチャの強みと弱みを評価し、大きな改善をもたらす。
ディープラーニングは、人間がデジタルデバイスと通信する自然な方法を提供し、人工知能の構築の基礎となっている。
ディープラーニングは、大脳皮質のアーキテクチャと自律性と一般的な知性に関する洞察に触発され、計画と生存に不可欠な他の脳領域に見られるかもしれないが、これらの目標を達成するためには大きなブレークスルーが必要である。
関連論文リスト
- Improving deep learning with prior knowledge and cognitive models: A
survey on enhancing explainability, adversarial robustness and zero-shot
learning [0.0]
我々は、敵の防御を実現するために、現在および新興の知識インフォームドおよび脳にインスパイアされた認知システムについてレビューする。
脳に触発された認知法は、人間の心を模倣する計算モデルを用いて、人工知能や自律ロボットの知的な行動を強化する。
論文 参考訳(メタデータ) (2024-03-11T18:11:00Z) - Brain-Inspired Computational Intelligence via Predictive Coding [89.6335791546526]
予測符号化(PC)は、マシンインテリジェンスタスクにおいて有望なパフォーマンスを示している。
PCは様々な脳領域で情報処理をモデル化することができ、認知制御やロボティクスで使用することができる。
論文 参考訳(メタデータ) (2023-08-15T16:37:16Z) - Ten Quick Tips for Deep Learning in Biology [116.78436313026478]
機械学習は、データのパターンを認識し、予測モデリングに使用するアルゴリズムの開発と応用に関係している。
ディープラーニングは、独自の機械学習のサブフィールドになっている。
生物学的研究の文脈において、ディープラーニングは高次元の生物学的データから新しい洞察を導き出すためにますます使われてきた。
論文 参考訳(メタデータ) (2021-05-29T21:02:44Z) - Geometric Deep Learning: Grids, Groups, Graphs, Geodesics, and Gauges [50.22269760171131]
過去10年間、データサイエンスと機械学習の実験的な革命が、ディープラーニングの手法によって生まれた。
このテキストは、統一幾何学的原理によって事前に定義された規則性を公開することに関するものである。
CNN、RNN、GNN、Transformersなど、最も成功したニューラルネットワークアーキテクチャを研究するための一般的な数学的フレームワークを提供する。
論文 参考訳(メタデータ) (2021-04-27T21:09:51Z) - Discussion of Ensemble Learning under the Era of Deep Learning [4.061135251278187]
深層学習のアンサンブル化は,学習システムの一般化に大きく貢献している。
複数のベース深層学習者のトレーニングとアンサンブル深層学習者によるテストのための時間と空間のオーバーヘッドは、従来のアンサンブル学習よりもはるかに大きい。
緊急に解決すべき問題は、必要な時間と空間のオーバーヘッドを減らしながら、ディープラーニングをアンサンブルする大きな利点をいかに活用するかである。
論文 参考訳(メタデータ) (2021-01-21T01:33:23Z) - Deep Learning and the Global Workspace Theory [0.0]
近年のディープラーニングの進歩により、人工知能は多くの感覚、知覚、言語的、認知的なタスクにおいて、人間レベルのパフォーマンスに近いものになった。
しかし、新しい脳にインスパイアされた認知アーキテクチャーの必要性はますます高まっている。
グローバルワークスペース理論(Global Workspace theory)は、特定のモジュールのネットワーク間で情報を統合し、分散し、より高いレベルの認知と認識を作り出す大規模システムを指す。
論文 参考訳(メタデータ) (2020-12-04T11:36:01Z) - Optimism in the Face of Adversity: Understanding and Improving Deep
Learning through Adversarial Robustness [63.627760598441796]
深層学習における対角的強靭性の分野を詳細に検討する。
直感的な対向例と深層ニューラルネットワークの幾何学的関係を強調した。
セキュリティを超えた敵の堅牢性の主な応用について概説する。
論文 参考訳(メタデータ) (2020-10-19T16:03:46Z) - D2RL: Deep Dense Architectures in Reinforcement Learning [47.67475810050311]
コンピュータビジョンと生成モデルにおけるアーキテクチャ選択の成功からインスピレーションを得ます。
各種ロボット学習ベンチマーク環境における強化学習における深層ネットワークと高密度接続の利用について検討した。
論文 参考訳(メタデータ) (2020-10-19T01:27:07Z) - Memristors -- from In-memory computing, Deep Learning Acceleration,
Spiking Neural Networks, to the Future of Neuromorphic and Bio-inspired
Computing [25.16076541420544]
機械学習は、特にディープラーニングの形で、人工知能の最近の基本的な発展のほとんどを駆動している。
ディープラーニングは、オブジェクト/パターン認識、音声と自然言語処理、自動運転車、インテリジェントな自己診断ツール、自律ロボット、知識に富んだパーソナルアシスタント、監視といった分野に成功している。
本稿では、電力効率の高いインメモリコンピューティング、ディープラーニングアクセラレーター、スパイクニューラルネットワークの実装のための潜在的なソリューションとして、CMOSハードウェア技術、memristorsを超越した小説をレビューする。
論文 参考訳(メタデータ) (2020-04-30T16:49:03Z) - Deep Learning for Ultra-Reliable and Low-Latency Communications in 6G
Networks [84.2155885234293]
まず,データ駆動型教師付き深層学習と深部強化学習をURLLCに適用する方法を概説する。
このようなオープンな問題に対処するために、デバイスインテリジェンス、エッジインテリジェンス、およびURLLCのためのクラウドインテリジェンスを可能にするマルチレベルアーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-02-22T14:38:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。