論文の概要: AdS/Deep-Learning made easy: simple examples
- arxiv url: http://arxiv.org/abs/2011.13726v2
- Date: Tue, 22 Dec 2020 16:39:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 02:55:04.821336
- Title: AdS/Deep-Learning made easy: simple examples
- Title(参考訳): AdS/Deep-Learningの簡単な例
- Authors: Mugeon Song, Maverick S. H. Oh, Yongjun Ahn, and Keun-Young Kim
- Abstract要約: AdS/Deep-Learning (DL)と呼ばれる新しいディープラーニング技術が提案されている。
本稿では、最も単純な設定でAdS/DLの本質について述べる。
- 参考スコア(独自算出の注目度): 1.1199585259018459
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Deep learning has been widely and actively used in various research areas.
Recently, in the gauge/gravity duality, a new deep learning technique so-called
the AdS/Deep-Learning (DL) has been proposed [1, 2]. The goal of this paper is
to describe the essence of the AdS/DL in the simplest possible setups, for
those who want to apply it to the subject of emergent spacetime as a neural
network. For prototypical examples, we choose simple classical mechanics
problems. This method is a little different from standard deep learning
techniques in the sense that not only do we have the right final answers but
also obtain a physical understanding of learning parameters.
- Abstract(参考訳): 深層学習は様々な研究領域で広く活発に行われている。
近年,ゲージと重力の双対性において,ads/deep-learning (dl)と呼ばれる新しいディープラーニング手法が提案されている。
本論文の目的は,AdS/DLの本質を,ニューラルネットワークとして創発的時空の課題に適用したい人のために,可能な限り簡単な設定で記述することである。
原型的な例では、単純な古典力学の問題を選ぶ。
この方法は,最終回答が正しいだけでなく,学習パラメータの物理的理解も得られるという意味で,標準的な深層学習手法と少し異なる。
関連論文リスト
- Deep Learning Through A Telescoping Lens: A Simple Model Provides Empirical Insights On Grokking, Gradient Boosting & Beyond [61.18736646013446]
その驚くべき振る舞いをより深く理解するために、トレーニングされたニューラルネットワークの単純かつ正確なモデルの有用性について検討する。
3つのケーススタディで、様々な顕著な現象に関する新しい経験的洞察を導き出すためにどのように適用できるかを説明します。
論文 参考訳(メタデータ) (2024-10-31T22:54:34Z) - The Law of Parsimony in Gradient Descent for Learning Deep Linear
Networks [34.85235641812005]
我々は、データが低次元構造を持つ場合、学習力学において驚くべき「パシモニーの法則」を明らかにする。
この学習力学の単純さは、効率的なトレーニングとディープネットワークのより良い理解の両方に重大な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-06-01T21:24:53Z) - ALSO: Automotive Lidar Self-supervision by Occupancy estimation [70.70557577874155]
本稿では,ポイントクラウド上で動作している深層知覚モデルのバックボーンを事前学習するための自己教師型手法を提案する。
中心となる考え方は、3Dポイントがサンプリングされる表面の再構成であるプリテキストタスクでモデルをトレーニングすることである。
直感的には、もしネットワークがわずかな入力ポイントのみを考慮し、シーン表面を再構築できるなら、おそらく意味情報の断片をキャプチャする。
論文 参考訳(メタデータ) (2022-12-12T13:10:19Z) - S-Prompts Learning with Pre-trained Transformers: An Occam's Razor for
Domain Incremental Learning [47.35363657976161]
最先端のディープニューラルネットワークは、継続的な学習における破滅的な忘れの問題にまだ対処できていない。
そこで本研究では,S-Prompting(S-Prompting)と呼ばれる単純なパラダイムと,忘れる度合いを高く抑えるための2つの具体的なアプローチを提案する。
論文 参考訳(メタデータ) (2022-07-26T11:30:47Z) - Meet You Halfway: Explaining Deep Learning Mysteries [0.0]
本稿では,ネットワークの振舞いに光を当てることを目的とした,形式的な記述を伴う新しい概念的枠組みを提案する。
なぜニューラルネットワークは一般化能力を獲得するのか?
我々は、この新しいフレームワークと基礎となる理論をサポートする包括的な実験セットを提供する。
論文 参考訳(メタデータ) (2022-06-09T12:43:10Z) - Targeted Deep Learning: Framework, Methods, and Applications [0.3553493344868413]
ディープラーニングシステムは通常、幅広いテスト入力を実行するように設計されています。
医療は、現在、個々の患者に対する治療のターゲティングに興味があります。
深層学習を対象とするアプリケーションにおいて,ディープラーニングと呼ぶことを提案する。
論文 参考訳(メタデータ) (2021-05-28T18:37:12Z) - A Deep Learning Framework for Lifelong Machine Learning [6.662800021628275]
シンプルなながら強力な統合型ディープラーニングフレームワークを提案する。
当社のフレームワークは、これらのプロパティとアプローチのほぼすべてを1つの中央機構でサポートします。
この統一生涯学習フレームワークが、大規模な実験と人間の学習全般への新しい取り組みを刺激することを期待している。
論文 参考訳(メタデータ) (2021-05-01T03:43:25Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - Learning Dynamic Alignment via Meta-filter for Few-shot Learning [94.41887992982986]
少ないショット学習は、学習知識を極めて限定的な(サポート)例で適応させることで、新しいクラスを認識することを目的としている。
異なるローカルサポート情報に従って、クエリ領域とチャネルの両方を効果的に強調表示できる動的アライメントを学びます。
結果として得られたフレームワークは、主要な数発の視覚認識ベンチマークに最新技術を確立します。
論文 参考訳(メタデータ) (2021-03-25T03:29:33Z) - Self-supervised Knowledge Distillation for Few-shot Learning [123.10294801296926]
少数のサンプルだけで秩序分布から素早く学習できるため、ショットラーニングは有望な学習パラダイムである。
数ショットの学習タスクにおいて,深層ニューラルネットワークの表現能力を向上させるための簡単な手法を提案する。
実験により、第一段階においても、自己超越は現在の最先端手法より優れていることが示された。
論文 参考訳(メタデータ) (2020-06-17T11:27:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。