論文の概要: How deep the machine learning can be
- arxiv url: http://arxiv.org/abs/2005.00872v1
- Date: Sat, 2 May 2020 16:06:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 13:00:23.906879
- Title: How deep the machine learning can be
- Title(参考訳): 機械学習の深みは
- Authors: J\'anos V\'egh
- Abstract要約: 機械学習は、主に従来のコンピューティング(プロセッサ)に基づいている。
本稿では,AIソリューションの計算性能のスケールアップについて,いくつかの問題点を概観する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Today we live in the age of artificial intelligence and machine learning;
from small startups to HW or SW giants, everyone wants to build machine
intelligence chips, applications. The task, however, is hard: not only because
of the size of the problem: the technology one can utilize (and the paradigm it
is based upon) strongly degrades the chances to succeed efficiently. Today the
single-processor performance practically reached the limits the laws of nature
enable. The only feasible way to achieve the needed high computing performance
seems to be parallelizing many sequentially working units. The laws of the
(massively) parallelized computing, however, are different from those
experienced in connection with assembling and utilizing systems comprising
just-a-few single processors. As machine learning is mostly based on the
conventional computing (processors), we scrutinize the (known, but somewhat
faded) laws of the parallel computing, concerning AI. This paper attempts to
review some of the caveats, especially concerning scaling the computing
performance of the AI solutions.
- Abstract(参考訳): 今日、私たちは人工知能と機械学習の時代を生きている。小さなスタートアップからHWやSWの巨人まで、誰もが機械学習チップやアプリケーションを作りたがっている。
しかし、タスクは困難である: 問題のサイズのためだけでなく、テクノロジーが効果的に成功する可能性を強く低下させる(そしてそれに基づくパラダイム)。
今日、シングルプロセッサのパフォーマンスは事実上自然法則の限界に達している。
必要な高いコンピューティング性能を達成する唯一の方法は、多くのシーケンシャルな作業単位を並列化することです。
しかし、(大規模に)並列化されたコンピューティングの法則は、単一プロセッサの組立と利用に関して経験した法則とは異なる。
機械学習は、主に従来のコンピューティング(プロセッサ)に基づいているため、aiに関する並列コンピューティングの(知られているが、幾分衰退した)法則を精査する。
本稿では,AIソリューションの計算性能のスケールアップについて,いくつかの問題点を概観する。
関連論文リスト
- Benchmarking Predictive Coding Networks -- Made Simple [48.652114040426625]
まず,性能と簡易性を重視したPCXというライブラリを提案する。
私たちはPCXを使って、コミュニティが実験に使用する大規模なベンチマークを実装しています。
論文 参考訳(メタデータ) (2024-07-01T10:33:44Z) - Thermodynamic Computing System for AI Applications [0.0]
熱力学計算のような物理ベースのハードウェアは、AIプリミティブを加速する高速で低消費電力の手段を提供する可能性がある。
処理ユニット(SPU)と呼ばれる最初の連続可変熱力学コンピュータを提示する。
論文 参考訳(メタデータ) (2023-12-08T05:22:04Z) - Brain-Inspired Computational Intelligence via Predictive Coding [89.6335791546526]
予測符号化(PC)は、マシンインテリジェンスタスクにおいて有望なパフォーマンスを示している。
PCは様々な脳領域で情報処理をモデル化することができ、認知制御やロボティクスで使用することができる。
論文 参考訳(メタデータ) (2023-08-15T16:37:16Z) - Reliable AI: Does the Next Generation Require Quantum Computing? [71.84486326350338]
デジタルハードウェアは、最適化、ディープラーニング、微分方程式に関する問題の解決に本質的に制約されていることを示す。
対照的に、Blum-Shub-Smale マシンのようなアナログコンピューティングモデルは、これらの制限を克服する可能性を示している。
論文 参考訳(メタデータ) (2023-07-03T19:10:45Z) - Harnessing Deep Learning and HPC Kernels via High-Level Loop and Tensor Abstractions on CPU Architectures [67.47328776279204]
この研究は、効率的でポータブルなDeep LearningとHigh Performance Computingカーネルを開発するためのフレームワークを導入している。
1)プロセッシングプリミティブ(TPP)を用いた計算コアの表現と,2)高レベルな宣言的手法でTPPのまわりの論理ループの表現の2つのステップでカーネルの開発を分解する。
我々は、スタンドアロンカーネルと、さまざまなCPUプラットフォームにおける最先端実装よりも優れたエンドツーエンドワークロードを使用して、このアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-25T05:04:44Z) - Divide & Conquer Imitation Learning [75.31752559017978]
模倣学習は学習プロセスをブートストラップするための強力なアプローチである。
本稿では,専門的軌道の状態から複雑なロボットタスクを模倣する新しいアルゴリズムを提案する。
提案手法は,非ホロノミックナビゲーションタスクを模倣し,非常に高いサンプル効率で複雑なロボット操作タスクにスケールすることを示す。
論文 参考訳(メタデータ) (2022-04-15T09:56:50Z) - End-to-end Algorithm Synthesis with Recurrent Networks: Logical
Extrapolation Without Overthinking [52.05847268235338]
機械学習システムが問題を過度に考えずに論理的外挿を行う方法を示す。
本稿では,問題インスタンスの明示的なコピーをメモリに保持して,それを忘れないようにするリコールアーキテクチャを提案する。
また、モデルが数に固有の行動を学ぶのを防ぎ、無期限に繰り返される行動を学ぶためにモデルをプッシュするプログレッシブトレーニングルーチンも採用しています。
論文 参考訳(メタデータ) (2022-02-11T18:43:28Z) - Artificial Intelligence in the Low-Level Realm -- A Survey [0.0]
我々は、OSの主要な責務において、AIアプローチ、特に機械学習を利用する方法と努力を求めます。
言い換えれば、答えるべき主な質問は、従来のOSカーネルのメインタスクを改善する上で、AIがどのように直接的に役割を担ってきたか、という点である。
論文 参考訳(メタデータ) (2021-09-19T19:36:54Z) - Hybrid Intelligence [4.508830262248694]
今後数十年間、人間と機械の間の労働分業の最も可能性の高いパラダイムはハイブリッド・インテリジェンスであると主張する。
このコンセプトは、人間の知性とAIの相補的な強みを利用することを目標とし、それぞれが個別にできることよりも優れたパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-05-03T08:56:09Z) - Which scaling rule applies to Artificial Neural Networks [0.0]
分離された単一プロセッサからなる協調・通信コンピューティングシステムには、厳しい性能制限があることを示す。
この論文は、フォン・ノイマンのオリジナルのモデルから始まり、処理時間とは別に転送時間を無視することなく、アムダールの法則の適切な解釈と扱いを導出する。
論文 参考訳(メタデータ) (2020-05-15T19:52:55Z) - SOL: Effortless Device Support for AI Frameworks without Source Code
Changes [1.030051577369649]
我々は、異種ハードウェアを透過的にサポートできるハードウェア抽象化層を提供するAIアクセラレーションであるSOLを紹介した。
概念実証として,CPU,GPU,ベクトルプロセッサの3つのバックエンドでPyTorch用のSOLを実装した。
論文 参考訳(メタデータ) (2020-03-24T07:03:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。