論文の概要: Stream Efficient Learning
- arxiv url: http://arxiv.org/abs/2305.02217v2
- Date: Mon, 19 Jun 2023 13:20:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 02:30:15.901105
- Title: Stream Efficient Learning
- Title(参考訳): ストリーム効率のよい学習
- Authors: Zhi-Hua Zhou
- Abstract要約: 本稿では,アルゴリズムの学習能力と問題の複雑さに加えて,初めて学習理論における計算資源の影響を考慮に入れた理論的枠組みを提案する。
- 参考スコア(独自算出の注目度): 84.90891046882213
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data in many real-world applications are often accumulated over time, like a
stream. In contrast to conventional machine learning studies that focus on
learning from a given training data set, learning from data streams cannot
ignore the fact that the incoming data stream can be potentially endless with
overwhelming size and unknown changes, and it is impractical to assume to have
infinitely supplied computational resource such that all received data can be
handled in time. Thus, the generalization performance of learning from data
streams depends not only on how many data have been received, but also on how
many data can be well exploited timely, with computational resource concerns.
For this purpose, in this article we introduce the notion of machine learning
throughput, define Stream Efficient Learning and present a theoretical
framework which takes into account the influence of computational resource, in
learning theory for the first time, in addition to the ability of learning
algorithm and complexity of the problem.
- Abstract(参考訳): 多くの現実世界のアプリケーションにおけるデータはストリームのように時間とともに蓄積されることが多い。
与えられたトレーニングデータセットから学習することに焦点を当てた従来の機械学習研究とは対照的に、データストリームからの学習は、入ってくるデータストリームが圧倒的なサイズと未知の変化で無限に持続できるという事実を無視することはできず、全ての受信データを時間内に処理できるような無限に供給された計算リソースを持つと仮定するのは現実的ではない。
このように、データストリームからの学習の一般化性能は、受信したデータの数だけでなく、計算資源の懸念とともに、どれだけのデータをタイムリーに活用できるかにも依存する。
本稿では、機械学習のスループットの概念を導入し、ストリーム効率学習を定義し、アルゴリズムの学習能力と問題の複雑さに加えて、初めて学習理論における計算資源の影響を考慮に入れた理論的枠組みを提案する。
関連論文リスト
- A Unified Framework for Neural Computation and Learning Over Time [56.44910327178975]
Hamiltonian Learningはニューラルネットワークを"時間とともに"学習するための新しい統合フレームワーク
i)外部ソフトウェアソルバを必要とせずに統合できる、(ii)フィードフォワードおよびリカレントネットワークにおける勾配に基づく学習の概念を一般化する、(iii)新しい視点で開放する、という微分方程式に基づいている。
論文 参考訳(メタデータ) (2024-09-18T14:57:13Z) - Stochastic Learning of Computational Resource Usage as Graph Structured Multimarginal Schrödinger Bridge [1.6111903346958474]
本稿では,グラフ構造を持つSchr"odingerブリッジ問題として,時間変化の計算資源利用法を提案する。
シングルコアおよびマルチコアのケースで学習するための詳細なアルゴリズムを提供し、収束保証、計算複雑性について議論し、それらの実用性を実証する。
論文 参考訳(メタデータ) (2024-05-21T02:39:45Z) - Brain-Inspired Computational Intelligence via Predictive Coding [89.6335791546526]
予測符号化(PC)は、マシンインテリジェンスタスクにおいて有望なパフォーマンスを示している。
PCは様々な脳領域で情報処理をモデル化することができ、認知制御やロボティクスで使用することができる。
論文 参考訳(メタデータ) (2023-08-15T16:37:16Z) - An Entropy-Based Model for Hierarchical Learning [3.1473798197405944]
実世界のデータセットに共通する特徴は、データドメインがマルチスケールであることである。
本稿では,このマルチスケールデータ構造を利用した学習モデルを提案する。
階層的な学習モデルは、人間の論理的かつ進歩的な学習メカニズムにインスパイアされている。
論文 参考訳(メタデータ) (2022-12-30T13:14:46Z) - SOLIS -- The MLOps journey from data acquisition to actionable insights [62.997667081978825]
本稿では,基本的なクロスプラットフォームテンソルフレームワークとスクリプト言語エンジンを使用しながら,すべての要件をサポートする統合デプロイメントパイプラインとフリー・ツー・オペレートアプローチを提案する。
しかし、このアプローチは、実際のプロダクショングレードシステムに機械学習機能を実際にデプロイするために必要な手順やパイプラインを提供していない。
論文 参考訳(メタデータ) (2021-12-22T14:45:37Z) - Frugal Machine Learning [7.460473725109103]
本稿では,最小限の資源を用いて最も正確なモデルを構築することを目的としたフラジカルラーニングについて検討する。
最も有望なアルゴリズムは、スマートウォッチに実装して、時計自体のアクティビティ認識モデルを学ぶことによって、現実世界のシナリオで評価される。
論文 参考訳(メタデータ) (2021-11-05T21:27:55Z) - Adaptive Scheduling for Machine Learning Tasks over Networks [1.4271989597349055]
本論文では, 線形回帰タスクに資源を効率的に割り当てるアルゴリズムを, データのインフォマティビティ性を利用して検討する。
アルゴリズムは、信頼性の高い性能保証による学習タスクの適応スケジューリングを可能にする。
論文 参考訳(メタデータ) (2021-01-25T10:59:00Z) - A Survey on Large-scale Machine Learning [67.6997613600942]
機械学習はデータに対する深い洞察を与え、マシンが高品質な予測を行うことを可能にする。
ほとんどの高度な機械学習アプローチは、大規模なデータを扱う場合の膨大な時間コストに悩まされる。
大規模機械学習は、ビッグデータからパターンを、同等のパフォーマンスで効率的に学習することを目的としている。
論文 参考訳(メタデータ) (2020-08-10T06:07:52Z) - Deep Learning for Ultra-Reliable and Low-Latency Communications in 6G
Networks [84.2155885234293]
まず,データ駆動型教師付き深層学習と深部強化学習をURLLCに適用する方法を概説する。
このようなオープンな問題に対処するために、デバイスインテリジェンス、エッジインテリジェンス、およびURLLCのためのクラウドインテリジェンスを可能にするマルチレベルアーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-02-22T14:38:11Z) - Resource-Efficient Neural Networks for Embedded Systems [23.532396005466627]
本稿では,機械学習技術の現状について概説する。
私たちは、過去10年で主要な機械学習モデルであるディープニューラルネットワーク(DNN)に基づく、リソース効率の高い推論に焦点を当てています。
我々は、圧縮技術を用いて、よく知られたベンチマークデータセットの実験で議論を裏付ける。
論文 参考訳(メタデータ) (2020-01-07T14:17:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。