論文の概要: An Algorithm-Centered Approach To Model Streaming Data
- arxiv url: http://arxiv.org/abs/2412.09118v1
- Date: Thu, 12 Dec 2024 09:52:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-13 13:31:43.610966
- Title: An Algorithm-Centered Approach To Model Streaming Data
- Title(参考訳): アルゴリズムによるストリーミングデータのモデル化
- Authors: Fabian Hinder, Valerie Vaquet, David Komnick, Barbara Hammer,
- Abstract要約: 概念の漂流は、基礎となる分布が時間とともに変化する現象が大きな課題となる。
これは、古典的な設定のように確率分布に匹敵する基礎となるオブジェクトがないことに起因する。
我々は,アルゴリズムの観点から,時間とともに新たなデータモデルを提案する。
- 参考スコア(独自算出の注目度): 5.707288648736415
- License:
- Abstract: Besides the classical offline setup of machine learning, stream learning constitutes a well-established setup where data arrives over time in potentially non-stationary environments. Concept drift, the phenomenon that the underlying distribution changes over time poses a significant challenge. Yet, despite high practical relevance, there is little to no foundational theory for learning in the drifting setup comparable to classical statistical learning theory in the offline setting. This can be attributed to the lack of an underlying object comparable to a probability distribution as in the classical setup. While there exist approaches to transfer ideas to the streaming setup, these start from a data perspective rather than an algorithmic one. In this work, we suggest a new model of data over time that is aimed at the algorithm's perspective. Instead of defining the setup using time points, we utilize a window-based approach that resembles the inner workings of most stream learning algorithms. We compare our framework to others from the literature on a theoretical basis, showing that in many cases both model the same situation. Furthermore, we perform a numerical evaluation and showcase an application in the domain of critical infrastructure.
- Abstract(参考訳): 機械学習の古典的なオフライン設定に加えて、ストリーム学習は、潜在的に静止しない環境でデータが時間とともに到着する、確立されたセットアップを構成する。
概念の漂流は、基礎となる分布が時間とともに変化する現象が大きな課題となる。
しかし、実際的な関連性が高いにもかかわらず、オフライン環境での古典的な統計的学習理論に匹敵するドリフト設定で学習する基礎理論はほとんど、あるいは全く存在しない。
これは、古典的な設定のように確率分布に匹敵する基礎となるオブジェクトがないことに起因する。
アイデアをストリーミング設定に転送するアプローチは存在するが、これらはアルゴリズム的なものではなく、データの観点から始まる。
本研究では,アルゴリズムの観点から,時間とともに新たなデータモデルを提案する。
時間点を用いて設定を定義する代わりに、ほとんどのストリーム学習アルゴリズムの内部動作に類似したウィンドウベースのアプローチを利用する。
我々は、理論上、我々の枠組みを文学の他者と比較し、多くの場合、両者が同じ状況をモデル化していることを示す。
さらに,計算評価を行い,重要なインフラストラクチャの領域における応用例を示す。
関連論文リスト
- A Unified Framework for Neural Computation and Learning Over Time [56.44910327178975]
Hamiltonian Learningはニューラルネットワークを"時間とともに"学習するための新しい統合フレームワーク
i)外部ソフトウェアソルバを必要とせずに統合できる、(ii)フィードフォワードおよびリカレントネットワークにおける勾配に基づく学習の概念を一般化する、(iii)新しい視点で開放する、という微分方程式に基づいている。
論文 参考訳(メタデータ) (2024-09-18T14:57:13Z) - When is an Embedding Model More Promising than Another? [33.540506562970776]
埋め込みは機械学習において中心的な役割を担い、あらゆるオブジェクトを数値表現に投影し、様々な下流タスクを実行するために利用することができる。
埋め込みモデルの評価は一般にドメイン固有の経験的アプローチに依存する。
本稿では, 組込み器の評価を統一的に行い, 充足性と情報性の概念を考察する。
論文 参考訳(メタデータ) (2024-06-11T18:13:46Z) - Surprisal Driven $k$-NN for Robust and Interpretable Nonparametric
Learning [1.4293924404819704]
我々は情報理論の観点から、隣り合う従来のアルゴリズムに新たな光を当てた。
単一モデルを用いた分類,回帰,密度推定,異常検出などのタスクに対する頑健で解釈可能なフレームワークを提案する。
我々の研究は、分類と異常検出における最先端の成果を達成することによって、アーキテクチャの汎用性を示す。
論文 参考訳(メタデータ) (2023-11-17T00:35:38Z) - An Online Bootstrap for Time Series [0.27195102129094995]
本稿では,データ依存を考慮し,オンラインで実行できるブートストラップ手法を提案する。
一般条件下でのブートストラップ方式の理論的妥当性を検証した。
我々の研究は、古典的な再サンプリング技術と現代のデータ分析の要求のギャップを埋めるものです。
論文 参考訳(メタデータ) (2023-10-30T16:03:11Z) - OpenSTL: A Comprehensive Benchmark of Spatio-Temporal Predictive
Learning [67.07363529640784]
提案するOpenSTLは,一般的なアプローチを再帰的モデルと再帰的モデルに分類する。
我々は, 合成移動物体軌道, 人間の動き, 運転シーン, 交通流, 天気予報など, さまざまな領域にわたるデータセットの標準評価を行う。
リカレントフリーモデルは、リカレントモデルよりも効率と性能のバランスが良いことがわかった。
論文 参考訳(メタデータ) (2023-06-20T03:02:14Z) - Beyond Transfer Learning: Co-finetuning for Action Localisation [64.07196901012153]
同時に、複数のアップストリームとダウンストリームのタスクで1つのモデルをトレーニングする。
共ファインタニングは、同じデータ量を使用する場合、従来のトランスファーラーニングよりも優れていることを示す。
さらに、複数のアップストリームデータセットへのアプローチを簡単に拡張して、パフォーマンスをさらに向上する方法も示しています。
論文 参考訳(メタデータ) (2022-07-08T10:25:47Z) - Model-based Offline Imitation Learning with Non-expert Data [7.615595533111191]
本稿では,最適条件と最適条件の両方で収集されたデータセットを活用する,スケーラブルなモデルベースオフライン模倣学習アルゴリズムフレームワークを提案する。
提案手法は, シミュレーションされた連続制御領域上での低データ構造における振舞いクローンよりも優れることを示す。
論文 参考訳(メタデータ) (2022-06-11T13:08:08Z) - Physics Informed Shallow Machine Learning for Wind Speed Prediction [66.05661813632568]
イタリアの32カ所の標高10mの風速計から観測された大量の風のデータセットを分析した。
我々は、過去の風の履歴を用いて教師あり学習アルゴリズムを訓練し、その価値を将来予測する。
最適設計と性能は場所によって異なることがわかった。
論文 参考訳(メタデータ) (2022-04-01T14:55:10Z) - On Generalizing Beyond Domains in Cross-Domain Continual Learning [91.56748415975683]
ディープニューラルネットワークは、新しいタスクを学んだ後、これまで学んだ知識の破滅的な忘れ込みに悩まされることが多い。
提案手法は、ドメインシフト中の新しいタスクを精度良く学習することで、DomainNetやOfficeHomeといった挑戦的なデータセットで最大10%向上する。
論文 参考訳(メタデータ) (2022-03-08T09:57:48Z) - How Well Do Sparse Imagenet Models Transfer? [75.98123173154605]
転送学習は、大規模な"上流"データセットで事前訓練されたモデルが、"下流"データセットで良い結果を得るために適応される古典的なパラダイムである。
本研究では、ImageNetデータセットでトレーニングされた畳み込みニューラルネットワーク(CNN)のコンテキストにおいて、この現象を詳細に調査する。
スパースモデルでは, 高空間であっても, 高密度モデルの転送性能にマッチしたり, 性能に優れることを示す。
論文 参考訳(メタデータ) (2021-11-26T11:58:51Z) - Model adaptation and unsupervised learning with non-stationary batch
data under smooth concept drift [8.068725688880772]
ほとんどの予測モデルは、トレーニングとテストデータは定常的なプロセスから生成されると仮定する。
我々は、データソースの非定常性に起因する段階的な概念の漂流のシナリオを考察する。
予測モデルの教師なし適応のための新しい反復アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-10T21:29:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。