論文の概要: Dynamic transformation of prior knowledge into Bayesian models for data
streams
- arxiv url: http://arxiv.org/abs/2003.06123v4
- Date: Sun, 26 Dec 2021 06:58:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 01:04:07.041543
- Title: Dynamic transformation of prior knowledge into Bayesian models for data
streams
- Title(参考訳): データストリームに対する事前知識のベイズモデルへの動的変換
- Authors: Tran Xuan Bach, Nguyen Duc Anh, Ngo Van Linh and Khoat Than
- Abstract要約: ストリーミング環境からベイズモデルを学ぶ際に,データを無限に,そして逐次的に学習する際に,事前知識を効果的に活用する方法を検討する。
本稿では,データストリームの基盤となるベイズモデルに,異なる形式の事前知識を組み込むことのできる新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 2.294014185517203
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider how to effectively use prior knowledge when learning a Bayesian
model from streaming environments where the data come infinitely and
sequentially. This problem is highly important in the era of data explosion and
rich sources of precious external knowledge such as pre-trained models,
ontologies, Wikipedia, etc. We show that some existing approaches can forget
any knowledge very fast. We then propose a novel framework that enables to
incorporate the prior knowledge of different forms into a base Bayesian model
for data streams. Our framework subsumes some existing popular models for
time-series/dynamic data. Extensive experiments show that our framework
outperforms existing methods with a large margin. In particular, our framework
can help Bayesian models generalize well on extremely short text while other
methods overfit. The implementation of our framework is available at
https://github.com/bachtranxuan/TPS.git.
- Abstract(参考訳): ストリーミング環境からベイズモデルを学ぶ際に,データを無限に逐次的に取得する際の事前知識を効果的に活用する方法を検討する。
この問題は、データ爆発の時代や、事前訓練されたモデル、オントロジー、Wikipediaなどの貴重な外部知識の豊富な情報源において非常に重要である。
既存のアプローチでは、知識を非常に早く忘れることができます。
次に,データストリームの基底ベイズモデルに,異なる形式の事前知識を組み込むことのできる新しいフレームワークを提案する。
我々のフレームワークは、時系列/動的データに対して、いくつかの一般的なモデルを仮定する。
広範な実験によって、我々のフレームワークは既存のメソッドよりも大きなマージンで優れています。
特に、我々のフレームワークは、非常に短いテキストでベイズモデルを一般化するのに役立つ。
私たちのフレームワークの実装はhttps://github.com/bachtranxuan/tps.gitで利用可能です。
関連論文リスト
- A Practitioner's Guide to Continual Multimodal Pretraining [83.63894495064855]
マルチモーダル・ファンデーション・モデルは視覚と言語を交わす多くのアプリケーションに役立っている。
モデルを更新し続けるために、継続事前トレーニングの研究は主に、大規模な新しいデータに対する頻度の低い、差別的な更新、あるいは頻繁に行われるサンプルレベルの更新のシナリオを探求する。
本稿では,FoMo-in-Flux(FoMo-in-Flux)について紹介する。
論文 参考訳(メタデータ) (2024-08-26T17:59:01Z) - Toward a Foundation Model for Time Series Data [34.1973242428317]
基礎モデルは、大規模で多様なデータセットに基づいてトレーニングされた機械学習モデルである。
複数のドメインのラベルのないサンプルを活用することで,効率的な時系列基礎モデルを構築する。
論文 参考訳(メタデータ) (2023-10-05T21:44:50Z) - Catastrophic Forgetting in the Context of Model Updates [0.360953887026184]
ディープニューラルネットワークは、トレーニングに何万ドルもかかる可能性がある。
新しいデータがパイプラインに入ると、既存のすべてのデータから新しいモデルをスクラッチからトレーニングすることができる。
前者は高価で遅い。後者は安くて速いが、破滅的な忘れ物は、新しいモデルを「忘れる」ために古いデータをうまく分類する。
論文 参考訳(メタデータ) (2023-06-16T21:21:41Z) - Universal Domain Adaptation from Foundation Models: A Baseline Study [58.51162198585434]
基礎モデルを用いた最先端UniDA手法の実証的研究を行った。
CLIPモデルからターゲット知識を抽出するためのパラメータフリーな手法であるtextitCLIP 蒸留を導入する。
単純な手法ではあるが、ほとんどのベンチマークタスクでは従来の手法よりも優れている。
論文 参考訳(メタデータ) (2023-05-18T16:28:29Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [51.8162883997512]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - dpart: Differentially Private Autoregressive Tabular, a General
Framework for Synthetic Data Generation [8.115937653695884]
dpartは、微分プライベートな合成データ生成のためのオープンソースのPythonライブラリである。
ライブラリは、素早くアクセス可能なベースラインとして機能するビューで作成されている。
例えば、Independent、最適化されたPrivBayes、新しく提案されたモデルdp-synthpopなどがある。
論文 参考訳(メタデータ) (2022-07-12T19:55:21Z) - Visualising Deep Network's Time-Series Representations [93.73198973454944]
機械学習モデルの普及にもかかわらず、多くの場合、モデルの内部で起きていることに関する洞察のないブラックボックスとして運用される。
本稿では,多次元時系列データの可視化に着目し,この問題に対処する手法を提案する。
高周波在庫市場データセットの実験は、この方法が迅速かつ識別可能な可視化を提供することを示しています。
論文 参考訳(メタデータ) (2021-03-12T09:53:34Z) - KGPT: Knowledge-Grounded Pre-Training for Data-to-Text Generation [100.79870384880333]
知識に富んだテキストを生成するための知識基盤事前学習(KGPT)を提案する。
我々は、その効果を評価するために、3つの設定、すなわち、完全教師付き、ゼロショット、少数ショットを採用します。
ゼロショット設定では、WebNLG上で30 ROUGE-L以上を達成するが、他の全てのベースラインは失敗する。
論文 参考訳(メタデータ) (2020-10-05T19:59:05Z) - GRAFFL: Gradient-free Federated Learning of a Bayesian Generative Model [8.87104231451079]
本稿では、GRAFFLと呼ばれる、最初の勾配のない連邦学習フレームワークを提案する。
参加する各機関から得られた暗黙の情報を用いて、パラメータの後方分布を学習する。
本稿では,GRAFFLに基づくベイズ混合モデルを提案する。
論文 参考訳(メタデータ) (2020-08-29T07:19:44Z) - $n$-Reference Transfer Learning for Saliency Prediction [73.17061116358036]
本稿では,サリエンシ予測のための数発のトランスファー学習パラダイムを提案する。
提案するフレームワークは勾配ベースでモデルに依存しない。
その結果,提案フレームワークは大幅な性能向上を実現していることがわかった。
論文 参考訳(メタデータ) (2020-07-09T23:20:44Z) - A Generic and Model-Agnostic Exemplar Synthetization Framework for
Explainable AI [29.243901669124515]
我々は、説明可能なAIに焦点をあて、入力例を合成するための新しい汎用的でモデルに依存しないフレームワークを提案する。
我々は、データ生成の先行として機能する生成モデルを使用し、新しい進化戦略を用いて、その潜在空間をトラバースする。
私たちのフレームワークはモデルに依存しませんが、私たちが説明しようとしている機械学習モデルはブラックボックスです。
論文 参考訳(メタデータ) (2020-06-06T15:46:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。