論文の概要: Transfer-Learning Across Datasets with Different Input Dimensions: An
Algorithm and Analysis for the Linear Regression Case
- arxiv url: http://arxiv.org/abs/2202.05069v1
- Date: Thu, 10 Feb 2022 14:57:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-11 22:23:09.760532
- Title: Transfer-Learning Across Datasets with Different Input Dimensions: An
Algorithm and Analysis for the Linear Regression Case
- Title(参考訳): 入力次元の異なるデータセット間でのトランスファーラーニング--線形回帰のアルゴリズムと解析
- Authors: Luis Pedro Silvestrin, Harry van Zanten, Mark Hoogendoorn, Ger Koole
- Abstract要約: 本稿では,新しいデータと過去のデータを組み合わせた移動学習アルゴリズムを提案する。
提案手法は, 負の伝達学習に対して頑健であることを示す。
- 参考スコア(独自算出の注目度): 4.783019576803369
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the development of new sensors and monitoring devices, more sources of
data become available to be used as inputs for machine learning models. These
can on the one hand help to improve the accuracy of a model. On the other hand
however, combining these new inputs with historical data remains a challenge
that has not yet been studied in enough detail. In this work, we propose a
transfer-learning algorithm that combines the new and the historical data, that
is especially beneficial when the new data is scarce. We focus the approach on
the linear regression case, which allows us to conduct a rigorous theoretical
study on the benefits of the approach. We show that our approach is robust
against negative transfer-learning, and we confirm this result empirically with
real and simulated data.
- Abstract(参考訳): 新しいセンサーと監視デバイスの開発により、より多くのデータソースが機械学習モデルの入力として利用できるようになる。
これらは一方、モデルの精度を向上させるのに役立ちます。
しかし、これらの新たな入力と過去のデータを組み合わせることは、まだ十分に詳細に研究されていない課題である。
本研究では,新しいデータと履歴データを組み合わせた転送学習アルゴリズムを提案する。
我々は、線形回帰の場合に焦点をあて、アプローチの利点に関する厳密な理論的研究を行うことができる。
提案手法は負の伝達学習に対して堅牢であることを示し,実データとシミュレーションデータとを実証的に検証する。
関連論文リスト
- Diffusion-based Neural Network Weights Generation [85.6725307453325]
データセット条件付き事前学習重み抽出による効率よく適応的な伝達学習手法を提案する。
具体的には、ニューラルネットワークの重みを再構築できる変分オートエンコーダを備えた潜時拡散モデルを用いる。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Contrastive Left-Right Wearable Sensors (IMUs) Consistency Matching for
HAR [0.0]
変換なしに、実際のデータを自己教師型学習にどのように使用できるかを示す。
我々のアプローチには、2つの異なるセンサーのコントラストマッチングが含まれる。
我々はオポチュニティとMM-Fitデータセットに対するアプローチを検証した。
論文 参考訳(メタデータ) (2023-11-21T15:31:16Z) - LAVA: Data Valuation without Pre-Specified Learning Algorithms [20.578106028270607]
我々は、下流学習アルゴリズムに不利な方法でトレーニングデータを評価できる新しいフレームワークを導入する。
本研究では,訓練と検証セット間の非伝統的なクラスワイドワッサースタイン距離に基づいて,トレーニングセットに関連する検証性能のプロキシを開発する。
距離は、特定のリプシッツ条件下での任意のモデルに対する検証性能の上限を特徴付けることを示す。
論文 参考訳(メタデータ) (2023-04-28T19:05:16Z) - Faster Adaptive Federated Learning [84.38913517122619]
フェデレートラーニングは分散データの出現に伴って注目を集めている。
本稿では,クロスサイロFLにおけるモーメントに基づく分散低減手法に基づく適応アルゴリズム(FAFED)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:07:50Z) - Towards Robust Dataset Learning [90.2590325441068]
本稿では,頑健なデータセット学習問題を定式化するための三段階最適化法を提案する。
ロバストな特徴と非ロバストな特徴を特徴付ける抽象モデルの下で,提案手法はロバストなデータセットを確実に学習する。
論文 参考訳(メタデータ) (2022-11-19T17:06:10Z) - Automatic Data Augmentation via Invariance-Constrained Learning [94.27081585149836]
下位のデータ構造は、しばしば学習タスクのソリューションを改善するために利用される。
データ拡張は、入力データに複数の変換を適用することで、トレーニング中にこれらの対称性を誘導する。
この作業は、学習タスクを解決しながらデータ拡張を自動的に適応することで、これらの問題に対処する。
論文 参考訳(メタデータ) (2022-09-29T18:11:01Z) - One-Pass Learning via Bridging Orthogonal Gradient Descent and Recursive
Least-Squares [8.443742714362521]
我々は,従来のデータポイントの予測にほとんど変化しない方向にパラメータを変更しながら,すべての新しいデータポイントに完全に適合するワンパス学習アルゴリズムを開発した。
我々のアルゴリズムは、インクリメンタル・プリンシパル・コンポーネント分析(IPCA)を用いてストリーミングデータの構造を利用して、メモリを効率的に利用する。
本実験では,提案手法の有効性をベースラインと比較した。
論文 参考訳(メタデータ) (2022-07-28T02:01:31Z) - Learning new physics efficiently with nonparametric methods [11.970219534238444]
モデルに依存しない新しい物理探索のための機械学習手法を提案する。
対応するアルゴリズムは、最近のカーネルメソッドの大規模実装によって実現されている。
トレーニング時間や計算資源の観点から、ニューラルネットワークの実装と比較して、我々のアプローチは劇的なアドバンテージがあることが示される。
論文 参考訳(メタデータ) (2022-04-05T16:17:59Z) - Deep invariant networks with differentiable augmentation layers [87.22033101185201]
データ拡張ポリシーの学習方法は、保持データを必要とし、二段階最適化の問題に基づいている。
我々のアプローチは、現代の自動データ拡張技術よりも訓練が簡単で高速であることを示す。
論文 参考訳(メタデータ) (2022-02-04T14:12:31Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - Learning ODE Models with Qualitative Structure Using Gaussian Processes [0.6882042556551611]
多くのコンテキストにおいて、明示的なデータ収集は高価であり、学習アルゴリズムはデータ効率が良くなければならない。
スパースガウス過程を用いて微分方程式のベクトル場を学習する手法を提案する。
この組み合わせにより,外挿性能と長期的挙動が大幅に向上し,計算コストの低減が図られる。
論文 参考訳(メタデータ) (2020-11-10T19:34:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。