論文の概要: Generalized Low-Rank Update: Model Parameter Bounds for Low-Rank
Training Data Modifications
- arxiv url: http://arxiv.org/abs/2306.12670v1
- Date: Thu, 22 Jun 2023 05:00:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-23 15:24:12.232125
- Title: Generalized Low-Rank Update: Model Parameter Bounds for Low-Rank
Training Data Modifications
- Title(参考訳): 一般化低域更新:低域学習データ修正のためのモデルパラメータ境界
- Authors: Hiroyuki Hanada, Noriaki Hashimoto, Kouichi Taji, Ichiro Takeuchi
- Abstract要約: 少数のインスタンスや機能が加えられたり削除されたりした場合に最適なモデルが得られるインクリメンタル機械学習(ML)手法を開発した。
この問題は、クロスバリデーション(CV)や特徴選択といったモデル選択において、実際に重要である。
本稿では,線形推定器の低ランク更新フレームワークを,正規化された経験的リスク最小化のクラスとして定式化したMLメソッドに拡張する一般低ランク更新(GLRU)手法を提案する。
- 参考スコア(独自算出の注目度): 16.822770693792823
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this study, we have developed an incremental machine learning (ML) method
that efficiently obtains the optimal model when a small number of instances or
features are added or removed. This problem holds practical importance in model
selection, such as cross-validation (CV) and feature selection. Among the class
of ML methods known as linear estimators, there exists an efficient model
update framework called the low-rank update that can effectively handle changes
in a small number of rows and columns within the data matrix. However, for ML
methods beyond linear estimators, there is currently no comprehensive framework
available to obtain knowledge about the updated solution within a specific
computational complexity. In light of this, our study introduces a method
called the Generalized Low-Rank Update (GLRU) which extends the low-rank update
framework of linear estimators to ML methods formulated as a certain class of
regularized empirical risk minimization, including commonly used methods such
as SVM and logistic regression. The proposed GLRU method not only expands the
range of its applicability but also provides information about the updated
solutions with a computational complexity proportional to the amount of dataset
changes. To demonstrate the effectiveness of the GLRU method, we conduct
experiments showcasing its efficiency in performing cross-validation and
feature selection compared to other baseline methods.
- Abstract(参考訳): 本研究では,少数のインスタンスや機能が加えられたり削除されたりした場合に最適なモデルが得られるインクリメンタル機械学習(ML)手法を開発した。
この問題は、クロスバリデーション(cv)や特徴選択のようなモデル選択において実際的に重要である。
線形推定子として知られるmlメソッドのクラスには、低ランク更新と呼ばれる効率的なモデル更新フレームワークがあり、データマトリックス内の少数の行と列の変更を効果的に処理できる。
しかしながら、線形推定器以外のMLメソッドでは、特定の計算複雑性の中で更新されたソリューションに関する知識を得るための包括的なフレームワークが現在存在しない。
そこで本研究では,線形推定器の低ランク更新フレームワークを,SVMやロジスティック回帰などの一般的な手法を含む正規化された経験的リスク最小化のクラスとして定式化したMLメソッドに拡張する,一般化低ランク更新(GLRU)手法を提案する。
提案手法は適用範囲を広げるだけでなく,データセットの変更量に比例した計算複雑性を持つ更新されたソリューションに関する情報も提供する。
GLRU法の有効性を示すため,他のベースライン法と比較して,クロスバリデーションと特徴選択の効率を示す実験を行った。
関連論文リスト
- Enhancing binary classification: A new stacking method via leveraging computational geometry [5.906199156511947]
本稿では,計算幾何学的手法,特に最大重み付き矩形問題の解法を統合した新しいメタモデルを提案する。
本手法は複数のオープンデータセットを用いて評価し,その安定性と精度の向上を示す統計解析を行った。
本手法は, アンサンブル学習の積み重ねだけでなく, 病院の健康評価評価や銀行信用評価システムなど, 様々な実世界の応用にも応用できる。
論文 参考訳(メタデータ) (2024-10-30T06:11:08Z) - Adaptive debiased SGD in high-dimensional GLMs with streaming data [4.704144189806667]
我々は、高次元一般化線形モデルにおいて、オンライン推論に新しいアプローチを導入する。
本手法はシングルパスモードで動作し,時間と空間の複雑さを著しく低減する。
提案手法は,ADL (Approximated Debiased Lasso) と呼ばれ,有界な個人確率条件の必要性を緩和するだけでなく,数値性能も著しく向上することを示した。
論文 参考訳(メタデータ) (2024-05-28T15:36:48Z) - Consensus-Adaptive RANSAC [104.87576373187426]
本稿では,パラメータ空間の探索を学習する新しいRANSACフレームワークを提案する。
注意機構は、ポイント・ツー・モデル残差のバッチで動作し、軽量のワンステップ・トランスフォーマーで見いだされたコンセンサスを考慮するために、ポイント・ツー・モデル推定状態を更新する。
論文 参考訳(メタデータ) (2023-07-26T08:25:46Z) - When to Update Your Model: Constrained Model-based Reinforcement
Learning [50.74369835934703]
モデルベースRL(MBRL)の非遅延性能保証のための新規で一般的な理論スキームを提案する。
続いて導いた境界は、モデルシフトとパフォーマンス改善の関係を明らかにします。
さらなる例では、動的に変化する探索からの学習モデルが、最終的なリターンの恩恵をもたらすことが示されている。
論文 参考訳(メタデータ) (2022-10-15T17:57:43Z) - An Accelerated Doubly Stochastic Gradient Method with Faster Explicit
Model Identification [97.28167655721766]
本稿では、分散正規化損失最小化問題に対する2倍加速勾配降下法(ADSGD)を提案する。
まず、ADSGDが線形収束率を達成でき、全体的な計算複雑性を低減できることを示す。
論文 参考訳(メタデータ) (2022-08-11T22:27:22Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Generalised Latent Assimilation in Heterogeneous Reduced Spaces with
Machine Learning Surrogate Models [10.410970649045943]
我々は,低次サロゲートモデルと新しいデータ同化手法を組み合わせたシステムを開発した。
一般化された潜在同化は、低次モデリングによって提供される効率とデータ同化の精度の両方の恩恵を受けることができる。
論文 参考訳(メタデータ) (2022-04-07T15:13:12Z) - Bayesian Active Learning for Discrete Latent Variable Models [19.852463786440122]
アクティブラーニングは、モデルのパラメータに適合するために必要なデータ量を削減しようとする。
潜在変数モデルは神経科学、心理学、その他の様々な工学、科学分野において重要な役割を果たす。
論文 参考訳(メタデータ) (2022-02-27T19:07:12Z) - Learning to Refit for Convex Learning Problems [11.464758257681197]
ニューラルネットワークを用いて、異なるトレーニングセットに対して最適化されたモデルパラメータを推定するフレームワークを提案する。
我々は、凸問題を近似するためにニューラルネットワークのパワーを厳格に特徴づける。
論文 参考訳(メタデータ) (2021-11-24T15:28:50Z) - Scalable Marginal Likelihood Estimation for Model Selection in Deep
Learning [78.83598532168256]
階層型モデル選択は、推定困難のため、ディープラーニングではほとんど使われない。
本研究は,検証データが利用できない場合,限界的可能性によって一般化が向上し,有用であることを示す。
論文 参考訳(メタデータ) (2021-04-11T09:50:24Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。