論文の概要: LLT: An R package for Linear Law-based Feature Space Transformation
- arxiv url: http://arxiv.org/abs/2304.14211v1
- Date: Thu, 27 Apr 2023 14:18:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-28 13:08:38.903898
- Title: LLT: An R package for Linear Law-based Feature Space Transformation
- Title(参考訳): LLT: 線形法則に基づく特徴空間変換のためのRパッケージ
- Authors: Marcell T. Kurbucz, P\'eter P\'osfay, Antal Jakov\'ac
- Abstract要約: LLTと呼ばれる提示されたRパッケージは、柔軟だがユーザフレンドリーな方法でこのアルゴリズムを実装している。
LLTパッケージと適切なデータ構造を持つサンプルデータセットはGitHubで公開されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The goal of the linear law-based feature space transformation (LLT) algorithm
is to assist with the classification of univariate and multivariate time
series. The presented R package, called LLT, implements this algorithm in a
flexible yet user-friendly way. This package first splits the instances into
training and test sets. It then utilizes time-delay embedding and spectral
decomposition techniques to identify the governing patterns (called linear
laws) of each input sequence (initial feature) within the training set.
Finally, it applies the linear laws of the training set to transform the
initial features of the test set. These steps are performed by three separate
functions called trainTest, trainLaw, and testTrans. Their application requires
a predefined data structure; however, for fast calculation, they use only
built-in functions. The LLT R package and a sample dataset with the appropriate
data structure are publicly available on GitHub.
- Abstract(参考訳): 線形法則に基づく特徴空間変換(LLT)アルゴリズムの目標は、単変量および多変量時系列の分類を支援することである。
LLTと呼ばれる提示されたRパッケージは、柔軟だがユーザフレンドリーな方法でこのアルゴリズムを実装している。
このパッケージは、まずインスタンスをトレーニングとテストセットに分割する。
次に、時間遅延埋め込みとスペクトル分解技術を用いて、トレーニングセット内の各入力シーケンス(初期特徴)の制御パターン(線形法則と呼ばれる)を識別する。
最後に、テストセットの初期特徴を変換するために、トレーニングセットの線形法則を適用します。
これらのステップは、trainTest、trainLaw、testTransと呼ばれる3つの別々の関数によって実行される。
アプリケーションには事前定義されたデータ構造が必要ですが、高速な計算には組み込み関数のみを使用します。
LLT Rパッケージと適切なデータ構造を持つサンプルデータセットはGitHubで公開されている。
関連論文リスト
- Linearized Optimal Transport pyLOT Library: A Toolkit for Machine Learning on Point Clouds [46.85203257982611]
pyLOTライブラリは、リニアライズド・最適なトランスポート(LOT)技術とダウンストリームタスクで使用するメソッドのPython実装を提供する。
このパイプラインは、固定参照分布から最適トランスポートマップを介して確率分布をヒルベルト空間に埋め込み、この線形化により、オフ・ザ・シェルフ(線形)機械学習アルゴリズムを用いて下流タスクを完了させることができる。
論文 参考訳(メタデータ) (2025-02-05T18:34:38Z) - Re-examining learning linear functions in context [1.8843687952462742]
In-context Learning (ICL) は大規模言語モデル(LLM)を様々なタスクに容易に適応するための強力なパラダイムとして登場した。
合成学習データを用いた制御設定でICLの簡単なモデルについて検討する。
本研究は,線形関数を文脈内で学習するためのアルゴリズム的アプローチをトランスフォーマーが採用する,一般的な物語に挑戦するものである。
論文 参考訳(メタデータ) (2024-11-18T10:58:46Z) - Linear-time One-Class Classification with Repeated Element-wise Folding [6.116088814650622]
本稿では,一級分類における使い易い方法として,繰り返し要素分割法(REF)を提案する。
REFは、一般的に使用されるより要求の多いアプローチの線形時間代替を提供する。
実験の結果、REFは類似の分類性能、あるいは様々なベンチマークデータセットでより複雑なアルゴリズムよりも優れていることが示された。
論文 参考訳(メタデータ) (2024-08-21T08:18:39Z) - How Many Pretraining Tasks Are Needed for In-Context Learning of Linear Regression? [92.90857135952231]
様々なタスクで事前訓練されたトランスフォーマーは、顕著なインコンテキスト学習(ICL)能力を示す。
線形回帰のための線形パラメータ化単一層線形アテンションモデルの事前学習を行う。
論文 参考訳(メタデータ) (2023-10-12T15:01:43Z) - Transformers as Statisticians: Provable In-Context Learning with
In-Context Algorithm Selection [88.23337313766353]
この研究はまず、変換器がICLを実行するための包括的な統計理論を提供する。
コンテクストにおいて、トランスフォーマーは、幅広い種類の標準機械学習アルゴリズムを実装可能であることを示す。
エンフィングル変換器は、異なるベースICLアルゴリズムを適応的に選択することができる。
論文 参考訳(メタデータ) (2023-06-07T17:59:31Z) - Query Complexity of Active Learning for Function Family With Nearly
Orthogonal Basis [19.542110074382563]
医学診断や不正検出などの応用では、専門家、実験、シミュレーションによってデータをラベル付けするのは費用がかかる。
アクティブな学習アルゴリズムは、性能を保ちながら、必要なラベル付きデータポイントの数を減らすことを目的としている。
論文 参考訳(メタデータ) (2023-06-06T02:14:20Z) - Intersection of Parallels as an Early Stopping Criterion [64.8387564654474]
そこで本研究では,検証セットを必要とせずに,トレーニングイテレーションの早期停止点を見つける手法を提案する。
幅広い学習率において,コサイン距離基準 (CDC) と呼ばれる手法は,比較したすべての手法よりも平均的な一般化に寄与する。
論文 参考訳(メタデータ) (2022-08-19T19:42:41Z) - Unfolding Projection-free SDP Relaxation of Binary Graph Classifier via
GDPA Linearization [59.87663954467815]
アルゴリズムの展開は、モデルベースのアルゴリズムの各イテレーションをニューラルネットワーク層として実装することにより、解釈可能で類似のニューラルネットワークアーキテクチャを生成する。
本稿では、Gershgorin disc perfect alignment (GDPA)と呼ばれる最近の線形代数定理を利用して、二進グラフの半定値プログラミング緩和(SDR)のためのプロジェクションフリーアルゴリズムをアンロールする。
実験結果から,我々の未学習ネットワークは純粋モデルベースグラフ分類器よりも優れ,純粋データ駆動ネットワークに匹敵する性能を示したが,パラメータははるかに少なかった。
論文 参考訳(メタデータ) (2021-09-10T07:01:15Z) - Sample-Efficient Reinforcement Learning Is Feasible for Linearly
Realizable MDPs with Limited Revisiting [60.98700344526674]
線形関数表現のような低複雑度モデルがサンプル効率のよい強化学習を可能にする上で重要な役割を果たしている。
本稿では,オンライン/探索的な方法でサンプルを描画するが,制御不能な方法で以前の状態をバックトラックし,再訪することができる新しいサンプリングプロトコルについて検討する。
この設定に合わせたアルゴリズムを開発し、特徴次元、地平線、逆の準最適ギャップと実際にスケールするサンプル複雑性を実現するが、状態/作用空間のサイズではない。
論文 参考訳(メタデータ) (2021-05-17T17:22:07Z) - Neural networks behave as hash encoders: An empirical study [79.38436088982283]
ReLUライクなアクティベーションを持つニューラルネットワークの入力空間は、複数の線形領域に分割される。
このパーティションは、さまざまなディープラーニングモデルで以下のエンコーディング特性を示すことを実証します。
K$-Means、$K$-NN、およびロジスティック回帰などの単純なアルゴリズムは、トレーニングデータとテストデータの両方でかなり優れたパフォーマンスを達成できます。
論文 参考訳(メタデータ) (2021-01-14T07:50:40Z) - RSAC: Regularized Subspace Approximation Classifier for Lightweight
Continuous Learning [0.9137554315375922]
継続的学習は、時々来るデータについて学習を行おうとする。
本研究では,軽量な連続学習を実現するために,新たなトレーニングアルゴリズムである正規化部分空間近似分類器(RSAC)を提案する。
大規模な実験により、RSACは従来の継続的学習よりも効率的であることが示され、様々な実験環境下での作業よりも優れていた。
論文 参考訳(メタデータ) (2020-07-03T03:38:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。