論文の概要: A Novel index-based multidimensional data organization model that
enhances the predictability of the machine learning algorithms
- arxiv url: http://arxiv.org/abs/2012.02007v1
- Date: Thu, 3 Dec 2020 15:41:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-23 15:10:01.458371
- Title: A Novel index-based multidimensional data organization model that
enhances the predictability of the machine learning algorithms
- Title(参考訳): 機械学習アルゴリズムの予測可能性を高める新しいインデックスベース多次元データ構成モデル
- Authors: Mahbubur Rahman
- Abstract要約: 多次元データから学ぶことは、機械学習の分野で興味深い概念である。
我々は、順序付きデータセットが簡単かつ効率的なアクセスを提供するため、順序付きインデックスベースのデータ組織モデルを導入しました。
このような多次元データストレージは、教師なしと教師なしの両方の機械学習アルゴリズムの予測可能性を高めることができる。
- 参考スコア(独自算出の注目度): 1.7839986996686321
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Learning from the multidimensional data has been an interesting concept in
the field of machine learning. However, such learning can be difficult,
complex, expensive because of expensive data processing, manipulations as the
number of dimension increases. As a result, we have introduced an ordered
index-based data organization model as the ordered data set provides easy and
efficient access than the unordered one and finally, such organization can
improve the learning. The ordering maps the multidimensional dataset in the
reduced space and ensures that the information associated with the learning can
be retrieved back and forth efficiently. We have found that such
multidimensional data storage can enhance the predictability for both the
unsupervised and supervised machine learning algorithms.
- Abstract(参考訳): 多次元データから学ぶことは、機械学習の分野で興味深い概念である。
しかし、そのような学習は、高価なデータ処理、次元数の増加に伴う操作のため、困難、複雑、高価である。
その結果、順序付きデータセットは順序なしデータよりも簡単かつ効率的なアクセスを提供するため、順序付きインデックスベースのデータ組織モデルを導入し、最終的には学習を改善することができる。
順序付けは、多次元データセットを縮小空間にマッピングし、学習に関連する情報を効率的に取り出すことができるようにする。
このような多次元データストレージは、教師なしと教師なしの両方の機械学習アルゴリズムの予測可能性を高めることができる。
関連論文リスト
- TabSeq: A Framework for Deep Learning on Tabular Data via Sequential Ordering [5.946579489162407]
この作業では、機能のシーケンシャルな順序付けのための新しいフレームワークであるTabSeqを紹介している。
このような機能の最適なシーケンス順序を見つけることで、ディープラーニングモデルの学習プロセスを改善することができる。
論文 参考訳(メタデータ) (2024-10-17T04:10:36Z) - Learning of networked spreading models from noisy and incomplete data [7.669018800404791]
スケーラブルな動的メッセージパッシング技術に基づく普遍的な学習手法を提案する。
このアルゴリズムは、モデルとデータに関する利用可能な事前知識を活用し、拡散モデルのネットワーク構造とパラメータの両方を再構成する。
キーモデルパラメータを持つ手法の線形計算複雑性は,アルゴリズムを大規模ネットワークインスタンスにスケーラブルにすることを示す。
論文 参考訳(メタデータ) (2023-12-20T13:12:47Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - Unlearn What You Want to Forget: Efficient Unlearning for LLMs [92.51670143929056]
大規模言語モデル(LLM)は、幅広いテキストデータを事前学習し記憶することで大きな進歩を遂げた。
このプロセスはプライバシー問題やデータ保護規則違反に悩まされる可能性がある。
データ削除後のモデル全体を再トレーニングすることなく、LLMを効率的に更新できる効率的なアンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-31T03:35:59Z) - An Entropy-Based Model for Hierarchical Learning [3.1473798197405944]
実世界のデータセットに共通する特徴は、データドメインがマルチスケールであることである。
本稿では,このマルチスケールデータ構造を利用した学習モデルを提案する。
階層的な学習モデルは、人間の論理的かつ進歩的な学習メカニズムにインスパイアされている。
論文 参考訳(メタデータ) (2022-12-30T13:14:46Z) - Multi-Robot Deep Reinforcement Learning for Mobile Navigation [82.62621210336881]
階層的統合モデル(HInt)を用いた深層強化学習アルゴリズムを提案する。
トレーニング時には、HIntは別々の知覚モデルとダイナミクスモデルを学び、テスト時には、HIntは2つのモデルを階層的な方法で統合し、統合モデルとアクションを計画する。
我々のモバイルナビゲーション実験は、HIntが従来の階層的ポリシーや単一ソースアプローチよりも優れていることを示している。
論文 参考訳(メタデータ) (2021-06-24T19:07:40Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - Synthetic Data: Opening the data floodgates to enable faster, more
directed development of machine learning methods [96.92041573661407]
機械学習における画期的な進歩の多くは、大量のリッチデータを利用できることに起因する。
多くの大規模データセットは、医療データなど高度に敏感であり、機械学習コミュニティでは広く利用できない。
プライバシー保証で合成データを生成することは、そのようなソリューションを提供します。
論文 参考訳(メタデータ) (2020-12-08T17:26:10Z) - A Survey on Large-scale Machine Learning [67.6997613600942]
機械学習はデータに対する深い洞察を与え、マシンが高品質な予測を行うことを可能にする。
ほとんどの高度な機械学習アプローチは、大規模なデータを扱う場合の膨大な時間コストに悩まされる。
大規模機械学習は、ビッグデータからパターンを、同等のパフォーマンスで効率的に学習することを目的としている。
論文 参考訳(メタデータ) (2020-08-10T06:07:52Z) - Guidelines for enhancing data locality in selected machine learning
algorithms [0.0]
データ局所性を利用した機械学習アルゴリズムの性能向上手法の1つを分析する。
繰り返しのデータアクセスは、データ移動における冗長性と見なすことができる。
この研究は、結果を直接再利用することによって、これらの冗長性を避けるためのいくつかの機会を特定する。
論文 参考訳(メタデータ) (2020-01-09T14:16:40Z) - Multi-Objective Genetic Programming for Manifold Learning: Balancing
Quality and Dimensionality [4.4181317696554325]
最先端の多様体学習アルゴリズムはこの変換の実行方法において不透明である。
多様体の品質と次元の競合する目的を自動的にバランスさせる多目的アプローチを導入する。
提案手法は,基礎および最先端の多様体学習手法と競合する。
論文 参考訳(メタデータ) (2020-01-05T23:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。