論文の概要: Condensed Representation of Machine Learning Data
- arxiv url: http://arxiv.org/abs/2212.14229v1
- Date: Thu, 29 Dec 2022 08:58:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 17:07:57.678095
- Title: Condensed Representation of Machine Learning Data
- Title(参考訳): 機械学習データの凝縮表現
- Authors: Rahman Salim Zengin (1), Volkan Sezer (1) ((1) Istanbul Technical
University)
- Abstract要約: 生のデータを使用する代わりに、適切なCondensed Representationを使用することができる。
本発明の新規な方法として、有意義かつ視覚的に合成されたデータを用いる。
生データの代わりに縮合表現を用いることで、精度の高いモデルトレーニングが可能になることが示されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training of a Machine Learning model requires sufficient data. The
sufficiency of the data is not always about the quantity, but about the
relevancy and reduced redundancy. Data-generating processes create massive
amounts of data. When used raw, such big data is causing much computational
resource utilization. Instead of using the raw data, a proper Condensed
Representation can be used instead. Combining K-means, a well-known clustering
method, with some correction and refinement facilities a novel Condensed
Representation method for Machine Learning applications is introduced. To
present the novel method meaningfully and visually, synthetically generated
data is employed. It has been shown that by using the condensed representation,
instead of the raw data, acceptably accurate model training is possible.
- Abstract(参考訳): 機械学習モデルのトレーニングには十分なデータが必要です。
データの十分さは必ずしも量ではなく、関連性や冗長性の低下に関するものである。
データ生成プロセスは大量のデータを生成する。
生で使用すると、そのようなビッグデータが大量の計算リソース利用を引き起こします。
生のデータを使用する代わりに、適切なCondensed Representationを使用することができる。
一般的なクラスタリング手法であるk-meansと,いくつかの補正・改良機能を組み合わせた機械学習アプリケーションのための新しい凝縮表現法を提案する。
本発明の新規な方法として、有意義かつ視覚的に合成されたデータを用いる。
生データの代わりに縮合表現を用いることで、精度の高いモデルトレーニングが可能になることが示されている。
関連論文リスト
- Generative Expansion of Small Datasets: An Expansive Graph Approach [13.053285552524052]
最小限のサンプルから大規模で情報豊富なデータセットを生成する拡張合成モデルを提案する。
自己アテンション層と最適なトランスポートを持つオートエンコーダは、分散一貫性を洗練させる。
結果は同等のパフォーマンスを示し、モデルがトレーニングデータを効果的に増強する可能性を示している。
論文 参考訳(メタデータ) (2024-06-25T02:59:02Z) - Improved Distribution Matching for Dataset Condensation [91.55972945798531]
本稿では,分布マッチングに基づく新しいデータセット凝縮法を提案する。
提案手法は,計算資源の少ない従来の最適化指向手法よりも優れている。
論文 参考訳(メタデータ) (2023-07-19T04:07:33Z) - AI Model Disgorgement: Methods and Choices [127.54319351058167]
本稿では,現代の機械学習システムに適用可能な分類法を紹介する。
学習モデルにおけるデータ「効果の除去」の意味を,スクラッチからリトレーニングする必要のない方法で検討する。
論文 参考訳(メタデータ) (2023-04-07T08:50:18Z) - Learning from aggregated data with a maximum entropy model [73.63512438583375]
我々は,観測されていない特徴分布を最大エントロピー仮説で近似することにより,ロジスティック回帰と類似した新しいモデルが,集約データからのみ学習されることを示す。
我々は、この方法で学習したモデルが、完全な非凝集データでトレーニングされたロジスティックモデルに匹敵するパフォーマンスを達成することができるという、いくつかの公開データセットに関する実証的な証拠を提示する。
論文 参考訳(メタデータ) (2022-10-05T09:17:27Z) - Too Fine or Too Coarse? The Goldilocks Composition of Data Complexity
for Robust Left-Right Eye-Tracking Classifiers [0.0]
我々は、細粒度データと粗粒度データの両方からなる混合データセットを用いて機械学習モデルを訓練する。
我々の目的のために、細粒度データはより複雑な方法で収集されたデータを指すのに対し、粗粒度データはより単純な方法で収集されたデータを指す。
論文 参考訳(メタデータ) (2022-08-24T23:18:08Z) - Few-Shot Non-Parametric Learning with Deep Latent Variable Model [50.746273235463754]
遅延変数を用いた圧縮による非パラメトリック学習(NPC-LV)を提案する。
NPC-LVは、ラベルなしデータが多いがラベル付きデータはほとんどないデータセットの学習フレームワークである。
我々は,NPC-LVが低データ構造における画像分類における3つのデータセットの教師あり手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-23T09:35:03Z) - Data Aggregation for Reducing Training Data in Symbolic Regression [0.0]
本研究は、トレーニングデータを削減する方法と、遺伝的プログラミングのランタイムについても論じる。
K平均クラスタリングとデータビンニングはデータアグリゲーションに使われ、最も単純なデータリダクション法としてランダムサンプリングと比較される。
遺伝的プログラミングの性能は、ランダムな森林と線形回帰と比較される。
論文 参考訳(メタデータ) (2021-08-24T11:58:17Z) - Sequential IoT Data Augmentation using Generative Adversarial Networks [5.8010446129208155]
工業アプリケーションにおけるシーケンシャルデータは、機械学習モデルのトレーニングと評価に使用できる。
代表的なデータの収集は困難で時間がかかるため、小さな根拠からそれを生成するインセンティブがある。
本稿では,IoT(Internet of Things)データを逐次的に拡張するためにGANを使用する可能性について検討する。
論文 参考訳(メタデータ) (2021-01-13T11:08:07Z) - Category-Learning with Context-Augmented Autoencoder [63.05016513788047]
実世界のデータの解釈可能な非冗長表現を見つけることは、機械学習の鍵となる問題の一つである。
本稿では,オートエンコーダのトレーニングにデータ拡張を利用する新しい手法を提案する。
このような方法で変分オートエンコーダを訓練し、補助ネットワークによって変換結果を予測できるようにする。
論文 参考訳(メタデータ) (2020-10-10T14:04:44Z) - Generative Low-bitwidth Data Free Quantization [44.613912463011545]
本稿ではGDFQ(Generative Low-bitdth Data Free Quantization)を提案する。
生成したデータの助けを借りて、事前学習されたモデルから知識を学習することでモデルを定量化することができる。
提案手法は,既存のデータ自由量子化法よりも高精度な4ビット量子化を実現する。
論文 参考訳(メタデータ) (2020-03-07T16:38:34Z) - DeGAN : Data-Enriching GAN for Retrieving Representative Samples from a
Trained Classifier [58.979104709647295]
我々は、トレーニングされたネットワークの将来の学習タスクのために、利用可能なデータの豊富さと関連するデータの欠如の間のギャップを埋める。
利用可能なデータは、元のトレーニングデータセットまたは関連するドメインデータセットの不均衡なサブセットである可能性があるため、代表サンプルを検索するために使用します。
関連ドメインからのデータを活用して最先端のパフォーマンスを実現することを実証する。
論文 参考訳(メタデータ) (2019-12-27T02:05:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。