論文の概要: AutoCoreset: An Automatic Practical Coreset Construction Framework
- arxiv url: http://arxiv.org/abs/2305.11980v1
- Date: Fri, 19 May 2023 19:59:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 01:33:47.330321
- Title: AutoCoreset: An Automatic Practical Coreset Construction Framework
- Title(参考訳): AutoCoreset: 自動実践的なコアセット構築フレームワーク
- Authors: Alaa Maalouf and Murad Tukan and Vladimir Braverman and Daniela Rus
- Abstract要約: コアセットは入力セットの小さな重み付き部分集合であり、損失関数によく似ている。
本稿では,ユーザからの入力データと所望のコスト関数のみを必要とするコアセット構築のための自動フレームワークを提案する。
この集合は有限であるが、コア集合は極めて一般であることを示す。
- 参考スコア(独自算出の注目度): 65.37876706107764
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A coreset is a tiny weighted subset of an input set, that closely resembles
the loss function, with respect to a certain set of queries. Coresets became
prevalent in machine learning as they have shown to be advantageous for many
applications. While coreset research is an active research area, unfortunately,
coresets are constructed in a problem-dependent manner, where for each problem,
a new coreset construction algorithm is usually suggested, a process that may
take time or may be hard for new researchers in the field. Even the generic
frameworks require additional (problem-dependent) computations or proofs to be
done by the user. Besides, many problems do not have (provable) small coresets,
limiting their applicability. To this end, we suggest an automatic practical
framework for constructing coresets, which requires (only) the input data and
the desired cost function from the user, without the need for any other
task-related computation to be done by the user. To do so, we reduce the
problem of approximating a loss function to an instance of vector summation
approximation, where the vectors we aim to sum are loss vectors of a specific
subset of the queries, such that we aim to approximate the image of the
function on this subset. We show that while this set is limited, the coreset is
quite general. An extensive experimental study on various machine learning
applications is also conducted. Finally, we provide a ``plug and play" style
implementation, proposing a user-friendly system that can be easily used to
apply coresets for many problems. Full open source code can be found at
\href{https://github.com/alaamaalouf/AutoCoreset}{\text{https://github.com/alaamaalouf/AutoCoreset}}.
We believe that these contributions enable future research and easier use and
applications of coresets.
- Abstract(参考訳): コアセットは入力セットの小さな重み付き部分集合であり、特定のクエリ集合に対して損失関数によく似ている。
coresetsは多くのアプリケーションで有利であることが示されているため、機械学習で普及した。
コアセット研究は活発な研究分野であるが、残念ながらコアセットは問題に依存した方法で構築されており、各問題に対して、新しいコアセット構築アルゴリズムが提案される。
汎用フレームワークでさえ、ユーザによって行われる追加の(問題に依存しない)計算や証明を必要とします。
さらに、多くの問題は(証明可能な)小さなコアセットを持たず、適用性を制限する。
この目的のために,ユーザから入力データと所望のコスト関数を要求されるコアセットを構築するための,他のタスク関連計算を必要とせずに,自動的な実践的フレームワークを提案する。
これを実現するために、我々は損失関数をベクトル和近似のインスタンスに近似する問題を低減し、そのベクトルはクエリの特定の部分集合の損失ベクトルであり、この部分集合上の関数の像を近似することを目的としている。
この集合は限定的であるが、コアセットは非常に一般的である。
また,様々な機械学習応用に関する広範な実験を行った。
最後に ``plug and play" 形式の実装を提供し,coreset を多くの問題に対して容易に適用可能なユーザフレンドリなシステムを提案する。
完全なオープンソースコードは、 \href{https://github.com/alaamaalouf/AutoCoreset}{\text{https://github.com/alaamaalouf/AutoCoreset}}にある。
これらの貢献により、コアセットの今後の研究や利用が容易になると考えています。
関連論文リスト
- Benchmarking Predictive Coding Networks -- Made Simple [48.652114040426625]
まず,性能と簡易性を重視したPCXというライブラリを提案する。
私たちはPCXを使って、コミュニティが実験に使用する大規模なベンチマークを実装しています。
論文 参考訳(メタデータ) (2024-07-01T10:33:44Z) - Provable Data Subset Selection For Efficient Neural Network Training [73.34254513162898]
本稿では,任意の放射基底関数ネットワーク上での入力データの損失を近似する,emphRBFNNのコアセットを構成するアルゴリズムについて紹介する。
次に、一般的なネットワークアーキテクチャやデータセット上で、関数近似とデータセットサブセットの選択に関する経験的評価を行う。
論文 参考訳(メタデータ) (2023-03-09T10:08:34Z) - Coresets for Relational Data and The Applications [8.573878018370547]
coresetは、元の入力データセットの構造を保存できる小さなセットである。
我々は、クラスタリング、ロジスティック回帰、SVMといった機械学習タスクにコアセットアプローチを適用することができることを示す。
論文 参考訳(メタデータ) (2022-10-09T12:46:27Z) - An Empirical Evaluation of $k$-Means Coresets [4.45709593827781]
利用可能な$k$-meansコアセットの品質を比較する作業はありません。
我々はコアセットの計算が困難であると主張するベンチマークを提案する。
我々は理論と実践から最もよく使われるコアセットアルゴリズムの徹底的な評価を行う。
論文 参考訳(メタデータ) (2022-07-03T06:47:53Z) - A Unified Approach to Coreset Learning [24.79658173754555]
与えられたデータセットと損失関数のコアセットは、通常、与えられたクエリの集合からの全てのクエリの損失を近似する小さな重み付きセットである。
コアセット構築のための一般学習型アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-11-04T17:48:05Z) - An Information Theory-inspired Strategy for Automatic Network Pruning [88.51235160841377]
深層畳み込みニューラルネットワークは、リソース制約のあるデバイスで圧縮されることがよく知られている。
既存のネットワークプルーニング手法の多くは、人的努力と禁忌な計算資源を必要とする。
本稿では,自動モデル圧縮のための情報理論に基づく戦略を提案する。
論文 参考訳(メタデータ) (2021-08-19T07:03:22Z) - Introduction to Core-sets: an Updated Survey [18.059360820527687]
機械学習問題では、ある候補解の空間上での目的関数の最小化または最大化が目的である。
従来のアルゴリズムは、無限分散ストリームの並列リアルタイム計算を必要とする現代のシステムを扱うことはできない。
この調査は、こうした構成をふりかえりとして要約し、最先端を統一し、単純化することを目的としている。
論文 参考訳(メタデータ) (2020-11-18T16:31:34Z) - An Integer Linear Programming Framework for Mining Constraints from Data [81.60135973848125]
データから制約をマイニングするための一般的なフレームワークを提案する。
特に、構造化された出力予測の推論を整数線形プログラミング(ILP)問題とみなす。
提案手法は,9×9のスドクパズルの解法を学習し,基礎となるルールを提供することなく,例からツリー問題を最小限に分散させることが可能であることを示す。
論文 参考訳(メタデータ) (2020-06-18T20:09:53Z) - Coresets for Near-Convex Functions [25.922075279588757]
Coresetは通常、$mathbbRd$の$n$入力ポイントの小さな重み付きサブセットで、与えられたクエリの集合に対する損失関数を確実に近似する。
広い損失関数群に対する感性(およびコアセット)を計算するための一般的なフレームワークを提案する。
例えば、SVM、Logistic M-estimator、$ell_z$-regressionなどがある。
論文 参考訳(メタデータ) (2020-06-09T19:49:19Z) - On Coresets for Support Vector Machines [61.928187390362176]
coresetは、元のデータポイントの小さな、代表的なサブセットである。
我々は,本アルゴリズムを用いて,既製のSVMソルバをストリーミング,分散,動的データ設定に適用可能であることを示す。
論文 参考訳(メタデータ) (2020-02-15T23:25:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。