論文の概要: Introduction to Core-sets: an Updated Survey
- arxiv url: http://arxiv.org/abs/2011.09384v1
- Date: Wed, 18 Nov 2020 16:31:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 03:46:42.112558
- Title: Introduction to Core-sets: an Updated Survey
- Title(参考訳): Core-sets入門: 最新調査
- Authors: Dan Feldman
- Abstract要約: 機械学習問題では、ある候補解の空間上での目的関数の最小化または最大化が目的である。
従来のアルゴリズムは、無限分散ストリームの並列リアルタイム計算を必要とする現代のシステムを扱うことはできない。
この調査は、こうした構成をふりかえりとして要約し、最先端を統一し、単純化することを目的としている。
- 参考スコア(独自算出の注目度): 18.059360820527687
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In optimization or machine learning problems we are given a set of items,
usually points in some metric space, and the goal is to minimize or maximize an
objective function over some space of candidate solutions. For example, in
clustering problems, the input is a set of points in some metric space, and a
common goal is to compute a set of centers in some other space (points, lines)
that will minimize the sum of distances to these points. In database queries,
we may need to compute such a some for a specific query set of $k$ centers.
However, traditional algorithms cannot handle modern systems that require
parallel real-time computations of infinite distributed streams from sensors
such as GPS, audio or video that arrive to a cloud, or networks of weaker
devices such as smartphones or robots.
Core-set is a "small data" summarization of the input "big data", where every
possible query has approximately the same answer on both data sets. Generic
techniques enable efficient coreset \changed{maintenance} of streaming,
distributed and dynamic data. Traditional algorithms can then be applied on
these coresets to maintain the approximated optimal solutions.
The challenge is to design coresets with provable tradeoff between their size
and approximation error. This survey summarizes such constructions in a
retrospective way, that aims to unified and simplify the state-of-the-art.
- Abstract(参考訳): 最適化や機械学習の問題では、通常、ある計量空間に点を付ける一連の項目が与えられ、その目標は、ある候補解の空間上の目的関数を最小化または最大化することである。
例えば、クラスタリング問題において、入力は計量空間内の点の集合であり、共通の目標は、これらの点への距離の和を最小化する他の空間(点、直線)における中心の集合を計算することである。
データベースクエリでは、$k$ Centerの特定のクエリセットに対して、そのような部分を計算する必要があります。
しかし従来のアルゴリズムでは,gpsやオーディオ,あるいはクラウドに到達したビデオなどのセンサや,スマートフォンやロボットといった弱いデバイスのネットワークから,無限に分散したストリームを並列処理する必要のある現代的なシステムでは処理できない。
コアセットは入力された"ビッグデータ"の"小さなデータ"の要約であり、可能なクエリはすべて、両方のデータセットでほぼ同じ答えを持つ。
一般的なテクニックは、ストリーミング、分散、動的データの効率的なcoreset \changed{maintenance}を可能にする。
従来のアルゴリズムは、近似最適解を維持するためにこれらのコアセットに適用することができる。
課題は、サイズと近似誤差のトレードオフを証明可能なコアセットを設計することである。
この調査はこのような構造をふりかえりにまとめ、最先端の技術を統一し、単純化することを目的としています。
関連論文リスト
- Inferring Neural Signed Distance Functions by Overfitting on Single Noisy Point Clouds through Finetuning Data-Driven based Priors [53.6277160912059]
本稿では,データ駆動型およびオーバーフィット型手法のプロースを推進し,より一般化し,高速な推論を行い,より高精度なニューラルネットワークSDFを学習する手法を提案する。
そこで本研究では,距離管理やクリーンポイントクラウド,あるいは点正規化を伴わずに,データ駆動型プリエントを微調整できる新しい統計的推論アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-25T16:48:44Z) - Fast networked data selection via distributed smoothed quantile estimation [6.002041236376175]
我々は,最も情報性の高いデータを選択することと,マルチセットの上位k$要素を見つけることの関連性を確立する。
ネットワークにおけるトップ$kの選択は、量子的推定として知られる分散非平滑凸最適化問題として定式化することができる。
我々は、高い凸性の欠如による挑戦的な課題である、トップ$選択を達成するために必要な複雑さを特徴付けている。
論文 参考訳(メタデータ) (2024-06-04T03:26:15Z) - AutoCoreset: An Automatic Practical Coreset Construction Framework [65.37876706107764]
コアセットは入力セットの小さな重み付き部分集合であり、損失関数によく似ている。
本稿では,ユーザからの入力データと所望のコスト関数のみを必要とするコアセット構築のための自動フレームワークを提案する。
この集合は有限であるが、コア集合は極めて一般であることを示す。
論文 参考訳(メタデータ) (2023-05-19T19:59:52Z) - Coresets for Relational Data and The Applications [8.573878018370547]
coresetは、元の入力データセットの構造を保存できる小さなセットである。
我々は、クラスタリング、ロジスティック回帰、SVMといった機械学習タスクにコアセットアプローチを適用することができることを示す。
論文 参考訳(メタデータ) (2022-10-09T12:46:27Z) - CloudAttention: Efficient Multi-Scale Attention Scheme For 3D Point
Cloud Learning [81.85951026033787]
この作業にトランスフォーマーをセットし、それらを形状分類と部分およびシーンセグメンテーションのための階層的なフレームワークに組み込む。
また、各イテレーションにおけるサンプリングとグループ化を活用して、効率的でダイナミックなグローバルなクロスアテンションを計算します。
提案した階層モデルは,最先端の形状分類を平均精度で達成し,従来のセグメンテーション法と同等の結果を得る。
論文 参考訳(メタデータ) (2022-07-31T21:39:15Z) - A Novel Sequential Coreset Method for Gradient Descent Algorithms [21.40879052693993]
Coresetは、これまで広く研究されてきた一般的なデータ圧縮技術である。
擬似次元と全感度境界を効果的に回避する「逐次コアセット」と呼ばれる新しいフレームワークを提案する。
本手法は, コアセットサイズをさらに小さくすることで, 次元に依存した多対数しか持たない場合のスパース最適化に特に適している。
論文 参考訳(メタデータ) (2021-12-05T08:12:16Z) - Revisiting Point Cloud Simplification: A Learnable Feature Preserving
Approach [57.67932970472768]
MeshとPoint Cloudの単純化手法は、3Dモデルの複雑さを低減しつつ、視覚的品質と関連する健全な機能を維持することを目的としている。
そこで本研究では,正解点の標本化を学習し,高速点雲の簡易化手法を提案する。
提案手法は、入力空間から任意のユーザ定義の点数を選択し、視覚的知覚誤差を最小限に抑えるために、その位置を再配置するよう訓練されたグラフニューラルネットワークアーキテクチャに依存する。
論文 参考訳(メタデータ) (2021-09-30T10:23:55Z) - Communication-efficient distributed eigenspace estimation [31.69089186688224]
我々は,データ行列の先頭不変部分空間を計算するための通信効率のよい分散アルゴリズムを開発した。
提案アルゴリズムは局所解と参照解の間のプロクリスト距離を最小化する新しいアライメント方式を用いる。
本アルゴリズムは,集中型推定器と同様の誤差率を示す。
論文 参考訳(メタデータ) (2020-09-05T02:11:22Z) - Making Affine Correspondences Work in Camera Geometry Computation [62.7633180470428]
局所的な特徴は、ポイント・ツー・ポイント対応ではなく、リージョン・ツー・リージョンを提供する。
本稿では,全モデル推定パイプラインにおいて,地域間マッチングを効果的に活用するためのガイドラインを提案する。
実験により、アフィンソルバはより高速な実行時にポイントベースソルバに匹敵する精度を達成できることが示された。
論文 参考訳(メタデータ) (2020-07-20T12:07:48Z) - FedPD: A Federated Learning Framework with Optimal Rates and Adaptivity
to Non-IID Data [59.50904660420082]
フェデレートラーニング(FL)は、分散データから学ぶための一般的なパラダイムになっています。
クラウドに移行することなく、さまざまなデバイスのデータを効果的に活用するために、Federated Averaging(FedAvg)などのアルゴリズムでは、"Computation then aggregate"(CTA)モデルを採用している。
論文 参考訳(メタデータ) (2020-05-22T23:07:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。