論文の概要: Sample Summary with Generative Encoding
- arxiv url: http://arxiv.org/abs/2201.08233v1
- Date: Sat, 15 Jan 2022 10:28:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-23 18:25:00.571367
- Title: Sample Summary with Generative Encoding
- Title(参考訳): 生成エンコーディングによるサンプル概要
- Authors: David Banh
- Abstract要約: サンプル空間を要約して、サンプルの総数をコア集合に還元する概念を導入する。
予測タスクの結果は、展開後の精度が要約なしでも予測に匹敵するので、折り畳み中に情報を保持することを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With increasing sample sizes, all algorithms require longer run times that
scales at best logarithmically. A concept that summarises the sample space to
reduce the total number of samples into a core set that can be used for
regression tasks is introduced. This idea of summarisation is called folding -
the technique for projecting data into a lower dimensional subspace, whereas
unfolding projects it back into the original space. Results for a prediction
task show that information is retained during folding as accuracy after
unfolding is still comparable to prediction without summarisation.
- Abstract(参考訳): サンプルサイズの増加に伴い、すべてのアルゴリズムは対数的にスケールするよりも長い実行時間を必要とする。
サンプル空間を要約して、回帰タスクに使用できるコアセットにサンプルの総数を減少させる概念を紹介します。
この要約の考え方は、データを低次元の部分空間に投影するフォールディングテクニックと呼ばれ、一方展開は元の空間に投影する。
予測タスクの結果は、展開後の精度が要約なしでも予測に匹敵するので、折り畳み中に情報を保持することを示す。
関連論文リスト
- How Do Flow Matching Models Memorize and Generalize in Sample Data Subspaces? [10.315743300140966]
実世界のデータは、しばしば高次元空間に埋め込まれた低次元構造の中に存在すると仮定される。
実際の設定では、有限個のサンプルのみを観測し、サンプルデータ部分空間と呼ばれるものを形成する。
大きな課題は、生成モデルがこの部分空間内に留まるサンプルを確実に合成できるかどうかである。
論文 参考訳(メタデータ) (2024-10-31T03:08:07Z) - Optimal sampling for least-squares approximation [0.8702432681310399]
ランダムサンプルから(重み付けされた)最小二乗近似の解析において、クリスティーフェル関数を重要な量として導入する。
ほぼ最適なサンプル複雑性を持つサンプリング戦略を構築するためにどのように使用できるかを示す。
論文 参考訳(メタデータ) (2024-09-04T00:06:23Z) - An Efficient Rehearsal Scheme for Catastrophic Forgetting Mitigation during Multi-stage Fine-tuning [55.467047686093025]
このような忘れを緩和するための一般的なアプローチは、微調整中に以前のタスクからサンプルをリハーサルすることである。
側方損傷のリハーサルを優先するサンプリング手法である textttbf mix-cd を提案する。
我々の手法は計算効率が高く、実装が容易で、計算制約のある設定においていくつかの主要な連続学習手法より優れています。
論文 参考訳(メタデータ) (2024-02-12T22:32:12Z) - Reinforcement Learning Enhanced Weighted Sampling for Accurate Subgraph
Counting on Fully Dynamic Graph Streams [35.943447765433774]
完全動的グラフストリームにおける部分グラフ数を推定するための重み付きサンプリングアルゴリズムWSDを提案する。
強化学習に基づく新しい手法を用いて,エッジの重みをデータ駆動方式で決定する。
論文 参考訳(メタデータ) (2022-11-13T03:01:34Z) - AU-PD: An Arbitrary-size and Uniform Downsampling Framework for Point
Clouds [6.786701761788659]
我々はAU-PDという新しいタスク対応サンプリングフレームワークを導入し、ポイントクラウドを直接小さなサイズにダウンサンプルする。
私たちは、ダウンストリームタスクの損失によって引き起こされるタスク認識を実現するために、プリサンプルセットを洗練します。
注意機構と適切なトレーニングスキームにより、フレームワークは異なるサイズのプリサンプルセットを適応的に洗練することを学ぶ。
論文 参考訳(メタデータ) (2022-11-02T13:37:16Z) - Adaptive Sketches for Robust Regression with Importance Sampling [64.75899469557272]
我々は、勾配降下(SGD)による頑健な回帰を解くためのデータ構造を導入する。
我々のアルゴリズムは、サブ線形空間を使用し、データに1回パスするだけで、SGDの$T$ステップを重要サンプリングで効果的に実行します。
論文 参考訳(メタデータ) (2022-07-16T03:09:30Z) - SreaMRAK a Streaming Multi-Resolution Adaptive Kernel Algorithm [60.61943386819384]
既存のKRRの実装では、すべてのデータがメインメモリに格納される必要がある。
KRRのストリーミング版であるStreaMRAKを提案する。
本稿では,2つの合成問題と2重振り子の軌道予測について紹介する。
論文 参考訳(メタデータ) (2021-08-23T21:03:09Z) - WOR and $p$'s: Sketches for $\ell_p$-Sampling Without Replacement [75.12782480740822]
We design novel composable sketches for WOR $ell_p$ sample。
私たちのスケッチは、サンプルサイズと直線的にしか成長しないサイズです。
我々の方法は、最初に$p>1$の重要なレギュレーションでWORサンプリングを提供し、最初に$p>0$で署名された更新を処理する。
論文 参考訳(メタデータ) (2020-07-14T00:19:27Z) - Learning to Count in the Crowd from Limited Labeled Data [109.2954525909007]
我々は,限られた数のラベル付きサンプルから参加者を数えることを学ぶことで,アノテーションの努力を減らすことに重点を置いている。
具体的には,未ラベルデータに対する擬似地下真理推定を含むガウス過程に基づく反復学習機構を提案する。
論文 参考訳(メタデータ) (2020-07-07T04:17:01Z) - Post-Estimation Smoothing: A Simple Baseline for Learning with Side
Information [102.18616819054368]
本稿では,構造指標データを予測に組み込む高速かつ効率的な手法として,後推定平滑化演算子を提案する。
滑らかなステップは元の予測器とは分離されているため、機械学習タスクの幅広いクラスに適用できる。
大規模な空間的・時間的データセットに関する実験は,実測後のスムース化の速度と正確さを浮き彫りにした。
論文 参考訳(メタデータ) (2020-03-12T18:04:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。