論文の概要: Continuous Sweep for Binary Quantification Learning
- arxiv url: http://arxiv.org/abs/2308.08387v2
- Date: Fri, 11 Oct 2024 14:27:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-14 13:29:55.499816
- Title: Continuous Sweep for Binary Quantification Learning
- Title(参考訳): バイナリ量子化学習のための連続スウィープ
- Authors: Kevin Kloos, Julian D. Karch, Quinten A. Meertens, Mark de Rooij,
- Abstract要約: Continuous SweepはMedian Sweepにインスパイアされた新しいパラメトリックバイナリ量子化器である。
本研究は,連続スウィープが分類群,数群,正則群の量化器より優れていることを示す3つのシミュレーション研究である。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: A quantifier is a supervised machine learning algorithm, focused on estimating the class prevalence in a dataset rather than labeling its individual observations. We introduce Continuous Sweep, a new parametric binary quantifier inspired by the well-performing Median Sweep, which is an ensemble method based on Adjusted Count estimators. We modified two aspects of Median Sweep: 1) using parametric class distributions instead of empirical distributions for the true and false positive rate; 2) using the mean instead of the median of a set of Adjusted Count estimates. These two modifications allow for a theoretical analysis of the bias and variance of Continuous Sweep. Furthermore, the expressions of bias and variance can be used to define optimal decision boundaries of the set of Adjusted count estimates to be used in the ensemble. We show in three simulation studies that Continuous Sweep outperforms the quantifiers in the group Classify, Count, and Correct, including Median Sweep, and is competitive with the two best quantifiers from the group Distribution Matchers. Also an empirical data set is analysed with these quantifiers showing similar performances.
- Abstract(参考訳): 量化器は教師付き機械学習アルゴリズムであり、個々の観測をラベル付けするのではなく、データセット内のクラス頻度を推定することに焦点を当てている。
調整数推定器をベースとしたアンサンブル手法であるContinuous Sweepを導入する。
私たちはMedian Sweepの2つの側面を修正した。
1) 真偽陽性率の実証的分布の代わりにパラメトリッククラス分布を用いる。
2) 調整された数の推定値の中央値の代わりに平均を使用する。
これらの2つの修正は、連続したスウィープのバイアスと分散の理論的な分析を可能にする。
さらに、バイアスと分散の表現は、アンサンブルで使用される調整されたカウント推定のセットの最適決定境界を定義するために使用することができる。
本研究は, グループ分類, カウント, 正解の定量化に優れ, グループ分布整合器の2つの最適な定量化器と競合することを示す。
また、同様の性能を示すこれらの量化器を用いて経験的データセットを分析する。
関連論文リスト
- Quantization of Large Language Models with an Overdetermined Basis [73.79368761182998]
本稿では,嘉心表現の原理に基づくデータ量子化アルゴリズムを提案する。
以上の結果から, カシ量子化はモデル性能の競争力や優れた品質を達成できることが示唆された。
論文 参考訳(メタデータ) (2024-04-15T12:38:46Z) - Distributed Markov Chain Monte Carlo Sampling based on the Alternating
Direction Method of Multipliers [143.6249073384419]
本論文では,乗算器の交互方向法に基づく分散サンプリング手法を提案する。
我々は,アルゴリズムの収束に関する理論的保証と,その最先端性に関する実験的証拠の両方を提供する。
シミュレーションでは,線形回帰タスクとロジスティック回帰タスクにアルゴリズムを配置し,その高速収束を既存の勾配法と比較した。
論文 参考訳(メタデータ) (2024-01-29T02:08:40Z) - Estimation Beyond Data Reweighting: Kernel Method of Moments [9.845144212844662]
モーメントのカーネル法(KMM)と呼ばれる最大平均誤差に基づく経験的確率推定器を提供する。
条件付きモーメント制限タスクにおいて,本手法が競合性能を達成することを示す。
論文 参考訳(メタデータ) (2023-05-18T11:52:43Z) - Regularized Vector Quantization for Tokenized Image Synthesis [126.96880843754066]
画像の離散表現への量子化は、統合生成モデリングにおける根本的な問題である。
決定論的量子化は、厳しいコードブックの崩壊と推論段階の誤調整に悩まされ、一方、量子化は、コードブックの利用率の低下と再構築の目的に悩まされる。
本稿では、2つの視点から正規化を適用することにより、上記の問題を効果的に緩和できる正規化ベクトル量子化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-11T15:20:54Z) - Distributed Estimation and Inference for Semi-parametric Binary Response Models [8.309294338998539]
本稿では,分散コンピューティング環境下での半パラメトリック二値選択モデルの最大スコア推定について検討する。
直感的な分割・対数推定器は計算コストが高く、機械数に対する非正規制約によって制限される。
論文 参考訳(メタデータ) (2022-10-15T23:06:46Z) - Realistic Evaluation of Transductive Few-Shot Learning [41.06192162435249]
トランスダクティブ推論は、数ショットの学習で広く使われている。
推論における少数ショットタスクの問合せセット内における任意のクラス分布の効果について検討する。
我々は,3つの広く使用されているデータセットに対して,最先端のトランスダクティブ手法を実験的に評価した。
論文 参考訳(メタデータ) (2022-04-24T03:35:06Z) - Learning to Estimate Without Bias [57.82628598276623]
ガウスの定理は、重み付き最小二乗推定器は線形モデルにおける線形最小分散アンバイアスド推定(MVUE)であると述べている。
本稿では、バイアス制約のあるディープラーニングを用いて、この結果を非線形設定に拡張する第一歩を踏み出す。
BCEの第二の動機は、同じ未知の複数の推定値が平均化されてパフォーマンスが向上するアプリケーションにおいてである。
論文 参考訳(メタデータ) (2021-10-24T10:23:51Z) - Robust Distributed Optimization With Randomly Corrupted Gradients [24.253191879453784]
本研究では, ビザンチンの故障に頑健で, 潜在的に敵対的な挙動を示す一階分散最適化アルゴリズムを提案する。
我々のアルゴリズムは順序正規化と信頼に値する統計的誤差収束率を達成する。
論文 参考訳(メタデータ) (2021-06-28T19:45:25Z) - Squared $\ell_2$ Norm as Consistency Loss for Leveraging Augmented Data
to Learn Robust and Invariant Representations [76.85274970052762]
元のサンプルと拡張されたサンプルの埋め込み/表現の距離を規則化することは、ニューラルネットワークの堅牢性を改善するための一般的なテクニックである。
本稿では、これらの様々な正規化選択について検討し、埋め込みの正規化方法の理解を深める。
私たちが特定したジェネリックアプローチ(squared $ell$ regularized augmentation)は、それぞれ1つのタスクのために特別に設計されたいくつかの手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-11-25T22:40:09Z) - Re-Assessing the "Classify and Count" Quantification Method [88.60021378715636]
分類とカウント(CC)は、しばしば偏りのある推定器である。
以前の作業では、CCの適切に最適化されたバージョンを適切に使用できなかった。
最先端の手法に劣っているものの、ほぼ最先端の精度を実現している、と我々は主張する。
論文 参考訳(メタデータ) (2020-11-04T21:47:39Z) - Laplacian Regularized Few-Shot Learning [35.381119443377195]
少数ショットタスクに対するラプラシアン正規化推論を提案する。
私たちの推論はベースモデルを再トレーニングするものではなく、クエリセットのグラフクラスタリングとして見ることができます。
我々のLaplacianShotは、異なるモデル間で大きなマージンで最先端の手法を一貫して上回ります。
論文 参考訳(メタデータ) (2020-06-28T02:17:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。