論文の概要: PriorBoost: An Adaptive Algorithm for Learning from Aggregate Responses
- arxiv url: http://arxiv.org/abs/2402.04987v1
- Date: Wed, 7 Feb 2024 16:06:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 14:40:29.077312
- Title: PriorBoost: An Adaptive Algorithm for Learning from Aggregate Responses
- Title(参考訳): priorboost:集合応答から学習するための適応アルゴリズム
- Authors: Adel Javanmard, Matthew Fahrbach, Vahab Mirrokni
- Abstract要約: 我々は、事象レベルの損失関数のための集約セット(文献ではバッグと呼ばれる)の構築に焦点をあてる。
より均一なサンプルの袋を適応的に形成するPreferBoostアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 18.944561572423726
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work studies algorithms for learning from aggregate responses. We focus
on the construction of aggregation sets (called bags in the literature) for
event-level loss functions. We prove for linear regression and generalized
linear models (GLMs) that the optimal bagging problem reduces to
one-dimensional size-constrained $k$-means clustering. Further, we
theoretically quantify the advantage of using curated bags over random bags. We
then propose the PriorBoost algorithm, which adaptively forms bags of samples
that are increasingly homogeneous with respect to (unobserved) individual
responses to improve model quality. We study label differential privacy for
aggregate learning, and we also provide extensive experiments showing that
PriorBoost regularly achieves optimal model quality for event-level
predictions, in stark contrast to non-adaptive algorithms.
- Abstract(参考訳): 本研究は集約応答から学習するアルゴリズムを研究する。
イベントレベルの損失関数に対する集約セット(文献ではバッグと呼ばれる)の構築に焦点を当てる。
線形回帰および一般化線形モデル (GLMs) に対して、最適バッグング問題は1次元サイズ制約付き$k$-meansクラスタリングに還元されることを示す。
さらに, ランダムバッグ上のキュレートバッグの利用の利点を理論的に定量化する。
次に,モデル品質を改善するために,個々の応答に対する均一性が増すサンプルの袋を適応的に形成するpriorboostアルゴリズムを提案する。
また,非適応型アルゴリズムとは対照的に,イベントレベルの予測に対して,prediorboostが最適モデル品質を定期的に達成することを示す広範な実験を行った。
関連論文リスト
- EnsIR: An Ensemble Algorithm for Image Restoration via Gaussian Mixture Models [70.60381055741391]
画像復元の課題は、説明された問題に関連し、単一のモデル予測と地道のずれをもたらす。
アンサンブル学習は、複数のベースモデルの予測を組み合わせることで、これらの偏差に対処することを目的としている。
我々は予測候補のアンサンブル重みを推定するために予測(EM)に基づくアルゴリズムを用いる。
我々のアルゴリズムは、モデルに依存しない訓練不要であり、様々なトレーニング済み画像復元モデルのシームレスな統合と強化を可能にする。
論文 参考訳(メタデータ) (2024-10-30T12:16:35Z) - Boosting Fair Classifier Generalization through Adaptive Priority Reweighing [59.801444556074394]
より優れた一般化性を持つ性能向上フェアアルゴリズムが必要である。
本稿では,トレーニングデータとテストデータ間の分散シフトがモデル一般化性に与える影響を解消する適応的リライジング手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T13:04:55Z) - Adaptive Sparse Gaussian Process [0.0]
これらの問題に対処できる最初の適応スパースガウスプロセス(GP)を提案する。
まず,変分スパースGPアルゴリズムを変形係数によって適応的に再構成する。
そこで我々は,新しいサンプルが到着するたびに,スパースGPモデルの単一誘導点と残りのモデルパラメータを同時に更新することを提案する。
論文 参考訳(メタデータ) (2023-02-20T21:34:36Z) - Faster Adaptive Federated Learning [84.38913517122619]
フェデレートラーニングは分散データの出現に伴って注目を集めている。
本稿では,クロスサイロFLにおけるモーメントに基づく分散低減手法に基づく適応アルゴリズム(FAFED)を提案する。
論文 参考訳(メタデータ) (2022-12-02T05:07:50Z) - Local policy search with Bayesian optimization [73.0364959221845]
強化学習は、環境との相互作用によって最適な政策を見つけることを目的としている。
局所探索のための政策勾配は、しばしばランダムな摂動から得られる。
目的関数の確率モデルとその勾配を用いたアルゴリズムを開発する。
論文 参考訳(メタデータ) (2021-06-22T16:07:02Z) - Adaptive Sampling for Minimax Fair Classification [40.936345085421955]
最適化の原理に基づく適応型サンプリングアルゴリズムを提案し,その性能に関する理論的境界を導出する。
特定の問題のクラスに対してアルゴリズム独立なローバウンドを導出することにより,適応スキームによる性能は一般に改善できないことを示した。
論文 参考訳(メタデータ) (2021-03-01T04:58:27Z) - Cauchy-Schwarz Regularized Autoencoder [68.80569889599434]
変分オートエンコーダ(VAE)は、強力で広く使われている生成モデルのクラスである。
GMMに対して解析的に計算できるCauchy-Schwarz分散に基づく新しい制約対象を導入する。
本研究の目的は,密度推定,教師なしクラスタリング,半教師なし学習,顔分析における変分自動エンコーディングモデルの改善である。
論文 参考訳(メタデータ) (2021-01-06T17:36:26Z) - An Efficient Framework for Clustered Federated Learning [26.24231986590374]
本稿では,ユーザがクラスタに分散するフェデレーション学習(FL)の問題に対処する。
反復フェデレーションクラスタリングアルゴリズム(IFCA)を提案する。
ニューラルネットワークのような非分割問題では,アルゴリズムが効率的であることを示す。
論文 参考訳(メタデータ) (2020-06-07T08:48:59Z) - Non-Adaptive Adaptive Sampling on Turnstile Streams [57.619901304728366]
カラムサブセット選択、部分空間近似、射影クラスタリング、および空間サブリニアを$n$で使用するターンタイルストリームのボリュームに対する最初の相対エラーアルゴリズムを提供する。
我々の適応的なサンプリング手法は、様々なデータ要約問題に多くの応用をもたらしており、これは最先端を改善するか、より緩和された行列列モデルで以前に研究されただけである。
論文 参考訳(メタデータ) (2020-04-23T05:00:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。