論文の概要: Crowdsourcing Without People: Modelling Clustering Algorithms as Experts
- arxiv url: http://arxiv.org/abs/2509.25395v1
- Date: Mon, 29 Sep 2025 18:52:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.276801
- Title: Crowdsourcing Without People: Modelling Clustering Algorithms as Experts
- Title(参考訳): 人なしでクラウドソーシング - クラスタリングアルゴリズムをエキスパートとしてモデル化する
- Authors: Jordyn E. A. Lorentz, Katharine M. Clark,
- Abstract要約: mixsembleは、複数のモデルベースのクラスタリングアルゴリズムから予測を集約するために、Dawid-Skeneモデルを適用するアンサンブル手法である。
人間のラベルに依存する従来のクラウドソーシングとは異なり、このフレームワークはクラスタリングアルゴリズムの出力をノイズの多いアノテーションとしてモデル化する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces mixsemble, an ensemble method that adapts the Dawid-Skene model to aggregate predictions from multiple model-based clustering algorithms. Unlike traditional crowdsourcing, which relies on human labels, the framework models the outputs of clustering algorithms as noisy annotations. Experiments on both simulated and real-world datasets show that, although the mixsemble is not always the single top performer, it consistently approaches the best result and avoids poor outcomes. This robustness makes it a practical alternative when the true data structure is unknown, especially for non-expert users.
- Abstract(参考訳): 本稿では,複数のモデルに基づくクラスタリングアルゴリズムからの予測を集約するために,Dawid-Skeneモデルに適応する組合わせ手法であるmixsembleを紹介する。
人間のラベルに依存する従来のクラウドソーシングとは異なり、このフレームワークはクラスタリングアルゴリズムの出力をノイズの多いアノテーションとしてモデル化する。
シミュレーションと実世界の両方のデータセットの実験では、ミックスサンブルは必ずしもシングルトップパフォーマーではないが、常に最高の結果に近づき、粗末な結果を避けることが示されている。
この堅牢性は、真のデータ構造が不明な場合、特に専門家でないユーザにとって、現実的な代替となる。
関連論文リスト
- Robust Mixture Models for Algorithmic Fairness Under Latent Heterogeneity [8.425890077048374]
ROMEはデータから潜在グループ構造を学習し、最悪のグループ性能を最適化するフレームワークである。
ROMEは、競争平均性能を維持しながら、標準的な手法と比較してアルゴリズムの公正性を著しく改善する。
本手法では事前定義されたグループラベルは必要とせず,不均一な情報源が不明であったり,進化していたりする場合に有効である。
論文 参考訳(メタデータ) (2025-09-22T07:03:33Z) - Coupled Confusion Correction: Learning from Crowds with Sparse
Annotations [43.94012824749425]
2つのモデルで学習した融合行列は、他のモデルの蒸留データによって補正することができる。
我々は、類似の専門知識を共有するアノテータグループの'をクラスタ化し、それらの混乱行列を一緒に修正できるようにします。
論文 参考訳(メタデータ) (2023-12-12T14:47:26Z) - Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - Hard Regularization to Prevent Deep Online Clustering Collapse without
Data Augmentation [65.268245109828]
オンラインディープクラスタリング(オンラインディープクラスタリング)とは、機能抽出ネットワークとクラスタリングモデルを組み合わせて、クラスタラベルを処理された各新しいデータポイントまたはバッチに割り当てることである。
オフラインメソッドよりも高速で汎用性が高いが、オンラインクラスタリングは、エンコーダがすべての入力を同じポイントにマッピングし、すべてを単一のクラスタに配置する、崩壊したソリューションに容易に到達することができる。
本稿では,データ拡張を必要としない手法を提案する。
論文 参考訳(メタデータ) (2023-03-29T08:23:26Z) - A parallelizable model-based approach for marginal and multivariate
clustering [0.0]
本稿では,モデルに基づくクラスタリングの頑健さを生かしたクラスタリング手法を提案する。
我々は、各マージンごとに異なる数のクラスタを持つことができる有限混合モデルを指定することで、この問題に対処する。
提案手法は、完全な(結合した)モデルベースのクラスタリング手法よりも、中程度から高次元の処理に適するだけでなく、計算的にも魅力的である。
論文 参考訳(メタデータ) (2022-12-07T23:54:41Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z) - Personalized Federated Learning via Convex Clustering [72.15857783681658]
本稿では,局所凸型ユーザコストを用いた個人化フェデレーション学習のためのアルゴリズム群を提案する。
提案するフレームワークは,異なるユーザのモデルの違いをペナル化する凸クラスタリングの一般化に基づいている。
論文 参考訳(メタデータ) (2022-02-01T19:25:31Z) - Multi-output Gaussian Processes for Uncertainty-aware Recommender
Systems [3.908842679355254]
モデルトレーニングと推論のための効率的な戦略を導入し、その結果、非常に大きくスパースなデータセットにスケールするモデルを生み出します。
我々のモデルは、その予測の定量化に関する有意義な不確実性推定も提供する。
論文 参考訳(メタデータ) (2021-06-08T10:01:14Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - Discrete-Valued Latent Preference Matrix Estimation with Graph Side
Information [12.836994708337144]
最適なサンプルの複雑さにマッチするアルゴリズムを開発する。
我々のアルゴリズムはエラーをモデル化し、予測性能の点で既存のアルゴリズムより優れている。
論文 参考訳(メタデータ) (2020-03-16T06:29:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。