論文の概要: Information Elicitation Meets Clustering
- arxiv url: http://arxiv.org/abs/2110.00952v1
- Date: Sun, 3 Oct 2021 08:47:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-05 15:05:44.473616
- Title: Information Elicitation Meets Clustering
- Title(参考訳): 情報誘発がクラスタリングを満たす
- Authors: Yuqing Kong
- Abstract要約: 本稿では,人々の戦略に頑健な情報集約手法を提案する。
これは新しいクラスタリング手法であるDeterminant MaxImization (DMI)-clusteringに基づいている。
- 参考スコア(独自算出の注目度): 7.979042964676474
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the setting where we want to aggregate people's subjective evaluations,
plurality vote may be meaningless when a large amount of low-effort people
always report "good" regardless of the true quality. "Surprisingly popular"
method, picking the most surprising answer compared to the prior, handle this
issue to some extent. However, it is still not fully robust to people's
strategies. Here in the setting where a large number of people are asked to
answer a small number of multi-choice questions (multi-task, large group), we
propose an information aggregation method that is robust to people's
strategies. Interestingly, this method can be seen as a rotated "surprisingly
popular". It is based on a new clustering method, Determinant MaxImization
(DMI)-clustering, and a key conceptual idea that information elicitation
without ground-truth can be seen as a clustering problem. Of independent
interest, DMI-clustering is a general clustering method that aims to maximize
the volume of the simplex consisting of each cluster's mean multiplying the
product of the cluster sizes. We show that DMI-clustering is invariant to any
non-degenerate affine transformation for all data points. When the data point's
dimension is a constant, DMI-clustering can be solved in polynomial time. In
general, we present a simple heuristic for DMI-clustering which is very similar
to Lloyd's algorithm for k-means. Additionally, we also apply the clustering
idea in the single-task setting and use the spectral method to propose a new
aggregation method that utilizes the second-moment information elicited from
the crowds.
- Abstract(参考訳): 人々の主観的評価を集約したい状況では、多くの低益な人々が真の品質に関わらず常に「良い」と報告する場合、複数の投票は意味がない。
「意外に人気がある」という手法は、前よりも意外な答えを選び、ある程度この問題に対処する。
しかし、それでも人々の戦略に完全には耐えられていない。
ここでは,少数の多目的質問(マルチタスク,大規模グループ)に対して,多数の人が回答を求められる状況において,人々の戦略に頑健な情報集約手法を提案する。
興味深いことに、この方法は回転する「驚くほど人気」と見なすことができる。
それは、新しいクラスタリング法、決定行列最大化(dmi)-クラスタリング、および基底を持たない情報誘発をクラスタリング問題と見なすことができるという重要な概念に基づいている。
DMIクラスタリング(英: DMI-clustering)は、クラスタサイズの積を乗算する各クラスタの平均値からなる単純度を最大化する一般的なクラスタリング手法である。
dmiクラスタ化はすべてのデータポイントの非退化アフィン変換に不変であることを示す。
データポイントの次元が一定であれば、DMIクラスタリングは多項式時間で解くことができる。
一般に、dmiクラスタ化のための単純なヒューリスティックは、ロイドのk平均に対するアルゴリズムと非常によく似ている。
さらに, 単一タスク設定におけるクラスタリングの考え方を適用し, スペクトル法を用いて, 群集から導出される第2のモーメント情報を利用する新しい集約手法を提案する。
関連論文リスト
- Dying Clusters Is All You Need -- Deep Clustering With an Unknown Number of Clusters [5.507296054825372]
高次元データで有意義なグループを見つけることは、データマイニングにおいて重要な課題である。
深層クラスタリング手法はこれらの課題において顕著な成果を上げている。
これらのメソッドの多くは、事前にクラスタの数を指定する必要がある。
これは、ラベル付きデータが利用できない場合、クラスタの数は通常不明であるため、大きな制限となる。
これらのアプローチのほとんどは、クラスタリングプロセスから分離されたクラスタの数を見積もっています。
論文 参考訳(メタデータ) (2024-10-12T11:04:10Z) - UniForCE: The Unimodality Forest Method for Clustering and Estimation of
the Number of Clusters [2.4953699842881605]
我々は,一様性の概念に着目し,局所的一様性クラスタと呼ばれる柔軟なクラスタ定義を提案する。
局所的ユニモーダルクラスタは、データのサブクラスタのペア間で一様性が局所的に保存される限り、拡張される。
局所的な単調クラスタリングのためのUniForCE法を提案する。
論文 参考訳(メタデータ) (2023-12-18T16:19:02Z) - Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - Instance-Optimal Cluster Recovery in the Labeled Stochastic Block Model [79.46465138631592]
観測されたラベルを用いてクラスタを復元する効率的なアルゴリズムを考案する。
本稿では,期待値と高い確率でこれらの下位境界との性能を一致させる最初のアルゴリズムであるIACを提案する。
論文 参考訳(メタデータ) (2023-06-18T08:46:06Z) - Hard Regularization to Prevent Deep Online Clustering Collapse without
Data Augmentation [65.268245109828]
オンラインディープクラスタリング(オンラインディープクラスタリング)とは、機能抽出ネットワークとクラスタリングモデルを組み合わせて、クラスタラベルを処理された各新しいデータポイントまたはバッチに割り当てることである。
オフラインメソッドよりも高速で汎用性が高いが、オンラインクラスタリングは、エンコーダがすべての入力を同じポイントにマッピングし、すべてを単一のクラスタに配置する、崩壊したソリューションに容易に到達することができる。
本稿では,データ拡張を必要としない手法を提案する。
論文 参考訳(メタデータ) (2023-03-29T08:23:26Z) - Convex Clustering through MM: An Efficient Algorithm to Perform
Hierarchical Clustering [1.0589208420411012]
本稿では,クラスタ融合と高効率更新方式を用いた反復アルゴリズムCCMMによる凸クラスタリングを提案する。
現在のデスクトップコンピュータでは、CCMMは、7次元空間に100万以上のオブジェクトを含む凸クラスタリング問題を効率的に解決する。
論文 参考訳(メタデータ) (2022-11-03T15:07:51Z) - Cluster Explanation via Polyhedral Descriptions [0.0]
クラスタリングは教師なしの学習問題であり、競合しないデータポイントを同様の機能を持つグループに分割することを目的としている。
従来のクラスタリングアルゴリズムは、グループ割り当ての解釈可能性ではなく、正確性に重点を置いているため、グループに対する限られた洞察を提供する。
本稿では,各クラスタのまわりにポリヘドラを配置し,結果として生じるポリヘドラの複雑さを最小化して,クラスタを説明するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-10-17T07:26:44Z) - Differentially-Private Clustering of Easy Instances [67.04951703461657]
異なるプライベートクラスタリングでは、個々のデータポイントに関する情報を公開せずに、$k$のクラスタセンターを特定することが目標だ。
我々は、データが"簡単"である場合にユーティリティを提供する実装可能な差分プライベートクラスタリングアルゴリズムを提供する。
我々は、非プライベートクラスタリングアルゴリズムを簡単なインスタンスに適用し、結果をプライベートに組み合わせることのできるフレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-29T08:13:56Z) - Meta Clustering Learning for Large-scale Unsupervised Person
Re-identification [124.54749810371986]
メタクラスタリング学習(MCL)と呼ばれる「大規模タスクのための小さなデータ」パラダイムを提案する。
MCLは、第1フェーズのトレーニングのためにコンピューティングを節約するためにクラスタリングを介して、未ラベルデータのサブセットを擬似ラベル付けするのみである。
提案手法は計算コストを大幅に削減すると同時に,従来よりも優れた性能を実現している。
論文 参考訳(メタデータ) (2021-11-19T04:10:18Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z) - Spectral Clustering with Smooth Tiny Clusters [14.483043753721256]
本稿では,データのスムーズさを初めて考慮した新しいクラスタリングアルゴリズムを提案する。
私たちのキーとなるアイデアは、スムーズなグラフを構成する小さなクラスタをクラスタ化することです。
本稿では,マルチスケールな状況に着目するが,データのスムーズさの考え方はどのクラスタリングアルゴリズムにも確実に拡張できる。
論文 参考訳(メタデータ) (2020-09-10T05:21:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。