論文の概要: Surprisingly Popular Voting for Concentric Rank-Order Models
- arxiv url: http://arxiv.org/abs/2411.08367v1
- Date: Wed, 13 Nov 2024 06:32:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-14 16:11:47.077548
- Title: Surprisingly Popular Voting for Concentric Rank-Order Models
- Title(参考訳): 同心ランクモデルに対する驚くほど人気投票
- Authors: Hadi Hosseini, Debmalya Mandal, Amrit Puhan,
- Abstract要約: 社会情報サイトにおける重要な問題は、専門家が少数派であるときに個々の報告から真実を回復することである。
2つの階調モデルを提案し、これらのモデルの下でSP投票のサンプル複雑性を解析する。
提案手法は,SP-voting が高確率でグランドトラストランキングを復元できるように,基礎となるモデルのパラメータに条件を与える。
- 参考スコア(独自算出の注目度): 16.278147190647026
- License:
- Abstract: An important problem on social information sites is the recovery of ground truth from individual reports when the experts are in the minority. The wisdom of the crowd, i.e. the collective opinion of a group of individuals fails in such a scenario. However, the surprisingly popular (SP) algorithm~\cite{prelec2017solution} can recover the ground truth even when the experts are in the minority, by asking the individuals to report additional prediction reports--their beliefs about the reports of others. Several recent works have extended the surprisingly popular algorithm to an equivalent voting rule (SP-voting) to recover the ground truth ranking over a set of $m$ alternatives. However, we are yet to fully understand when SP-voting can recover the ground truth ranking, and if so, how many samples (votes and predictions) it needs. We answer this question by proposing two rank-order models and analyzing the sample complexity of SP-voting under these models. In particular, we propose concentric mixtures of Mallows and Plackett-Luce models with $G (\ge 2)$ groups. Our models generalize previously proposed concentric mixtures of Mallows models with $2$ groups, and we highlight the importance of $G > 2$ groups by identifying three distinct groups (expert, intermediate, and non-expert) from existing datasets. Next, we provide conditions on the parameters of the underlying models so that SP-voting can recover ground-truth rankings with high probability, and also derive sample complexities under the same. We complement the theoretical results by evaluating SP-voting on simulated and real datasets.
- Abstract(参考訳): 社会情報サイトにおける重要な問題は、専門家が少数派であるときに個々の報告から真実を回復することである。
群衆の知恵、すなわち個人の集団的意見はそのようなシナリオで失敗する。
しかし、驚くほど人気のある (SP) アルゴリズム~\cite{prelec2017solution} は、専門家が少数派である場合でも、個人に予測レポートを報告するよう求めることで、基礎的な真実を回復することができる。
いくつかの最近の研究は、驚くほど人気のあるアルゴリズムを同等の投票規則 (SP-voting) に拡張し、一組の$m$の代替品に対する基底真理のランクを回復した。
しかし、SP投票がいつ真理ランキングを回復できるのか、もしそうであれば、どのくらいのサンプル(投票と予測)が必要なのかは、まだ完全には分かっていない。
本稿では、2つの階数モデルを提案し、これらのモデルの下でSP投票のサンプル複雑性を解析することによって、この問題に答える。
特に、Mallows と Plackett-Luce モデルの同心混合と$G (\ge 2)$ 群を提案する。
提案したMallowsモデルと2ドルグループとの同心混合を一般化し,既存のデータセットから3つの異なるグループ(専門家,中間者,非専門家)を特定することにより,$G > 2$グループの重要性を強調した。
次に,SP投票が高確率で接地トラスランキングを復元できるように,基礎となるモデルのパラメータに条件を与えるとともに,同じ条件下でサンプル複雑度を導出する。
シミュレーションおよび実データに基づいてSP投票を評価することにより理論的結果を補完する。
関連論文リスト
- Random pairing MLE for estimation of item parameters in Rasch model [22.32547146723177]
ラッシュモデル(Rasch model)は、個人の潜伏特性と二分反応の関係をモデル化するために心理学において広く用いられている。
我々は、ラッシュモデルにおける項目パラメータを忠実に推定する新しい可能性に基づく推定器を導入する。
シミュレーションデータと実データを用いた2つの新しい推定器の有効性の実証的証拠を提供する。
論文 参考訳(メタデータ) (2024-06-20T04:32:34Z) - Ranking Large Language Models without Ground Truth [24.751931637152524]
大規模言語モデル(LLM)の評価とランキングは,これらのモデルの普及に伴って重要な問題となっている。
我々は、プロンプトのデータセットが与えられた場合、根拠となる真実や参照応答にアクセスせずにそれらをランク付けする、新しい視点を提供する。
この考え方を繰り返し適用し、LLMをランク付けする2つの方法を提案する。
論文 参考訳(メタデータ) (2024-02-21T00:49:43Z) - Optimal Multi-Distribution Learning [88.3008613028333]
マルチディストリビューション学習は、$k$の異なるデータ分散における最悪のリスクを最小限に抑える共有モデルを学ぶことを目指している。
本稿では, (d+k)/varepsilon2の順に, サンプルの複雑さを伴って, ヴァレプシロン最適ランダム化仮説を導出するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-12-08T16:06:29Z) - Fair Abstractive Summarization of Diverse Perspectives [103.08300574459783]
公平な要約は、特定のグループを過小評価することなく、多様な視点を包括的にカバーしなければなりません。
はじめに、抽象的な要約における公正性は、いかなる集団の視点にも過小評価されないものとして、正式に定義する。
本研究では,対象視点と対象視点の差を測定することで,基準のない4つの自動計測手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T03:38:55Z) - Fairness-enhancing mixed effects deep learning improves fairness on in- and out-of-distribution clustered (non-iid) data [6.596656267996196]
フェア・ミックスド・エフェクト・ディープ・ラーニング(Fair MEDL)フレームワークを紹介する。
Fair MEDLは、クラスタ不変固定効果(FE)とクラスタ固有ランダム効果(RE)を定量化する
敵の偏見を取り入れて、平等化オッド、デモグラフィックパリティ、カウンターファクトフェアネスの3つの主要な指標の公平性を促進する。
論文 参考訳(メタデータ) (2023-10-04T20:18:45Z) - Modeling the Q-Diversity in a Min-max Play Game for Robust Optimization [61.39201891894024]
群分布的ロバスト最適化(群 DRO)は、事前定義された群に対する最悪の損失を最小限にすることができる。
グループDROフレームワークをQ-Diversityを提案して再構築する。
インタラクティブなトレーニングモードによって特徴付けられるQ-Diversityは、アノテーションからグループ識別を緩和し、直接パラメータ化を行う。
論文 参考訳(メタデータ) (2023-05-20T07:02:27Z) - Membership Inference Attacks against Synthetic Data through Overfitting
Detection [84.02632160692995]
我々は、攻撃者が基礎となるデータ分布についてある程度の知識を持っていると仮定する現実的なMIA設定について論じる。
生成モデルの局所的なオーバーフィッティングをターゲットとして,メンバシップを推論することを目的とした密度ベースMIAモデルであるDOMIASを提案する。
論文 参考訳(メタデータ) (2023-02-24T11:27:39Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Concentric mixtures of Mallows models for top-$k$ rankings: sampling and
identifiability [0.0]
上位ランクの2つのMallowsモデルの混合について検討する。
我々はMallows Top-k$ランキングの効率的なサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-27T13:00:37Z) - What Can We Learn from Collective Human Opinions on Natural Language
Inference Data? [88.90490998032429]
ChaosNLIは、集合HumAnオピニオンSを研究するための合計464,500のアノテーションを持つデータセットである。
このデータセットは、SNLIとMNLIの3,113例とAbductive-NLIの1,532例に対して、100のアノテーションを例に集めて作成されている。
論文 参考訳(メタデータ) (2020-10-07T17:26:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。