論文の概要: Question the Questions: Auditing Representation in Online Deliberative Processes
- arxiv url: http://arxiv.org/abs/2511.04588v1
- Date: Thu, 06 Nov 2025 17:45:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.538849
- Title: Question the Questions: Auditing Representation in Online Deliberative Processes
- Title(参考訳): 質問:オンライン熟考プロセスにおける表現の監査
- Authors: Soham De, Lodewijk Gelauff, Ashish Goel, Smitha Milli, Ariel Procaccia, Alice Siu,
- Abstract要約: 質問のスレートによって提供される表現のレベルを測定するための監査フレームワークを導入する。
本手法を歴史的考察に適用し、a)専門家パネルに提示される実際の質問(調停者による調停)、(b)整数線形プログラミングで選択された参加者の質問、(c)大規模言語モデル(LLM)で生成された要約質問の表現性を比較した。
- 参考スコア(独自算出の注目度): 4.511673753059079
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: A central feature of many deliberative processes, such as citizens' assemblies and deliberative polls, is the opportunity for participants to engage directly with experts. While participants are typically invited to propose questions for expert panels, only a limited number can be selected due to time constraints. This raises the challenge of how to choose a small set of questions that best represent the interests of all participants. We introduce an auditing framework for measuring the level of representation provided by a slate of questions, based on the social choice concept known as justified representation (JR). We present the first algorithms for auditing JR in the general utility setting, with our most efficient algorithm achieving a runtime of $O(mn\log n)$, where $n$ is the number of participants and $m$ is the number of proposed questions. We apply our auditing methods to historical deliberations, comparing the representativeness of (a) the actual questions posed to the expert panel (chosen by a moderator), (b) participants' questions chosen via integer linear programming, (c) summary questions generated by large language models (LLMs). Our results highlight both the promise and current limitations of LLMs in supporting deliberative processes. By integrating our methods into an online deliberation platform that has been used for over hundreds of deliberations across more than 50 countries, we make it easy for practitioners to audit and improve representation in future deliberations.
- Abstract(参考訳): 市民の集会や熟考投票のような多くの熟考過程の中心的な特徴は、参加者が専門家と直接関わり合う機会である。
参加者は通常、専門家パネルの質問をするために招待されるが、時間的制約のため、限られた数しか選択できない。
このことは、参加者全員の利益を最もよく表す、小さな質問をどうやって選ぶかという課題を提起する。
本稿では,「正当化表現(JR)」と呼ばれる社会的選択概念に基づいて,質問のスレートによって提供される表現レベルを測定するための監査フレームワークを提案する。
我々は,JRを一般用途で監査するための最初のアルゴリズムを提示する。最も効率的なアルゴリズムは$O(mn\log n)$で,$n$は参加者数,$m$は提案された質問数である。
歴史的検討に監査手法を適用し,その代表性を比較検討する。
(a)専門家パネルに対する実際の質問(調停者による調味)
(b)整数線形計画法で選択した参加者の質問
(c)大言語モデル(LLM)が生成する要約質問。
本研究は,LLMの柔軟性と限界を両立させ,検討プロセスを支援することを目的とした。
50か国以上で何百もの審議に使用されているオンラインの審議プラットフォームに私たちの手法を統合することで、実践者が将来の審議での表現を監査し改善することが容易になる。
関連論文リスト
- Can AI Truly Represent Your Voice in Deliberations? A Comprehensive Study of Large-Scale Opinion Aggregation with LLMs [14.173399999698177]
DeliberationBankは大規模な人為的なデータセットで、3,000人の参加者が作成した10のDeliberationの質問に意見データがある。
私たちはDeliberationJudgeをトレーニングします。
我々のフレームワークは、議論の要約を評価するスケーラブルで信頼性の高い方法を提供する。
論文 参考訳(メタデータ) (2025-10-02T17:36:23Z) - Learning to Refine: Self-Refinement of Parallel Reasoning in LLMs [102.48588475875749]
本稿では,新しい並列テスト時間スケーリングフレームワークであるGenerative Self-Refinement (GSR)を紹介する。
GSRは一連の候補応答を並列に生成し、その後自己精製を行い、新しい優れた解を合成する。
提案手法は,5つの数学ベンチマークにおいて,最先端性能を実現する。
論文 参考訳(メタデータ) (2025-08-27T06:51:48Z) - Generative Social Choice: The Next Generation [31.97126215677833]
特定の民主的プロセスにおける重要なタスクは、ユーザの意見の完全な範囲を比例的に表す、簡潔な文のスレートを作成することである。
この課題は委員会選挙と似ているが、伝統的な設定とは異なり、候補者集合は様々な長さの全ての可能なステートメントで構成されている。
論文 参考訳(メタデータ) (2025-05-28T23:40:24Z) - LeCoDe: A Benchmark Dataset for Interactive Legal Consultation Dialogue Evaluation [68.26911563519162]
法的協議は、個人の権利を保護し、司法へのアクセスを確保するために不可欠である。
現在のシステムは、現実世界のコンサルティングの対話的かつ知識集約的な性質を扱うのに不足している。
LeCoDeは3,696件の法的相談対話と110,008件の対話を含む実世界のマルチターンベンチマークデータセットである。
論文 参考訳(メタデータ) (2025-05-26T08:24:32Z) - Right Answer, Wrong Score: Uncovering the Inconsistencies of LLM Evaluation in Multiple-Choice Question Answering [78.89231943329885]
大規模言語モデル(LLM)の評価には,MCQA(Multiple-Choice Question Answering)が広く用いられている。
報告されたLCMの性能には,複数の要因が大きな影響を及ぼす可能性が示唆された。
既存の回答抽出手法が人間の判断と一致しているかどうかを解析する。
論文 参考訳(メタデータ) (2025-03-19T08:45:03Z) - Analysis of the Cambridge Multiple-Choice Questions Reading Dataset with
a Focus on Candidate Response Distribution [38.58190457533888]
候補分布マッチングのタスクを導入し、タスクの評価指標をいくつか提案し、RACE++でトレーニングされた自動システムをタスクのベースラインとして活用できることを実証する。
さらに,これらの自動システムは,過度な障害検出などの実運用前評価タスクに利用できることを示す。
論文 参考訳(メタデータ) (2023-06-22T17:13:08Z) - What should I Ask: A Knowledge-driven Approach for Follow-up Questions
Generation in Conversational Surveys [63.51903260461746]
対話型調査における知識駆動型フォローアップ質問生成のための新しい課題を提案する。
そこで我々は,対話履歴とラベル付き知識を用いた人手によるフォローアップ質問の新しいデータセットを構築した。
次に,その課題に対する2段階の知識駆動モデルを提案する。
論文 参考訳(メタデータ) (2022-05-23T00:57:33Z) - A Clarifying Question Selection System from NTES_ALONG in Convai3
Challenge [8.656503175492375]
本稿では,検索指向会話型AI (SCAI) EMNLPワークショップにおけるClariQチャレンジへのNetEase Game AI Labチームの参加について述べる。
この課題は、解明された質問を理解し、生成できる完全な会話情報検索システムを求めるものである。
本稿では,回答理解,質問のリコール,質問ランキングの明確化からなる質問選択システムを提案する。
論文 参考訳(メタデータ) (2020-10-27T11:22:53Z) - ConvAI3: Generating Clarifying Questions for Open-Domain Dialogue
Systems (ClariQ) [64.60303062063663]
本論文では,対話システムに対する質問の明確化に関する課題について詳述する(ClariQ)。
このチャレンジは、2020年のSearch Oriented Conversational AI (SCAI) EMNLPワークショップで、ConvAI3(Conversational AI Challenge series)の一部として組織されている。
論文 参考訳(メタデータ) (2020-09-23T19:48:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。