論文の概要: Whom to Query for What: Adaptive Group Elicitation via Multi-Turn LLM Interactions
- arxiv url: http://arxiv.org/abs/2602.14279v1
- Date: Sun, 15 Feb 2026 19:05:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 16:22:49.93193
- Title: Whom to Query for What: Adaptive Group Elicitation via Multi-Turn LLM Interactions
- Title(参考訳): Whom to Query for What: Adaptive Group Elicitation via Multi-Turn LLM Interactions
- Authors: Ruomeng Ding, Tianwei Gao, Thomas P. Zollo, Eitan Bachmat, Richard Zemel, Zhun Deng,
- Abstract要約: エージェントが明示的なクエリと参加予算の下で、質問と回答者の両方を適応的に選択するマルチラウンド・セッティングであるアダプティブ・グループ・エリケーション(Adaptive group elicitation)について検討する。
提案手法は, (i) LLMに基づく予測情報取得目標と (ii) 不均一なグラフニューラルネットワークの伝搬を組み合わせ, 観測された応答と属性を集約し, 欠落した応答をインプットし, 丸ごとの応答選択をガイドする。
実世界の3つの世論データセット全体で、我々の手法は、制約された予算下での人口レベルの反応予測を継続的に改善します。
- 参考スコア(独自算出の注目度): 13.900123583700472
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Eliciting information to reduce uncertainty about latent group-level properties from surveys and other collective assessments requires allocating limited questioning effort under real costs and missing data. Although large language models enable adaptive, multi-turn interactions in natural language, most existing elicitation methods optimize what to ask with a fixed respondent pool, and do not adapt respondent selection or leverage population structure when responses are partial or incomplete. To address this gap, we study adaptive group elicitation, a multi-round setting where an agent adaptively selects both questions and respondents under explicit query and participation budgets. We propose a theoretically grounded framework that combines (i) an LLM-based expected information gain objective for scoring candidate questions with (ii) heterogeneous graph neural network propagation that aggregates observed responses and participant attributes to impute missing responses and guide per-round respondent selection. This closed-loop procedure queries a small, informative subset of individuals while inferring population-level responses via structured similarity. Across three real-world opinion datasets, our method consistently improves population-level response prediction under constrained budgets, including a >12% relative gain on CES at a 10% respondent budget.
- Abstract(参考訳): 調査やその他の集団評価から、潜伏するグループレベルのプロパティに関する不確実性を軽減するために、情報は、実際のコストと欠落したデータの下で限定的な質問の労力を割く必要がある。
大規模言語モデルは、自然言語の適応的多ターン相互作用を可能にするが、既存の推論手法は、固定された応答プールで何を尋ねるかを最適化し、応答が部分的である場合や不完全である場合、応答の選択に適応したり、集団構造を利用することはない。
このギャップに対処するために、エージェントが明示的なクエリと参加予算の下で、質問と回答者の両方を適応的に選択するマルチラウンド・セッティングであるアダプティブ・グループ・エリケーション(Adaptive group elicitation)について検討する。
理論的に基礎を成す枠組みを提案する。
一 候補質問の採点のための LLM に基づく期待情報獲得目標
二 観察された応答と参加者属性を集約した異種グラフニューラルネットワークの伝搬により、欠落した応答をインプットし、丸ごとの応答選択を誘導する。
このクローズドループプロシージャは、構造化された類似性を通して集団レベルの応答を推測しながら、個人の小さな情報サブセットをクエリする。
実世界の3つの世論データセット全体で、我々の手法は、制約された予算下での人口レベルの反応予測を継続的に改善します。
関連論文リスト
- Pathways of Thoughts: Multi-Directional Thinking for Long-form Personalized Question Answering [57.12316804290369]
ユーザ固有の情報ニーズに質問応答システムを適用するためには,パーソナライゼーションが不可欠である。
本稿では,タスク固有の微調整を必要とせず,任意の大規模言語モデル (LLM) に適用可能な推論段階の方法として,思考の経路 (PoT) を提案する。
PoTは競争ベースラインを一貫して上回り、13.1%の相対的な改善を達成している。
論文 参考訳(メタデータ) (2025-09-23T14:44:46Z) - Prompts to Proxies: Emulating Human Preferences via a Compact LLM Ensemble [46.82793004650415]
大規模言語モデル(LLM)は、様々なタスクにまたがる人間のような応答をエミュレートする可能性を実証している。
本研究では,LLMをエージェントプロキシとして扱う新しいアライメントフレームワークを提案する。
我々は、構造化されたプロンプトエンジニアリング、エントロピーに基づくサンプリング、回帰に基づく選択を用いて、LLMエージェントを代表的行動パターンに向けて操るシステムであるP2Pを紹介する。
論文 参考訳(メタデータ) (2025-09-14T15:08:45Z) - Automated scoring of the Ambiguous Intentions Hostility Questionnaire using fine-tuned large language models [0.0]
Ambiguous Intentions Hostility Questionnaire (AIHQ) は、一般的に敵対的帰属バイアスを測定するために使用される。
大規模言語モデルがAIHQのオープンエンドレスポンスのスコアリングを自動化することができるかどうかを評価した。
その結果, モデルによる評価は, 敵意と攻撃的反応の双方に対する人間の評価と一致していた。
論文 参考訳(メタデータ) (2025-08-05T21:58:11Z) - Teaching Language Models To Gather Information Proactively [53.85419549904644]
大規模言語モデル(LLM)は、ますます協力的なパートナーとして機能することが期待されている。
本研究では,アクティブな情報収集という新たなタスクパラダイムを導入する。
キー情報をマスキングする、部分的に特定された現実世界のタスクを生成するスケーラブルなフレームワークを設計する。
このセットアップの中核となるイノベーションは、真に新しい暗黙のユーザー情報を引き出す質問に報酬を与える、強化された微調整戦略です。
論文 参考訳(メタデータ) (2025-07-28T23:50:09Z) - Leveraging Interview-Informed LLMs to Model Survey Responses: Comparative Insights from AI-Generated and Human Data [4.774576759157642]
混合手法の研究は量的および質的なデータを統合するが、それらの異なる構造を整合させる際の課題に直面している。
本研究では,大規模言語モデル(LLM)が人間の調査応答を確実に予測できるかどうかを検討する。
論文 参考訳(メタデータ) (2025-05-28T05:57:26Z) - Reward-Augmented Data Enhances Direct Preference Alignment of LLMs [63.32585910975191]
報奨条件付き大言語モデル(LLM)を導入し、データセット内の応答品質のスペクトル全体から学習する。
当社のアプローチは,DPOをかなりのマージンで継続的に向上させることを示す。
本手法は,嗜好データの有用性を最大化するだけでなく,未学習の問題も軽減し,データ拡張を超えてその広範な効果を実証する。
論文 参考訳(メタデータ) (2024-10-10T16:01:51Z) - A Revised Generative Evaluation of Visual Dialogue [80.17353102854405]
本稿では,VisDialデータセットの改訂評価手法を提案する。
モデルが生成した回答と関連する回答の集合のコンセンサスを測定する。
DenseVisDialとして改訂された評価スキームのこれらのセットとコードをリリースする。
論文 参考訳(メタデータ) (2020-04-20T13:26:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。