論文の概要: An AI-Powered Framework for Analyzing Collective Idea Evolution in Deliberative Assemblies
- arxiv url: http://arxiv.org/abs/2509.12577v1
- Date: Tue, 16 Sep 2025 02:08:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:52.837234
- Title: An AI-Powered Framework for Analyzing Collective Idea Evolution in Deliberative Assemblies
- Title(参考訳): 議論的集合における集合的アイデア進化をAIで分析するフレームワーク
- Authors: Elinor Poole-Dayan, Deb Roy, Jad Kabbara,
- Abstract要約: 我々は,技術に富んだ個人的討論会からテキストを経験的に分析する手法を開発した。
我々は、議会全体で各代議員の進化する視点を実証的に再構築する。
提案手法は,LLMが高分解能ダイナミックスをどのように表面化できるかを実証する上で,新たな実証的知見を提供する。
- 参考スコア(独自算出の注目度): 21.30511809806526
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In an era of increasing societal fragmentation, political polarization, and erosion of public trust in institutions, representative deliberative assemblies are emerging as a promising democratic forum for developing effective policy outcomes on complex global issues. Despite theoretical attention, there remains limited empirical work that systematically traces how specific ideas evolve, are prioritized, or are discarded during deliberation to form policy recommendations. Addressing these gaps, this work poses two central questions: (1) How might we trace the evolution and distillation of ideas into concrete recommendations within deliberative assemblies? (2) How does the deliberative process shape delegate perspectives and influence voting dynamics over the course of the assembly? To address these questions, we develop LLM-based methodologies for empirically analyzing transcripts from a tech-enhanced in-person deliberative assembly. The framework identifies and visualizes the space of expressed suggestions. We also empirically reconstruct each delegate's evolving perspective throughout the assembly. Our methods contribute novel empirical insights into deliberative processes and demonstrate how LLMs can surface high-resolution dynamics otherwise invisible in traditional assembly outputs.
- Abstract(参考訳): 社会の分断化、政治的分極化、機関における公的な信頼の侵食が増加する中で、代表的討論会は、複雑なグローバル問題に対する効果的な政策成果を開発するための有望な民主的なフォーラムとして現れつつある。
理論的な注意にもかかわらず、特定のアイデアがどのように進化するか、優先順位付けされるか、あるいは政策勧告を形成するために審議中に破棄されるのかを体系的に追跡する実験的な研究は、まだ限られている。
これらのギャップに対処するため、この研究は2つの中心的な疑問を呈する:(1) 思考の進化と蒸留はどのようにして議論的な会合の中で具体的なレコメンデーションに辿り着くか?
2) 議決プロセスは, 議決の視点をどう形成し, 議決の力学に影響を及ぼすか?
これらの問題に対処するために,我々は,技術が強化した対人弁論会議から書き起こしを実証的に分析する LLM ベースの方法論を開発した。
このフレームワークは、表現された提案の空間を特定し、視覚化する。
我々はまた、議会全体で各代議員の進化する視点を実証的に再構築した。
提案手法は,従来の組立出力では見えないような高分解能のダイナミックスをLCMがどのように表面化できるかを実証する。
関連論文リスト
- AgentCDM: Enhancing Multi-Agent Collaborative Decision-Making via ACH-Inspired Structured Reasoning [8.566904810788213]
AgentCDMはマルチエージェントシステムにおける協調的意思決定を強化するための構造化フレームワークである。
認知バイアスを内部化し、意思決定を受動的回答の選択からアクティブな仮説評価と構築へとシフトさせる。
複数のベンチマークデータセットの実験は、AgentCDMが最先端のパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2025-08-16T09:46:04Z) - Alignment and Safety in Large Language Models: Safety Mechanisms, Training Paradigms, and Emerging Challenges [47.14342587731284]
本調査では,大規模言語モデル(LLM)アライメントにおけるアライメント手法,トレーニングプロトコル,経験的発見について概観する。
我々は多種多様なパラダイムをまたいだアライメント手法の開発を分析し、コアアライメント目標間の基本的なトレードオフを特徴づける。
我々は、直接選好最適化(DPO)、構成AI、脳インスパイアされた方法、アライメント不確実性定量化(AUQ)など、最先端技術について議論する。
論文 参考訳(メタデータ) (2025-07-25T20:52:58Z) - A Survey of Frontiers in LLM Reasoning: Inference Scaling, Learning to Reason, and Agentic Systems [93.8285345915925]
推論(Reasoning)は、論理的推論、問題解決、意思決定を可能にする基本的な認知プロセスである。
大規模言語モデル(LLM)の急速な進歩により、推論は高度なAIシステムを区別する重要な能力として浮上した。
我々は,(1)推論が達成される段階を定義するレジーム,(2)推論プロセスに関与するコンポーネントを決定するアーキテクチャの2つの側面に沿って既存の手法を分類する。
論文 参考訳(メタデータ) (2025-04-12T01:27:49Z) - Bridging Voting and Deliberation with Algorithms: Field Insights from vTaiwan and Kultur Komitee [1.2277343096128712]
民主党のプロセスは、対面交渉と大規模投票の統合をますます目指している。
この研究は、オンライン投票を対面検討でブリッジするために、アルゴリズムと計算ツールを使用する新しい手法を導入する。
論文 参考訳(メタデータ) (2025-02-07T15:45:13Z) - Aligning AI with Public Values: Deliberation and Decision-Making for Governing Multimodal LLMs in Political Video Analysis [48.14390493099495]
AIモデルが政治的トピックにどう対処すべきかは議論されているが、依然として困難であり、より優れたガバナンスが必要である。
本稿では、政治的に敏感なビデオを中心に、個人的および集団的な議論を通じて、大規模言語モデルのガバナンスについて検討する。
論文 参考訳(メタデータ) (2024-09-15T03:17:38Z) - The Empty Signifier Problem: Towards Clearer Paradigms for
Operationalising "Alignment" in Large Language Models [18.16062736448993]
本稿では,大規模言語モデル(LLM)における「アライメント」の概念を,ポスト構造主義社会政治理論のレンズを通して論じる。
1) モデル行動のどの次元が重要か,2) 意味と定義がこれらの次元にどのように分類されるか,といったことを議論する枠組みを提案する。
透明性と批判的評価の文化を育成し,LLMと人間集団の整合性の複雑さをコミュニティがナビゲートするのを支援することを目的としている。
論文 参考訳(メタデータ) (2023-10-03T22:02:17Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。