論文の概要: PERSPECTRA: A Scalable and Configurable Pluralist Benchmark of Perspectives from Arguments
- arxiv url: http://arxiv.org/abs/2602.08716v1
- Date: Mon, 09 Feb 2026 14:25:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:25.289139
- Title: PERSPECTRA: A Scalable and Configurable Pluralist Benchmark of Perspectives from Arguments
- Title(参考訳): PERSPECTRA: A Scalable and Configurable Pluralist Benchmark of Perspectives from Arguments
- Authors: Shangrui Nie, Kian Omoomi, Lucie Flek, Zhixue Zhao, Charles Welch,
- Abstract要約: PERSPECTRAは、モデルが複数の視点をいかにうまく表現し、区別し、推論するかを評価するための複数のベンチマークである。
議論の的になっているトピック100件について、762件のプロ/コンスタンスにまたがる3,810件のリッチな議論を構築した。
各意見は複数の自然主義的変種に拡張され、多元論の堅牢な評価を可能にする。
- 参考スコア(独自算出の注目度): 16.8677147128948
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pluralism, the capacity to engage with diverse perspectives without collapsing them into a single viewpoint, is critical for developing large language models that faithfully reflect human heterogeneity. Yet this characteristic has not been carefully examined in the LLM research community and remains absent from most alignment studies. Debate-oriented sources provide a natural entry point for pluralism research. Previous work builds on online debate sources but remains constrained by costly human validation. Other debate-rich platforms such as Reddit and Kialo also offer promising material: Reddit provides linguistic diversity and scale but lacks clear argumentative structure, while Kialo supplies explicit pro/con graphs but remains overly concise and detached from natural discourse. We introduce PERSPECTRA, a pluralist benchmark that integrates the structural clarity of Kialo debate graphs with the linguistic diversity of real Reddit discussions. Using a controlled retrieval-and-expansion pipeline, we construct 3,810 enriched arguments spanning 762 pro/con stances on 100 controversial topics. Each opinion is expanded to multiple naturalistic variants, enabling robust evaluation of pluralism. We initialise three tasks with PERSPECTRA: opinion counting (identifying distinct viewpoints), opinion matching (aligning supporting stances and discourse to source opinions), and polarity check (inferring aggregate stance in mixed discourse). Experiments with state-of-the-art open-source and proprietary LLMs, highlight systematic failures, such as overestimating the number of viewpoints and misclassifying concessive structures, underscoring the difficulty of pluralism-aware understanding and reasoning. By combining diversity with structure, PERSPECTRA establishes the first scalable, configurable benchmark for evaluating how well models represent, distinguish, and reason over multiple perspectives.
- Abstract(参考訳): マルチラリズム(Pluralism)は、複数の視点を1つの視点にまとめることなく、多様な視点を扱う能力であり、人間の不均一性を忠実に反映する大きな言語モデルを開発するために重要である。
しかし、この特徴はLLM研究コミュニティでは慎重に検討されておらず、ほとんどのアライメント研究から欠落している。
議論指向の情報源は、多元論研究の自然なエントリポイントを提供する。
これまでの作業はオンラインの議論ソースに基づいていたが、費用がかかる人間による検証には制約がかかっている。
Redditは言語的な多様性とスケールを提供するが、明確な議論的な構造は欠如している。
本稿では,Kialoの議論グラフの構造的明瞭度と実際のRedditの議論の言語的多様性を統合した複数のベンチマークであるPERSPECTRAを紹介する。
制御された検索・拡張パイプラインを用いて,論争を巻き起こすトピック100件について,762件のプロ/コンスタンスにまたがる3,810件のリッチな議論を構築した。
各意見は複数の自然主義的変種に拡張され、多元論の堅牢な評価を可能にする。
PERSPECTRAでは,意見カウント(異なる視点の特定),意見マッチング(意見の支持,元意見の談話),極性チェック(混合談話における総合的姿勢の推測)の3つのタスクを初期化する。
最先端のオープンソースおよびプロプライエタリなLCMによる実験では、視点の数を過大評価したり、必然的構造を誤って分類したり、多元主義的な理解と推論の難しさを強調するといった、体系的な失敗が強調されている。
多様性と構造を組み合わせることで、PERSPECTRAは、複数の観点でモデルがどのようにうまく表現され、区別され、理性を示すかを評価するための、最初のスケーラブルで構成可能なベンチマークを確立します。
関連論文リスト
- Explain Before You Answer: A Survey on Compositional Visual Reasoning [74.27548620675748]
構成的視覚推論は、マルチモーダルAIにおける重要な研究フロンティアとして登場した。
本調査は,トップ会場(CVPR,ICCV,NeurIPS,ICML,ACLなど)から260以上の論文を体系的にレビューする。
次に60以上のベンチマークとそれに対応するメトリクスを、基底精度、連鎖忠実性、高分解能知覚などの次元に沿って探索する。
論文 参考訳(メタデータ) (2025-08-24T11:01:51Z) - Perspectives in Play: A Multi-Perspective Approach for More Inclusive NLP Systems [3.011820285006942]
本研究では,視点認識モデルの開発を促進するために,ソフトラベルを用いた新しい多視点アプローチを提案する。
我々は、ヘイトスピーチ、皮肉、虐待言語、スタンス検出など、多様な主観的テキスト分類タスクの分析を行う。
結果は、Jensen-Shannon Divergence (JSD) が測定したように、マルチパースペクティブアプローチが人間のラベル分布をよりよく近似していることを示している。
本手法は,本文の主観性に起因して,皮肉や姿勢検出などの課題に対する信頼度を低下させる。
論文 参考訳(メタデータ) (2025-06-25T07:53:36Z) - Argus: Vision-Centric Reasoning with Grounded Chain-of-Thought [83.89629325805505]
我々は、新しい視覚的注意基盤機構で制限に対処するためにArgusを導入する。
提案手法では、物体中心の接地を視覚的連鎖信号として採用し、より効果的な目標条件付き視覚的注意を可能にする。
論文 参考訳(メタデータ) (2025-05-29T17:59:56Z) - Debating for Better Reasoning: An Unsupervised Multimodal Approach [56.74157117060815]
議論のパラダイムをマルチモーダルな設定に拡張し、より弱いモデルがより強力なモデルの性能を監督し、強化する可能性を探る。
視覚的質問応答 (VQA) に焦点をあて, 2つの「目に見える」専門家の視覚言語モデルが解答について議論する一方, 「盲目」(テキストのみ)の判断は議論の品質にのみ依存する。
この枠組みでは, 専門家は信念に沿う回答のみを守り, 明示的な役割プレーの必要性を排除し, 専門家の不一致の事例に議論を集中させる。
論文 参考訳(メタデータ) (2025-05-20T17:18:17Z) - Overview of PerpectiveArg2024: The First Shared Task on Perspective Argument Retrieval [56.66761232081188]
本稿では,社会における少数派・多数派を代表する年齢,性別,政治的態度など,人口・社会文化(社会)の多様性を包括する新しいデータセットを提案する。
パースペクティビズムを取り入れる上での重大な課題は、特に社会的なプロファイルを明示的に提供せずに、議論のテキストのみに基づくパーソナライズを目指す場合である。
パーソナライズと分極の低減を図るため, パーソナライズを最適化するためには, パーソナライズされた論証検索をブートストラップするが, さらなる研究が不可欠である。
論文 参考訳(メタデータ) (2024-07-29T03:14:57Z) - Debate-to-Write: A Persona-Driven Multi-Agent Framework for Diverse Argument Generation [25.43678472601801]
議論記述のためのペルソナベースのマルチエージェントフレームワークを提案する。
人間の議論に触発されて、我々はまず各エージェントに、その高いレベルの信念を表すペルソナを、ユニークな視点から割り当てる。
次にエージェントインタラクションプロセスを設計し、エージェントが協調して議論し、議論書の全体計画を形成するアイデアを議論できるようにします。
論文 参考訳(メタデータ) (2024-06-28T04:21:20Z) - "Reasoning" with Rhetoric: On the Style-Evidence Tradeoff in LLM-Generated Counter-Arguments [11.243184875465788]
大規模言語モデル(LLM)はエビデンスベースでスタイリスティックな反論を生成する上で重要な役割を果たしている。
これまでの研究では、明白さとスタイルのバランスを無視することがしばしばあり、これは説得力のある議論に不可欠である。
提案手法の有効性を検証し,38,000の正答率からなる新しいデータセットであるCounterfireにおける正答率を用いた正答率生成の有効性を検討した。
論文 参考訳(メタデータ) (2024-02-13T14:53:12Z) - Argue with Me Tersely: Towards Sentence-Level Counter-Argument
Generation [62.069374456021016]
本稿では,文レベル逆問題生成のためのArgTerselyベンチマークを提案する。
また,Arg-LlaMAによる高品質な逆問題生成手法を提案する。
論文 参考訳(メタデータ) (2023-12-21T06:51:34Z) - How Far Can We Extract Diverse Perspectives from Large Language Models? [16.16678226707335]
大規模言語モデル(LLM)が主観的トピックに対する多様な視点を生成できることを示す。
本稿では,様々な意見の根拠となる基準に基づくプロンプト手法を提案する。
本手法は,タスク主観性の度合いに応じて,LLMが多種多様な意見を生成可能であることを示す。
論文 参考訳(メタデータ) (2023-11-16T11:23:38Z) - Aspect-Controlled Neural Argument Generation [65.91772010586605]
我々は、与えられたトピック、スタンス、アスペクトの文レベル引数を生成するために、きめ細かいレベルで制御できる引数生成のための言語モデルを訓練する。
評価の結果,我々の生成モデルは高品質なアスペクト特異的な議論を生成できることがわかった。
これらの議論は、データ拡張による姿勢検出モデルの性能向上と、逆問題の生成に使用できる。
論文 参考訳(メタデータ) (2020-04-30T20:17:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。