論文の概要: SemEval-2026 Task 6: CLARITY -- Unmasking Political Question Evasions
- arxiv url: http://arxiv.org/abs/2603.14027v1
- Date: Sat, 14 Mar 2026 17:02:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.557242
- Title: SemEval-2026 Task 6: CLARITY -- Unmasking Political Question Evasions
- Title(参考訳): SemEval-2026 Task 6: CLARITY -- 政治的質問を解き放つ
- Authors: Konstantinos Thomas, Giorgos Filandrianos, Maria Lymperaiou, Chrysoula Zerva, Giorgos Stamou,
- Abstract要約: 政治的話者は、応答性の外観を維持しながら、直接質問に答えることを避けることが多い。
本稿では,政治問題回避の共通課題であるSemEval-2026 Task 6, CLARITYを紹介する。
このベンチマークは、米国の大統領インタビューから作成され、専門家による反応の明確さと回避の分類に追随している。
- 参考スコア(独自算出の注目度): 17.397909377851366
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Political speakers often avoid answering questions directly while maintaining the appearance of responsiveness. Despite its importance for public discourse, such strategic evasion remains underexplored in Natural Language Processing. We introduce SemEval-2026 Task 6, CLARITY, a shared task on political question evasion consisting of two subtasks: (i) clarity-level classification into Clear Reply, Ambivalent, and Clear Non-Reply, and (ii) evasion-level classification into nine fine-grained evasion strategies. The benchmark is constructed from U.S. presidential interviews and follows an expert-grounded taxonomy of response clarity and evasion. The task attracted 124 registered teams, who submitted 946 valid runs for clarity-level classification and 539 for evasion-level classification. Results show a substantial gap in difficulty between the two subtasks: the best system achieved 0.89 macro-F1 on clarity classification, surpassing the strongest baseline by a large margin, while the top evasion-level system reached 0.68 macro-F1, matching the best baseline. Overall, large language model prompting and hierarchical exploitation of the taxonomy emerged as the most effective strategies, with top systems consistently outperforming those that treated the two subtasks independently. CLARITY establishes political response evasion as a challenging benchmark for computational discourse analysis and highlights the difficulty of modeling strategic ambiguity in political language.
- Abstract(参考訳): 政治的話者は、応答性の外観を維持しながら、直接質問に答えることを避けることが多い。
公共の言論において重要であるにもかかわらず、そのような戦略的回避は自然言語処理において未発見のままである。
SemEval-2026 Task 6, CLARITYは2つのサブタスクからなる政治問題回避の共有タスクである。
一 クリアリプライ、アンビバウンド及びクリアノンリプライの明確度分類及び
(II)回避レベルを9つのきめ細かい回避戦略に分類する。
このベンチマークは、米国の大統領インタビューから作成され、専門家による反応の明確さと回避の分類に追随している。
このタスクには124の登録チームが参加し、明確なレベル分類で946の有効なランと、回避レベル分類で539のランを提出した。
その結果, 2つのサブタスク間では, 最良システムは明瞭度分類において0.89マクロF1を達成し, 最強のベースラインを大きなマージンで上回り, 最上位の回避レベルシステムは0.68マクロF1に達し, 最良ベースラインと一致した。
全体として、大きな言語モデルにより、分類学の階層的利用が最も効果的な戦略として現れ、上位システムは2つのサブタスクを独立して扱うものよりも一貫して優れていた。
CLARITYは、計算談話分析の難しいベンチマークとして政治的対応回避を確立し、政治的言語における戦略的曖昧さをモデル化することの難しさを強調している。
関連論文リスト
- ITLC at SemEval-2026 Task 11: Normalization and Deterministic Parsing for Formal Reasoning in LLMs [9.363838558599863]
大規模言語モデルは推論タスク、特に多言語文脈における内容効果に悩まされる。
本稿では,これらのバイアスを明示的な構造的抽象化によって低減する新しい手法を提案する。
提案手法は,全サブタスクにまたがるトップ5のランキングを達成し,コンテンツ効果を大幅に低減する。
論文 参考訳(メタデータ) (2026-03-03T07:02:45Z) - Latent Topic Synthesis: Leveraging LLMs for Electoral Ad Analysis [51.95395936342771]
ラベルなしコーパスから解釈可能なトピック分類を自動生成するエンドツーエンドフレームワークを提案する。
われわれはこの枠組みを、2024年アメリカ合衆国大統領選挙の1ヶ月前のMeta政治広告の大規模なコーパスに適用する。
提案手法は,潜在談話構造を明らかにし,意味的に豊かなトピックラベルを合成し,モラル・フレーミングの次元でトピックを注釈する。
論文 参考訳(メタデータ) (2025-10-16T20:30:20Z) - Teaching Language Models To Gather Information Proactively [53.85419549904644]
大規模言語モデル(LLM)は、ますます協力的なパートナーとして機能することが期待されている。
本研究では,アクティブな情報収集という新たなタスクパラダイムを導入する。
キー情報をマスキングする、部分的に特定された現実世界のタスクを生成するスケーラブルなフレームワークを設計する。
このセットアップの中核となるイノベーションは、真に新しい暗黙のユーザー情報を引き出す質問に報酬を与える、強化された微調整戦略です。
論文 参考訳(メタデータ) (2025-07-28T23:50:09Z) - "I Never Said That": A dataset, taxonomy and baselines on response clarity classification [4.16330182801919]
本稿では,応答の明瞭さを検出し分類するタスクを編み出した新しい分類法を提案する。
提案する2段階分類法は,質問に対する回答の明瞭度を,質問に対する情報提供の観点から明らかにする。
ChatGPTと人間のアノテーションを組み合わせて、政治インタビューから個別のQAペアを収集、検証、注釈付けします。
論文 参考訳(メタデータ) (2024-09-20T20:15:06Z) - A Provably Efficient Option-Based Algorithm for both High-Level and Low-Level Learning [54.20447310988282]
異なる(高低と高低の)時間的抽象化において,後悔最小化アルゴリズムのメタアルゴリズムを交互に提案する。
高いレベルでは、半マルコフ決定プロセス(SMDP)として、固定された低レベルポリシーで、低いレベルでは内部オプションポリシーを固定された高レベルポリシーで学習する。
論文 参考訳(メタデータ) (2024-06-21T13:17:33Z) - Semantically Aligned Task Decomposition in Multi-Agent Reinforcement
Learning [56.26889258704261]
我々は,MARL(SAMA)における意味的アライズされたタスク分解という,新しい「不整合」意思決定手法を提案する。
SAMAは、潜在的な目標を示唆し、適切な目標分解とサブゴールアロケーションを提供するとともに、自己回帰に基づくリプランニングを提供する、チェーン・オブ・シントによる事前訓練された言語モデルを促進する。
SAMAは, 最先端のASG法と比較して, 試料効率に有意な優位性を示す。
論文 参考訳(メタデータ) (2023-05-18T10:37:54Z) - BEIKE NLP at SemEval-2022 Task 4: Prompt-Based Paragraph Classification
for Patronizing and Condescending Language Detection [13.944149742291788]
PCL検出タスクは、メディアの脆弱なコミュニティを保護し、あるいは支持している言語を特定することを目的としている。
本稿では,段落分類における素早い学習の力を活用した解法について紹介する。
論文 参考訳(メタデータ) (2022-08-02T08:38:47Z) - PALI-NLP at SemEval-2022 Task 4: Discriminative Fine-tuning of Deep
Transformers for Patronizing and Condescending Language Detection [4.883341580669763]
そこで我々は,PCL検出のための新しいトランスフォーマーモデルとそのアンサンブルを提案する。
PCLの微妙で主観的な性質の理解を容易にするために,2つの微調整戦略を適用した。
このシステムは公式ランキングにおいて顕著な結果、すなわちSubtask 1で1位、Subtask 2で5位となる。
論文 参考訳(メタデータ) (2022-03-09T10:05:10Z) - Learning Invariable Semantical Representation from Language for
Extensible Policy Generalization [4.457682773596843]
本稿では,要素ランダム化と呼ばれる意味的不変表現を学習する手法を提案する。
理論的には、ランダム化による意味論的不変表現の学習の実現可能性を証明する。
長期的課題に挑戦する実験は、我々の低レベル政策が環境変化に対するタスクに確実に一般化することを示しています。
論文 参考訳(メタデータ) (2022-01-26T08:04:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。