論文の概要: Identifying attributions of causality in political text
- arxiv url: http://arxiv.org/abs/2512.03214v1
- Date: Tue, 02 Dec 2025 20:37:07 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-04 12:14:44.819231
- Title: Identifying attributions of causality in political text
- Title(参考訳): 政治文献における因果関係の属性の同定
- Authors: Paulina Garcia-Corral,
- Abstract要約: 説明は人々が政治世界を理解するための基本的な要素である。
政治文での説明を検知・解析するための枠組みを導入する。
因果的説明がいかに大規模に研究できるかを実証する。
- 参考スコア(独自算出の注目度): 0.5076419064097734
- License:
- Abstract: Explanations are a fundamental element of how people make sense of the political world. Citizens routinely ask and answer questions about why events happen, who is responsible, and what could or should be done differently. Yet despite their importance, explanations remain an underdeveloped object of systematic analysis in political science, and existing approaches are fragmented and often issue-specific. I introduce a framework for detecting and parsing explanations in political text. To do this, I train a lightweight causal language model that returns a structured data set of causal claims in the form of cause-effect pairs for downstream analysis. I demonstrate how causal explanations can be studied at scale, and show the method's modest annotation requirements, generalizability, and accuracy relative to human coding.
- Abstract(参考訳): 説明は人々が政治世界を理解するための基本的な要素である。
市民は日常的に、なぜイベントが起こるのか、誰が責任を持つのか、異なる方法でできることは何か、という疑問に答える。
しかし、その重要性にもかかわらず、説明は政治科学における体系的分析の未発達の目的であり、既存のアプローチは断片化され、しばしば問題固有のものである。
政治文での説明を検知・解析するための枠組みを導入する。
これを実現するために、下流分析のための因果関係対の形で因果関係の構造化されたデータセットを返却する軽量因果関係言語モデルを訓練する。
因果的説明がいかに大規模に研究できるかを実証し、人間のコーディングに対する手法の質素なアノテーション要求、一般化可能性、精度を示す。
関連論文リスト
- An Explainable Framework for Misinformation Identification via Critical Question Answering [2.4861619769660637]
本稿では,疑似情報検出のための新たなフレームワークを提案する。
NLAS-CQは3,566の教科書のような自然言語の議論スキームインスタンスと4,687の対応回答を組み合わせた最初のコーパスである。
論文 参考訳(メタデータ) (2025-03-18T18:24:23Z) - Failure Modes of LLMs for Causal Reasoning on Narratives [51.19592551510628]
世界の知識と論理的推論の相互作用について検討する。
最先端の大規模言語モデル(LLM)は、しばしば表面的な一般化に依存している。
タスクの単純な再構成により、より堅牢な推論行動が引き起こされることを示す。
論文 参考訳(メタデータ) (2024-10-31T12:48:58Z) - Embracing Background Knowledge in the Analysis of Actual Causality: An
Answer Set Programming Approach [6.685412769221564]
本稿では,因果知識の形式化を目的とした豊富な知識表現言語を提案する。
原因の定義が提示され、それらの例を表すアクションのシーケンスに関する変更の実際の原因を分析するために使用される。
論文 参考訳(メタデータ) (2023-06-06T17:21:21Z) - Explanation Selection Using Unlabeled Data for Chain-of-Thought
Prompting [80.9896041501715]
非専門家によって書かれたオフ・ザ・シェルフの説明のように、タスクのために"チューニング"されていない説明は、中途半端なパフォーマンスをもたらす可能性がある。
本稿では,ブラックボックス方式で説明拡散プロンプトを最適化する方法の課題に対処する。
論文 参考訳(メタデータ) (2023-02-09T18:02:34Z) - e-CARE: a New Dataset for Exploring Explainable Causal Reasoning [28.412572027774573]
そこで本研究では,21K以上の因果推論質問を用いた人間記述型Causal Reasoningデータセット(e-CARE)を提案する。
因果的事実の妥当な説明を生成することは、最先端のモデルでは依然として特に困難であることを示す。
論文 参考訳(メタデータ) (2022-05-12T02:41:48Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - Everything Has a Cause: Leveraging Causal Inference in Legal Text
Analysis [62.44432226563088]
因果推論は変数間の因果関係を捉えるプロセスである。
本論文では,事実記述から因果グラフを構築するための新たなグラフベース因果推論フレームワークを提案する。
GCIに含まれる因果知識を強力なニューラルネットワークに効果的に注入することで、パフォーマンスと解釈性が向上します。
論文 参考訳(メタデータ) (2021-04-19T16:13:10Z) - Dependency Decomposition and a Reject Option for Explainable Models [4.94950858749529]
近年のディープラーニングモデルは様々な推論タスクにおいて非常によく機能する。
最近の進歩は特徴を視覚化し、入力の属性を記述する方法を提供します。
本稿では, 目的の画像分類出力に対する確率分布に関する依存性を初めて解析する。
論文 参考訳(メタデータ) (2020-12-11T17:39:33Z) - Aligning Faithful Interpretations with their Social Attribution [58.13152510843004]
モデル解釈が忠実であることの要件はあいまいで不完全であることに気付く。
因果的帰属(因果的帰属)と解釈(社会的帰属)に対する人間の行動の帰属(因果的帰属)の相違が問題であると認識する。
論文 参考訳(メタデータ) (2020-06-01T16:45:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。