論文の概要: Analysing Personal Attacks in U.S. Presidential Debates
- arxiv url: http://arxiv.org/abs/2511.11108v1
- Date: Fri, 14 Nov 2025 09:36:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.521034
- Title: Analysing Personal Attacks in U.S. Presidential Debates
- Title(参考訳): 米国大統領討論会における個人的攻撃の分析
- Authors: Ruban Goyal, Rohitash Chandra, Sonit Singh,
- Abstract要約: 個人による攻撃は、アメリカ合衆国大統領討論会で顕著な特徴となっている。
我々は、米国大統領選挙における個人的攻撃を分析するための枠組みを提示する。
- 参考スコア(独自算出の注目度): 3.503370263836711
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Personal attacks have become a notable feature of U.S. presidential debates and play an important role in shaping public perception during elections. Detecting such attacks can improve transparency in political discourse and provide insights for journalists, analysts and the public. Advances in deep learning and transformer-based models, particularly BERT and large language models (LLMs) have created new opportunities for automated detection of harmful language. Motivated by these developments, we present a framework for analysing personal attacks in U.S. presidential debates. Our work involves manual annotation of debate transcripts across the 2016, 2020 and 2024 election cycles, followed by statistical and language-model based analysis. We investigate the potential of fine-tuned transformer models alongside general-purpose LLMs to detect personal attacks in formal political speech. This study demonstrates how task-specific adaptation of modern language models can contribute to a deeper understanding of political communication.
- Abstract(参考訳): 個人による攻撃は、アメリカ合衆国大統領選挙の議論で顕著な特徴となり、選挙の間に大衆の認識を形成する上で重要な役割を担っている。
このような攻撃を検出することで、政治的言論の透明性が向上し、ジャーナリスト、アナリスト、一般大衆に洞察を与えることができる。
ディープラーニングとトランスフォーマーベースのモデル、特にBERTと大規模言語モデル(LLM)の進歩は、有害な言語を自動的に検出する新たな機会を生み出している。
これらの発展に動機づけられた我々は、米国大統領討論会における個人的攻撃を分析するための枠組みを提示する。
本研究は,2016年と2020年と2024年の選挙サイクルにおける議論の書き起こしを手作業で注釈し,その後に統計的および言語モデルに基づく分析を行った。
フォーマルな政治的言論における個人攻撃を検出するための汎用LLMとともに、微調整トランスフォーマーモデルの可能性について検討する。
本研究では,現代言語モデルのタスク固有の適応が,政治コミュニケーションのより深い理解にどのように貢献するかを示す。
関連論文リスト
- Latent Topic Synthesis: Leveraging LLMs for Electoral Ad Analysis [51.95395936342771]
ラベルなしコーパスから解釈可能なトピック分類を自動生成するエンドツーエンドフレームワークを提案する。
われわれはこの枠組みを、2024年アメリカ合衆国大統領選挙の1ヶ月前のMeta政治広告の大規模なコーパスに適用する。
提案手法は,潜在談話構造を明らかにし,意味的に豊かなトピックラベルを合成し,モラル・フレーミングの次元でトピックを注釈する。
論文 参考訳(メタデータ) (2025-10-16T20:30:20Z) - Large-Scale, Longitudinal Study of Large Language Models During the 2024 US Election Season [43.092041950140164]
2024年アメリカ合衆国大統領選挙は、大きな言語モデル(LLM)が普及して以来、アメリカ合衆国で最初の主要大会である。
この瞬間は、LLMが情報エコシステムをどう形成し、政治談話に影響を与えるかという緊急の疑問を提起する。
我々は,2024年7月から11月にかけて,ほぼ毎日のケイデンスに関する12,000以上の質問を構造化された調査を用いて,12種類のモデルについて大規模な縦断調査を行った。
論文 参考訳(メタデータ) (2025-09-22T22:04:19Z) - RooseBERT: A New Deal For Political Language Modelling [10.42456252514389]
RooseBERTは、政治談話のための事前訓練された言語モデルである。
大規模な政治討論や演説のコーパスで訓練されている。
政治討論の分析に関連する4つの下流課題について微調整を行った。
論文 参考訳(メタデータ) (2025-08-05T09:28:20Z) - Identifying Fine-grained Forms of Populism in Political Discourse: A Case Study on Donald Trump's Presidential Campaigns [17.242754326635833]
本稿では,大言語モデルがポピュリズムの微細な形態を識別し,分類できるかどうかを検討する。
オープンウェイトとプロプライエタリの両方で、複数のプロンプトパラダイムで事前訓練された(大規模な)言語モデルを評価する。
微調整のRoBERTa分類器は、微調整のない限り、新しい命令のLLMをはるかに上回っていることがわかった。
論文 参考訳(メタデータ) (2025-07-25T14:18:54Z) - ElectionSim: Massive Population Election Simulation Powered by Large Language Model Driven Agents [70.17229548653852]
我々は,大規模言語モデルに基づく革新的な選挙シミュレーションフレームワークであるElectronSimを紹介する。
ソーシャルメディアプラットフォームからサンプリングした100万レベルの投票者プールを提示し、正確な個人シミュレーションを支援する。
PPEは、米国大統領選挙シナリオ下での我々の枠組みの性能を評価するための、世論調査に基づく大統領選挙ベンチマークである。
論文 参考訳(メタデータ) (2024-10-28T05:25:50Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Towards More Accurate US Presidential Election via Multi-step Reasoning with Large Language Models [12.582222782098587]
選挙予測は、限られた有権者レベルのデータ、急速に変化する政治情勢、複雑な人間の振る舞いをモデル化する必要性など、ユニークな課題を生んでいる。
政治分析のための多段階推論フレームワークを提案する。
われわれのアプローチは、2016年と2020年のアメリカ大統領選挙研究(ANES)の実際のデータに基づいて検証されている。
論文 参考訳(メタデータ) (2024-10-21T06:18:53Z) - LLM-POTUS Score: A Framework of Analyzing Presidential Debates with Large Language Models [33.251235538905895]
本稿では,大規模言語モデルを用いた大統領討論のパフォーマンス評価手法を提案する。
本研究では, 候補者の「政策, ペルソナ, パーソナ, パースペクティブ」(3P)と, 4つの主要オーディエンスグループの「関心, イデオロギー, アイデンティティ」とどのように共鳴するかを分析する枠組みを提案する。
提案手法では,LLM-POTUSスコアを生成するために,大規模な言語モデルを用いる。
論文 参考訳(メタデータ) (2024-09-12T15:40:45Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - A Spanish dataset for Targeted Sentiment Analysis of political headlines [0.0]
この研究は、2019年のアルゼンチン大統領選挙で主要メディアから公開されたニュースニュースの見出しのドメインに対するターゲティング・センティメント・アナリティクス(Targeted Sentiment Analysis)の課題に対処する。
我々は、2019年の選挙の候補者を対象レベルで言及した1,976人の見出しの極性データセットを提示する。
事前訓練された言語モデルに基づく最先端分類アルゴリズムによる予備実験により,この課題に対象情報が有用であることが示唆された。
論文 参考訳(メタデータ) (2022-08-30T01:30:30Z) - Mundus vult decipi, ergo decipiatur: Visual Communication of Uncertainty
in Election Polls [56.8172499765118]
我々は、今放送と予測におけるバイアスの潜在的な源について論じる。
概念は、誤認識された正確性の問題を軽減するために提示される。
主要なアイデアの1つは、パーティーシェアではなくイベントの確率を使うことである。
論文 参考訳(メタデータ) (2021-04-28T07:02:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。