論文の概要: Classifying Human-Generated and AI-Generated Election Claims in Social Media
- arxiv url: http://arxiv.org/abs/2404.16116v2
- Date: Fri, 26 Apr 2024 01:51:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-29 12:06:07.872861
- Title: Classifying Human-Generated and AI-Generated Election Claims in Social Media
- Title(参考訳): ソーシャルメディアにおける人間生成とAI生成の選挙宣言の分類
- Authors: Alphaeus Dmonte, Marcos Zampieri, Kevin Lybarger, Massimiliano Albanese, Genya Coulter,
- Abstract要約: 悪意ある俳優はソーシャルメディアを使って誤報を広め、選挙プロセスへの信頼を損なうことがある。
LLM(Large Language Models)の出現は、悪質なアクターが前例のない規模で誤情報を生成できるようにすることによって、この問題を悪化させる。
選挙に関する主張を特徴付けるための新しい分類法を提案する。
- 参考スコア(独自算出の注目度): 8.990994727335064
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Politics is one of the most prevalent topics discussed on social media platforms, particularly during major election cycles, where users engage in conversations about candidates and electoral processes. Malicious actors may use this opportunity to disseminate misinformation to undermine trust in the electoral process. The emergence of Large Language Models (LLMs) exacerbates this issue by enabling malicious actors to generate misinformation at an unprecedented scale. Artificial intelligence (AI)-generated content is often indistinguishable from authentic user content, raising concerns about the integrity of information on social networks. In this paper, we present a novel taxonomy for characterizing election-related claims. This taxonomy provides an instrument for analyzing election-related claims, with granular categories related to jurisdiction, equipment, processes, and the nature of claims. We introduce ElectAI, a novel benchmark dataset that consists of 9,900 tweets, each labeled as human- or AI-generated. For AI-generated tweets, the specific LLM variant that produced them is specified. We annotated a subset of 1,550 tweets using the proposed taxonomy to capture the characteristics of election-related claims. We explored the capabilities of LLMs in extracting the taxonomy attributes and trained various machine learning models using ElectAI to distinguish between human- and AI-generated posts and identify the specific LLM variant.
- Abstract(参考訳): 政治は、ソーシャルメディアプラットフォーム上で議論される最も一般的なトピックの1つであり、特に主要な選挙サイクルでは、ユーザーが候補者や選挙プロセスについて会話する。
悪意ある俳優はこの機会を利用して誤報を広め、選挙プロセスへの信頼を損なうかもしれない。
LLM(Large Language Models)の出現は、悪質なアクターが前例のない規模で誤情報を生成できるようにすることによって、この問題を悪化させる。
人工知能(AI)が生成するコンテンツは、真正なユーザーコンテンツとは区別できないことが多く、ソーシャルネットワーク上の情報の完全性に関する懸念を提起する。
本稿では,選挙関連主張を特徴付ける新しい分類法を提案する。
この分類法は、司法、機器、プロセス、およびクレームの性質に関する粒度のカテゴリを含む選挙関連のクレームを分析するための手段を提供する。
ElectAIは9,900のツイートからなる新しいベンチマークデータセットで、それぞれが人間またはAI生成とラベル付けされている。
AI生成ツイートでは、生成した特定のLLM変種が指定される。
我々は提案した分類法を用いて1,550のツイートのサブセットに注釈を付け、選挙関連クレームの特徴を捉えた。
分類属性を抽出するLLMの能力について検討し、ElectAIを用いて機械学習モデルを訓練し、人間とAIが生成するポストを識別し、特定のLLM変種を特定する。
関連論文リスト
- ElectionSim: Massive Population Election Simulation Powered by Large Language Model Driven Agents [70.17229548653852]
我々は,大規模言語モデルに基づく革新的な選挙シミュレーションフレームワークであるElectronSimを紹介する。
ソーシャルメディアプラットフォームからサンプリングした100万レベルの投票者プールを提示し、正確な個人シミュレーションを支援する。
PPEは、米国大統領選挙シナリオ下での我々の枠組みの性能を評価するための、世論調査に基づく大統領選挙ベンチマークである。
論文 参考訳(メタデータ) (2024-10-28T05:25:50Z) - Will Trump Win in 2024? Predicting the US Presidential Election via Multi-step Reasoning with Large Language Models [12.939107088730513]
選挙予測は、限られた有権者レベルのデータ、急速に変化する政治情勢、複雑な人間の振る舞いをモデル化する必要性など、ユニークな課題を生んでいる。
政治分析のための多段階推論フレームワークを提案する。
われわれのアプローチは、2016年と2020年のアメリカ大統領選挙研究(ANES)の実際のデータに基づいて検証されている。
我々は,2024年アメリカ合衆国大統領選挙の結果を事前に予測するために,我々の枠組みを適用した。
論文 参考訳(メタデータ) (2024-10-21T06:18:53Z) - Identity-related Speech Suppression in Generative AI Content Moderation [2.812395851874055]
生成AIシステムは、そのようなフィルタを使用して、望ましくない生成されたコンテンツがユーザによって作成または提示されるのを防ぐ。
本稿では,複数のコンテンツモデレーションAPIによって誤ってフィルタリングされた異なるアイデンティティグループに関連する音声に焦点を当て,音声抑圧の尺度を定義し,導入する。
同一性関連音声は, 少数の非マールガル化群を除いて, 他言語よりも不正にフィルタリングされる可能性が示唆された。
論文 参考訳(メタデータ) (2024-09-09T14:34:51Z) - Large language models can consistently generate high-quality content for election disinformation operations [2.98293101034582]
大規模言語モデルでは、説得力のある選挙偽情報を大規模に生成する可能性について懸念が高まっている。
本研究は,選挙偽情報処理の段階を自動化するLLMの能力について,二部構成で検討した。
論文 参考訳(メタデータ) (2024-08-13T08:45:34Z) - Unsupervised Sentiment Analysis of Plastic Surgery Social Media Posts [91.3755431537592]
ソーシャルメディアプラットフォームにまたがる膨大なユーザー投稿は、主に人工知能(AI)のユースケースに使われていない。
自然言語処理(NLP)は、コーパス(corpora)として知られるドキュメントの体系を利用して、人間のような言語理解でコンピュータを訓練するAIのサブフィールドである。
本研究は, 教師なし解析の応用により, コンピュータがプラスティック手術に対する否定的, 肯定的, 中立的なユーザ感情を予測できることを示した。
論文 参考訳(メタデータ) (2023-07-05T20:16:20Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Design and analysis of tweet-based election models for the 2021 Mexican
legislative election [55.41644538483948]
選挙日前の6ヶ月の間に、1500万件の選挙関連ツイートのデータセットを使用します。
地理的属性を持つデータを用いたモデルが従来のポーリング法よりも精度と精度で選挙結果を決定することがわかった。
論文 参考訳(メタデータ) (2023-01-02T12:40:05Z) - A Spanish dataset for Targeted Sentiment Analysis of political headlines [0.0]
この研究は、2019年のアルゼンチン大統領選挙で主要メディアから公開されたニュースニュースの見出しのドメインに対するターゲティング・センティメント・アナリティクス(Targeted Sentiment Analysis)の課題に対処する。
我々は、2019年の選挙の候補者を対象レベルで言及した1,976人の見出しの極性データセットを提示する。
事前訓練された言語モデルに基づく最先端分類アルゴリズムによる予備実験により,この課題に対象情報が有用であることが示唆された。
論文 参考訳(メタデータ) (2022-08-30T01:30:30Z) - An Attribute-Aligned Strategy for Learning Speech Representation [57.891727280493015]
属性選択機構によってこれらの問題に柔軟に対処できる音声表現を導出する属性整合学習戦略を提案する。
具体的には、音声表現を属性依存ノードに分解する層式表現可変オートエンコーダ(LR-VAE)を提案する。
提案手法は,IDのないSER上での競合性能と,無感情SV上でのより良い性能を実現する。
論文 参考訳(メタデータ) (2021-06-05T06:19:14Z) - Inferring Political Preferences from Twitter [0.0]
ソーシャルメディアの政治的センチメント分析は、政治ストラテジストが政党や候補者のパフォーマンスを精査するのに役立つ。
選挙期間中、ソーシャルネットワークはブログ、チャット、討論、政党や政治家の展望に関する議論で溢れている。
本研究では、従来の機械学習を用いて、テキスト分類問題としてモデル化することで、ツイートに存在する政治的意見の傾きを特定することを選んだ。
論文 参考訳(メタデータ) (2020-07-21T05:20:43Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。