論文の概要: MPCG: Multi-Round Persona-Conditioned Generation for Modeling the Evolution of Misinformation with LLMs
- arxiv url: http://arxiv.org/abs/2509.16564v1
- Date: Sat, 20 Sep 2025 07:40:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:15.863237
- Title: MPCG: Multi-Round Persona-Conditioned Generation for Modeling the Evolution of Misinformation with LLMs
- Title(参考訳): MPCG:LLMによる誤情報進化のモデル化のための多言語ペルソナ概念生成
- Authors: Jun Rong Brian Chong, Yixuan Tang, Anthony K. H. Tung,
- Abstract要約: 現在の誤報検出アプローチは、誤報が静的であると暗黙的に仮定している。
我々は,複数ラウンドのペルソナ条件付きフレームワークであるMPCGを紹介し,異なるイデオロギー的視点を持つエージェントによってクレームが反復的に再解釈される様子をシミュレートする。
- 参考スコア(独自算出の注目度): 13.91292293823499
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Misinformation evolves as it spreads, shifting in language, framing, and moral emphasis to adapt to new audiences. However, current misinformation detection approaches implicitly assume that misinformation is static. We introduce MPCG, a multi-round, persona-conditioned framework that simulates how claims are iteratively reinterpreted by agents with distinct ideological perspectives. Our approach uses an uncensored large language model (LLM) to generate persona-specific claims across multiple rounds, conditioning each generation on outputs from the previous round, enabling the study of misinformation evolution. We evaluate the generated claims through human and LLM-based annotations, cognitive effort metrics (readability, perplexity), emotion evocation metrics (sentiment analysis, morality), clustering, feasibility, and downstream classification. Results show strong agreement between human and GPT-4o-mini annotations, with higher divergence in fluency judgments. Generated claims require greater cognitive effort than the original claims and consistently reflect persona-aligned emotional and moral framing. Clustering and cosine similarity analyses confirm semantic drift across rounds while preserving topical coherence. Feasibility results show a 77% feasibility rate, confirming suitability for downstream tasks. Classification results reveal that commonly used misinformation detectors experience macro-F1 performance drops of up to 49.7%. The code is available at https://github.com/bcjr1997/MPCG
- Abstract(参考訳): 誤報が広まるにつれて進化し、新しい聴衆に適応するために言語、フレーミング、道徳的重点を移す。
しかし、現在の誤報検出アプローチは、誤報が静的であると暗黙的に仮定している。
我々は,複数ラウンドのペルソナ条件付きフレームワークであるMPCGを紹介し,異なるイデオロギー的視点を持つエージェントによってクレームが反復的に再解釈される様子をシミュレートする。
提案手法では,複数のラウンドにまたがってペルソナ固有のクレームを生成するためにLLM(uncensored large language model)を用いて,前ラウンドからのアウトプットに対して各生成を条件付けし,誤情報進化の研究を可能にする。
我々は,人間とLLMに基づくアノテーション,認知活動指標(可読性,難易度),感情喚起指標(感情分析,道徳性),クラスタリング,実現可能性,下流分類を用いて,生成した主張を評価する。
その結果,ヒトとGPT-4o-miniアノテーションの一致が強く,流布判定のばらつきが高かった。
生成されたクレームは、元々のクレームよりも認知的な努力を必要とし、一貫してペルソナに沿った感情的および道徳的フレーミングを反映する。
クラスタリングとコサイン類似性分析は、トピックコヒーレンスを保ちながら、ラウンド間のセマンティックドリフトを確認する。
フェーザビリティーの結果は、77%のフェーザビリティー率を示し、下流タスクの適合性を確認した。
分類の結果、一般的に使用される誤報検知器は、最大49.7%のマクロF1性能低下を経験していることが明らかとなった。
コードはhttps://github.com/bcjr1997/MPCGで公開されている。
関連論文リスト
- Machine Bullshit: Characterizing the Emergent Disregard for Truth in Large Language Models [57.834711966432685]
哲学者ハリー・フランクフルト(Harry Frankfurt)によって概念化されたブルシット(Bullshit)は、その真理の価値を問わない言明を指す。
本稿では,大言語モデルの真偽に対する無関心を定量化する新しい指標であるブルシット指数を紹介する。
我々は、政治的文脈で一般的な機械いじめを観察し、軽快な言葉が支配的な戦略である。
論文 参考訳(メタデータ) (2025-07-10T07:11:57Z) - Can Reasoning Help Large Language Models Capture Human Annotator Disagreement? [84.32752330104775]
ヒトのアノテーションの変化(つまり不一致)は、NLPでは一般的である。
異なる推論条件が大言語モデルの不一致モデルに与える影響を評価する。
意外なことに、RLVRスタイルの推論は不一致モデリングにおいて性能を低下させる。
論文 参考訳(メタデータ) (2025-06-24T09:49:26Z) - Contrastive Learning with Counterfactual Explanations for Radiology Report Generation [83.30609465252441]
放射線学レポート生成のためのtextbfCountertextbfFactual textbfExplanations-based framework (CoFE) を提案する。
反現実的な説明は、アルゴリズムによってなされた決定をどのように変えられるかを理解するための強力なツールとして、シナリオが何であるかを問うことによって役立ちます。
2つのベンチマークの実験では、反ファクト的な説明を活用することで、CoFEは意味的に一貫性があり、事実的に完全なレポートを生成することができる。
論文 参考訳(メタデータ) (2024-07-19T17:24:25Z) - Cobra Effect in Reference-Free Image Captioning Metrics [58.438648377314436]
視覚言語事前学習モデル(VLM)を活用した参照フリー手法の普及が出現している。
本稿では,基準自由度に欠陥があるかどうかを考察する。
GPT-4Vは生成した文を評価するための評価ツールであり,提案手法がSOTA(State-of-the-art)の性能を達成することを示す。
論文 参考訳(メタデータ) (2024-02-18T12:36:23Z) - Using Natural Language Explanations to Rescale Human Judgments [81.66697572357477]
大規模言語モデル(LLM)を用いて順序付けアノテーションと説明を再スケールする手法を提案する。
我々は、アノテータのLikert評価とそれに対応する説明をLLMに入力し、スコア付けルーリックに固定された数値スコアを生成する。
提案手法は,合意に影響を及ぼさずに生の判断を再スケールし,そのスコアを同一のスコア付けルーリックに接する人間の判断に近づける。
論文 参考訳(メタデータ) (2023-05-24T06:19:14Z) - Elastic Weight Removal for Faithful and Abstractive Dialogue Generation [61.40951756070646]
対話システムは、関連する文書に含まれる知識に忠実な応答を生成するべきである。
多くのモデルは、それと矛盾したり、検証不可能な情報を含んでいる代わりに幻覚応答を生成する。
本手法は,幻覚と抽出反応を同時に阻止するために拡張できることが示唆された。
論文 参考訳(メタデータ) (2023-03-30T17:40:30Z) - Making a (Counterfactual) Difference One Rationale at a Time [5.97507595130844]
本研究では,人的支援を伴わない反現実的データ拡張が,セレクタの性能を向上させることができるかどうかを考察する。
以上の結果から,CDAは関心のシグナルをよりよく捉えた合理性を生み出すことが示唆された。
論文 参考訳(メタデータ) (2022-01-13T19:05:02Z) - Variational Mutual Information Maximization Framework for VAE Latent
Codes with Continuous and Discrete Priors [5.317548969642376]
変分オートエンコーダ(VAE)は、複雑なデータの有向潜在変数モデルを学習するためのスケーラブルな方法である。
本稿では,VAEのための変分相互情報最大化フレームワークを提案し,この問題に対処する。
論文 参考訳(メタデータ) (2020-06-02T09:05:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。