論文の概要: MPCG: Multi-Round Persona-Conditioned Generation for Modeling the Evolution of Misinformation with LLMs
- arxiv url: http://arxiv.org/abs/2509.16564v1
- Date: Sat, 20 Sep 2025 07:40:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:15.863237
- Title: MPCG: Multi-Round Persona-Conditioned Generation for Modeling the Evolution of Misinformation with LLMs
- Title(参考訳): MPCG:LLMによる誤情報進化のモデル化のための多言語ペルソナ概念生成
- Authors: Jun Rong Brian Chong, Yixuan Tang, Anthony K. H. Tung,
- Abstract要約: 現在の誤報検出アプローチは、誤報が静的であると暗黙的に仮定している。
我々は,複数ラウンドのペルソナ条件付きフレームワークであるMPCGを紹介し,異なるイデオロギー的視点を持つエージェントによってクレームが反復的に再解釈される様子をシミュレートする。
- 参考スコア(独自算出の注目度): 13.91292293823499
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Misinformation evolves as it spreads, shifting in language, framing, and moral emphasis to adapt to new audiences. However, current misinformation detection approaches implicitly assume that misinformation is static. We introduce MPCG, a multi-round, persona-conditioned framework that simulates how claims are iteratively reinterpreted by agents with distinct ideological perspectives. Our approach uses an uncensored large language model (LLM) to generate persona-specific claims across multiple rounds, conditioning each generation on outputs from the previous round, enabling the study of misinformation evolution. We evaluate the generated claims through human and LLM-based annotations, cognitive effort metrics (readability, perplexity), emotion evocation metrics (sentiment analysis, morality), clustering, feasibility, and downstream classification. Results show strong agreement between human and GPT-4o-mini annotations, with higher divergence in fluency judgments. Generated claims require greater cognitive effort than the original claims and consistently reflect persona-aligned emotional and moral framing. Clustering and cosine similarity analyses confirm semantic drift across rounds while preserving topical coherence. Feasibility results show a 77% feasibility rate, confirming suitability for downstream tasks. Classification results reveal that commonly used misinformation detectors experience macro-F1 performance drops of up to 49.7%. The code is available at https://github.com/bcjr1997/MPCG
- Abstract(参考訳): 誤報が広まるにつれて進化し、新しい聴衆に適応するために言語、フレーミング、道徳的重点を移す。
しかし、現在の誤報検出アプローチは、誤報が静的であると暗黙的に仮定している。
我々は,複数ラウンドのペルソナ条件付きフレームワークであるMPCGを紹介し,異なるイデオロギー的視点を持つエージェントによってクレームが反復的に再解釈される様子をシミュレートする。
提案手法では,複数のラウンドにまたがってペルソナ固有のクレームを生成するためにLLM(uncensored large language model)を用いて,前ラウンドからのアウトプットに対して各生成を条件付けし,誤情報進化の研究を可能にする。
我々は,人間とLLMに基づくアノテーション,認知活動指標(可読性,難易度),感情喚起指標(感情分析,道徳性),クラスタリング,実現可能性,下流分類を用いて,生成した主張を評価する。
その結果,ヒトとGPT-4o-miniアノテーションの一致が強く,流布判定のばらつきが高かった。
生成されたクレームは、元々のクレームよりも認知的な努力を必要とし、一貫してペルソナに沿った感情的および道徳的フレーミングを反映する。
クラスタリングとコサイン類似性分析は、トピックコヒーレンスを保ちながら、ラウンド間のセマンティックドリフトを確認する。
フェーザビリティーの結果は、77%のフェーザビリティー率を示し、下流タスクの適合性を確認した。
分類の結果、一般的に使用される誤報検知器は、最大49.7%のマクロF1性能低下を経験していることが明らかとなった。
コードはhttps://github.com/bcjr1997/MPCGで公開されている。
関連論文リスト
- Context-Adaptive Requirements Defect Prediction through Human-LLM Collaboration [1.4499356176178066]
本稿では,欠陥予測を静的な分類タスクではなく適応プロセスとして扱うHuman-LLM Collaboration(HLC)アプローチを提案する。
メルセデス・ベンツの要求条件である1,266のQuREベンチマークの弱い単語の匂いを用いて,本手法の評価を行った。
論文 参考訳(メタデータ) (2026-01-05T10:00:14Z) - QuCo-RAG: Quantifying Uncertainty from the Pre-training Corpus for Dynamic Retrieval-Augmented Generation [14.312693191309101]
Dynamic Retrieval-Augmented Generationは、大規模言語モデルにおける幻覚への生成時にいつ取得するかを適応的に決定する。
本稿では,主観的信頼度から事前学習データから客観的統計へ移行したQuCo-RAGを提案する。
提案手法は,(1) 生成前, 長い尾の知識ギャップを示す低周波の実体を同定し, (2) 生成中, 学習前コーパスにおけるエンティティ共起を検証し, ゼロ共起が幻覚のリスクを生じさせる。
論文 参考訳(メタデータ) (2025-12-22T08:28:05Z) - Simulating Misinformation Propagation in Social Networks using Large Language Models [4.285464959472458]
ソーシャルメディア上の誤報は、人間の認知バイアスによって増幅される、驚き、感情、アイデンティティ駆動推論に基づいて成長する。
これらのメカニズムを解明するために、ユーザレベルの偏見、イデオロギー的アライメント、信頼誤報を模倣する合成エージェントとして、大規模言語モデル(LLM)ペルソナをモデル化する。
本セットアップでは,このようなエージェントのネットワークを介し,誤情報がどのように循環するかをシミュレートし,分析するための監査-条件付きノードフレームワークを導入する。
論文 参考訳(メタデータ) (2025-11-13T15:01:19Z) - Taming a Retrieval Framework to Read Images in Humanlike Manner for Augmenting Generation of MLLMs [23.638717678491986]
マルチモーダルな大言語モデル(MLLM)は、細粒度の視覚的質問応答でしばしば失敗する。
HuLiRAG(Human-like Retrieval-Augmented Generation)は、マルチモーダル推論を「何」のカスケードとしてステージングするフレームワークである。
論文 参考訳(メタデータ) (2025-10-12T03:22:33Z) - Semantic Visual Anomaly Detection and Reasoning in AI-Generated Images [96.43608872116347]
AnomReasonは4倍のtextbfAnomAgentのような構造化アノテーションを備えた大規模ベンチマーク
AnomReasonとAnomAgentは、AI生成画像の意味的妥当性の測定と改善の基盤となっている。
論文 参考訳(メタデータ) (2025-10-11T14:09:24Z) - Fairness Testing in Retrieval-Augmented Generation: How Small Perturbations Reveal Bias in Small Language Models [0.1876920697241348]
本研究は, 3つの小言語モデル(SLM)による感情分析における公平性を評価するために, 制御された人口変動を導入した変成試験(MT)による公平性テストを実施する。
その結果, 微少な人口変動が変成関係(MRs)の3分の1に分解できることが示唆された。
これらの失敗を詳細に分析すると、一貫したバイアス階層が示され、人種的手がかりを含む摂動が違反の主な原因となっている。
論文 参考訳(メタデータ) (2025-09-30T17:42:35Z) - Machine Bullshit: Characterizing the Emergent Disregard for Truth in Large Language Models [57.834711966432685]
哲学者ハリー・フランクフルト(Harry Frankfurt)によって概念化されたブルシット(Bullshit)は、その真理の価値を問わない言明を指す。
本稿では,大言語モデルの真偽に対する無関心を定量化する新しい指標であるブルシット指数を紹介する。
我々は、政治的文脈で一般的な機械いじめを観察し、軽快な言葉が支配的な戦略である。
論文 参考訳(メタデータ) (2025-07-10T07:11:57Z) - Can Reasoning Help Large Language Models Capture Human Annotator Disagreement? [84.32752330104775]
ヒトのアノテーションの変化(つまり不一致)は、NLPでは一般的である。
異なる推論条件が大言語モデルの不一致モデルに与える影響を評価する。
意外なことに、RLVRスタイルの推論は不一致モデリングにおいて性能を低下させる。
論文 参考訳(メタデータ) (2025-06-24T09:49:26Z) - Estimating Commonsense Plausibility through Semantic Shifts [66.06254418551737]
セマンティックシフトを測定することでコモンセンスの妥当性を定量化する新しい識別フレームワークであるComPaSSを提案する。
2種類の細粒度コモンセンス可視性評価タスクの評価は,ComPaSSが一貫してベースラインを上回っていることを示している。
論文 参考訳(メタデータ) (2025-02-19T06:31:06Z) - Contrastive Learning with Counterfactual Explanations for Radiology Report Generation [83.30609465252441]
放射線学レポート生成のためのtextbfCountertextbfFactual textbfExplanations-based framework (CoFE) を提案する。
反現実的な説明は、アルゴリズムによってなされた決定をどのように変えられるかを理解するための強力なツールとして、シナリオが何であるかを問うことによって役立ちます。
2つのベンチマークの実験では、反ファクト的な説明を活用することで、CoFEは意味的に一貫性があり、事実的に完全なレポートを生成することができる。
論文 参考訳(メタデータ) (2024-07-19T17:24:25Z) - Cobra Effect in Reference-Free Image Captioning Metrics [58.438648377314436]
視覚言語事前学習モデル(VLM)を活用した参照フリー手法の普及が出現している。
本稿では,基準自由度に欠陥があるかどうかを考察する。
GPT-4Vは生成した文を評価するための評価ツールであり,提案手法がSOTA(State-of-the-art)の性能を達成することを示す。
論文 参考訳(メタデータ) (2024-02-18T12:36:23Z) - Using Natural Language Explanations to Rescale Human Judgments [81.66697572357477]
大規模言語モデル(LLM)を用いて順序付けアノテーションと説明を再スケールする手法を提案する。
我々は、アノテータのLikert評価とそれに対応する説明をLLMに入力し、スコア付けルーリックに固定された数値スコアを生成する。
提案手法は,合意に影響を及ぼさずに生の判断を再スケールし,そのスコアを同一のスコア付けルーリックに接する人間の判断に近づける。
論文 参考訳(メタデータ) (2023-05-24T06:19:14Z) - Elastic Weight Removal for Faithful and Abstractive Dialogue Generation [61.40951756070646]
対話システムは、関連する文書に含まれる知識に忠実な応答を生成するべきである。
多くのモデルは、それと矛盾したり、検証不可能な情報を含んでいる代わりに幻覚応答を生成する。
本手法は,幻覚と抽出反応を同時に阻止するために拡張できることが示唆された。
論文 参考訳(メタデータ) (2023-03-30T17:40:30Z) - Making a (Counterfactual) Difference One Rationale at a Time [5.97507595130844]
本研究では,人的支援を伴わない反現実的データ拡張が,セレクタの性能を向上させることができるかどうかを考察する。
以上の結果から,CDAは関心のシグナルをよりよく捉えた合理性を生み出すことが示唆された。
論文 参考訳(メタデータ) (2022-01-13T19:05:02Z) - Variational Mutual Information Maximization Framework for VAE Latent
Codes with Continuous and Discrete Priors [5.317548969642376]
変分オートエンコーダ(VAE)は、複雑なデータの有向潜在変数モデルを学習するためのスケーラブルな方法である。
本稿では,VAEのための変分相互情報最大化フレームワークを提案し,この問題に対処する。
論文 参考訳(メタデータ) (2020-06-02T09:05:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。