論文の概要: Sword and Shield: Uses and Strategies of LLMs in Navigating Disinformation
- arxiv url: http://arxiv.org/abs/2506.07211v1
- Date: Sun, 08 Jun 2025 16:24:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.714228
- Title: Sword and Shield: Uses and Strategies of LLMs in Navigating Disinformation
- Title(参考訳): 剣とシールド : 情報伝達におけるLDMの利用と戦略
- Authors: Gionnieve Lim, Bryan Chen Zhengyu Tan, Kellie Yu Hui Sim, Weiyan Shi, Ming Hui Chew, Ming Shan Hee, Roy Ka-Wei Lee, Simon T. Perrault, Kenny Tsu Wei Choo,
- Abstract要約: 大型言語モデル (LLM) は、高度で説得力のある偽情報を生成するために兵器化することができるが、検出と緩和戦略の強化も約束している。
本稿では,25人の参加者によるWerewolfゲームに触発された,オンラインフォーラムを模擬するコミュニケーションゲームを通じて,LLMと偽情報の複雑なダイナミクスについて検討する。
本研究は, 参加者の役割や戦略によって, LLMの多彩な利用が強調され, この文脈での有効性を理解することの重要性が強調された。
- 参考スコア(独自算出の注目度): 9.761926423405617
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The emergence of Large Language Models (LLMs) presents a dual challenge in the fight against disinformation. These powerful tools, capable of generating human-like text at scale, can be weaponised to produce sophisticated and persuasive disinformation, yet they also hold promise for enhancing detection and mitigation strategies. This paper investigates the complex dynamics between LLMs and disinformation through a communication game that simulates online forums, inspired by the game Werewolf, with 25 participants. We analyse how Disinformers, Moderators, and Users leverage LLMs to advance their goals, revealing both the potential for misuse and combating disinformation. Our findings highlight the varying uses of LLMs depending on the participants' roles and strategies, underscoring the importance of understanding their effectiveness in this context. We conclude by discussing implications for future LLM development and online platform design, advocating for a balanced approach that empowers users and fosters trust while mitigating the risks of LLM-assisted disinformation.
- Abstract(参考訳): LLM(Large Language Models)の出現は、偽情報との戦いにおいて二重の挑戦となる。
これらの強力なツールは、人間のようなテキストを大規模に生成できるので、高度な説得力のある偽情報を生成できるが、検出と緩和戦略の強化も約束している。
本稿では,25人の参加者によるWerewolfゲームに触発された,オンラインフォーラムを模擬するコミュニケーションゲームを通じて,LLMと偽情報の複雑なダイナミクスについて検討する。
我々は、ディスインフォーマー、モデレーター、ユーザーがどのようにLCMを活用して目標を前進させ、誤用の可能性と偽情報との戦いの可能性を明らかにするかを分析する。
本研究は, 参加者の役割や戦略によって, LLMの多彩な利用が強調され, この文脈での有効性を理解することの重要性が強調された。
我々は、今後のLCM開発とオンラインプラットフォーム設計の意義について議論し、LCM支援の偽情報のリスクを軽減しつつ、ユーザを力づけ、信頼を育むためのバランスのとれたアプローチを提唱する。
関連論文リスト
- How does Misinformation Affect Large Language Model Behaviors and Preferences? [37.06385727015972]
大きな言語モデル(LLM)は、知識集約的なタスクにおいて顕著な能力を示している。
我々は,LLMの行動と誤情報に対する知識嗜好を評価するための,現在最大かつ最も包括的なベンチマークであるMisBenchを紹介する。
実証的な結果から、LLMは誤報を識別する能力に匹敵する能力を示すが、知識の衝突やスタイルのバリエーションの影響を受けやすいままであることが明らかとなった。
論文 参考訳(メタデータ) (2025-05-27T17:57:44Z) - NewsInterview: a Dataset and a Playground to Evaluate LLMs' Ground Gap via Informational Interviews [65.35458530702442]
我々はジャーナリストのインタビューに焦点をあて、コミュニケーションの基盤と豊富なデータに富んだドメインに焦点をあてる。
我々はNPRとCNNから4万人の2人によるインフォメーションインタビューのデータセットをキュレートする。
LLMは、人間のインタビュアーよりも、認識を使い、より高いレベルの質問に目を向ける可能性がはるかに低い。
論文 参考訳(メタデータ) (2024-11-21T01:37:38Z) - LEMMA: Towards LVLM-Enhanced Multimodal Misinformation Detection with External Knowledge Augmentation [58.524237916836164]
外部知識を付加したLVLM強化マルチモーダル誤報検出システム LEMMAを提案する。
提案手法は,Twitter と Fakeddit のデータセットにおいて,上位ベースライン LVLM の精度を 7% と 13% に向上させる。
論文 参考訳(メタデータ) (2024-02-19T08:32:27Z) - Leveraging the Context through Multi-Round Interactions for Jailbreaking Attacks [55.603893267803265]
大規模言語モデル(LLM)は、脱獄攻撃の影響を受けやすい。
脱獄攻撃は、攻撃クエリを微調整することで有害な情報を抽出することを目的としている。
我々は、コンテキストインタラクションアタックと呼ばれる新しい攻撃形式に焦点を当てる。
論文 参考訳(メタデータ) (2024-02-14T13:45:19Z) - Combating Misinformation in the Age of LLMs: Opportunities and
Challenges [21.712051537924136]
LLM(Large Language Models)の出現は、誤情報と戦う環境を再構築する大きな可能性を秘めている。
一方、LLMは、その深い世界知識と強力な推論能力のために、誤情報と戦うための有望な機会をもたらす。
一方,LLMは大規模に誤情報を生成するために容易に活用できるという点が重要な課題である。
論文 参考訳(メタデータ) (2023-11-09T00:05:27Z) - On the Risk of Misinformation Pollution with Large Language Models [127.1107824751703]
本稿では,現代大規模言語モデル (LLM) の誤用の可能性について検討する。
本研究は, LLMが効果的な誤情報発生器として機能し, DOQAシステムの性能が著しく低下することを明らかにする。
論文 参考訳(メタデータ) (2023-05-23T04:10:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。