論文の概要: An Empirical Analysis of LLMs for Countering Misinformation
- arxiv url: http://arxiv.org/abs/2503.01902v1
- Date: Fri, 28 Feb 2025 07:12:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:25:08.950967
- Title: An Empirical Analysis of LLMs for Countering Misinformation
- Title(参考訳): 誤情報対策のためのLCMの実証分析
- Authors: Adiba Mahbub Proma, Neeley Pate, James Druckman, Gourab Ghoshal, Hangfeng He, Ehsan Hoque,
- Abstract要約: LLM(Large Language Models)は、オンラインの誤報を増幅するが、誤報に対処することを約束する。
我々は、政治的誤報に対処する3つのLDM(ChatGPT、Gemini、Claude)の能力を実証的に研究する。
以上の結果から,モデルが実際のニュースソースで回答を得るのに苦労し,左利きの情報源を引用する傾向が示唆された。
- 参考スコア(独自算出の注目度): 4.832131829290864
- License:
- Abstract: While Large Language Models (LLMs) can amplify online misinformation, they also show promise in tackling misinformation. In this paper, we empirically study the capabilities of three LLMs -- ChatGPT, Gemini, and Claude -- in countering political misinformation. We implement a two-step, chain-of-thought prompting approach, where models first identify credible sources for a given claim and then generate persuasive responses. Our findings suggest that models struggle to ground their responses in real news sources, and tend to prefer citing left-leaning sources. We also observe varying degrees of response diversity among models. Our findings highlight concerns about using LLMs for fact-checking through only prompt-engineering, emphasizing the need for more robust guardrails. Our results have implications for both researchers and non-technical users.
- Abstract(参考訳): LLM(Large Language Models)はオンラインの誤報を増幅するが、誤報に対処する可能性も示している。
本稿では,3つのLDM(ChatGPT,Gemini,Claude)の政治的偽情報対策能力について実証研究を行った。
モデルがまず所定のクレームに対して信頼できるソースを識別し,次に説得力のある応答を生成する,2段階のチェーン・オブ・シークレット・プロンプト手法を実装した。
以上の結果から,モデルが実際のニュースソースで回答を得るのに苦労し,左利きの情報源を引用する傾向が示唆された。
また、モデル間の応答の多様性の度合いも観察する。
本研究は,より堅牢なガードレールの必要性を強調し,プロンプトエンジニアリングのみでのファクトチェックにLLMを使用する際の懸念を浮き彫りにした。
この結果は,研究者と非技術ユーザの両方に影響を及ぼす。
関連論文リスト
- Fostering Appropriate Reliance on Large Language Models: The Role of Explanations, Sources, and Inconsistencies [66.30619782227173]
大規模言語モデル(LLMs)は、流動的で説得力のある誤った応答を生成することができる。
ユーザの信頼を形作るLCM応答のいくつかの特徴を同定する。
説明は正しい応答と誤応答の両方に依存することが判明した。
情報源が提供された場合や説明が矛盾している場合の誤った応答への依存度は低い。
論文 参考訳(メタデータ) (2025-02-12T16:35:41Z) - Understanding Knowledge Drift in LLMs through Misinformation [11.605377799885238]
大規模言語モデル(LLM)は多くのアプリケーションに革命をもたらしました。
我々は,QnAシナリオで誤情報に遭遇した場合に,現状のLCMの事実的不正確性に対する感受性を解析する。
実験の結果,LLMの不確実性が56.6%まで増加することが判明した。
論文 参考訳(メタデータ) (2024-09-11T08:11:16Z) - Missci: Reconstructing Fallacies in Misrepresented Science [84.32990746227385]
ソーシャルネットワーク上の健康関連の誤報は、意思決定の貧弱さと現実世界の危険につながる可能性がある。
ミスシは、誤った推論のための新しい議論理論モデルである。
大規模言語モデルの批判的推論能力をテストするためのデータセットとしてMissciを提案する。
論文 参考訳(メタデータ) (2024-06-05T12:11:10Z) - Multimodal Large Language Models to Support Real-World Fact-Checking [80.41047725487645]
MLLM(Multimodal large language model)は、膨大な情報処理において人間を支援する能力を持つ。
MLLMはすでにファクトチェックツールとして使用されていますが、その能力や制限については検討中です。
本稿では,現実のファクトチェックを容易にするために,現在のマルチモーダルモデルの能力を体系的に評価するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-06T11:32:41Z) - What Evidence Do Language Models Find Convincing? [94.90663008214918]
議論の的になっているクエリと、さまざまな事実を含む実世界の証拠文書を組み合わせたデータセットを構築します。
このデータセットを用いて、感度と反ファクト分析を行い、どのテキスト特徴がLLM予測に最も影響するかを探索する。
全体として、現在のモデルは、クエリに対するWebサイトの関連性に大きく依存している一方で、人間が重要と考えるスタイル的特徴をほとんど無視している。
論文 参考訳(メタデータ) (2024-02-19T02:15:34Z) - Can Large Language Models Detect Rumors on Social Media? [21.678652268122296]
ソーシャルメディア上でのうわさ検出にLarge Language Models (LLMs) を用いることを検討した。
そこで我々は,LLMにニュースやコメントの重要な手がかりを推論するように指導する手法として,LeRuD(LeRuD)アプローチを提案する。
LeRuDは最先端の噂検出モデルを3.2%から7.7%上回っている。
論文 参考訳(メタデータ) (2024-02-06T11:33:57Z) - Disinformation Capabilities of Large Language Models [0.564232659769944]
本稿では,現在世代の大言語モデル(LLM)の非情報化能力について述べる。
20個の偽情報物語を用いた10個のLDMの能力評価を行った。
LLMは、危険な偽情報の物語に一致する説得力のあるニュース記事を生成することができると結論付けている。
論文 参考訳(メタデータ) (2023-11-15T10:25:30Z) - The ART of LLM Refinement: Ask, Refine, and Trust [85.75059530612882]
ART: Ask, Refine, and Trust と呼ばれる改良目標を用いた推論を提案する。
LLMがいつその出力を洗練すべきかを決めるために必要な質問を尋ねる。
自己補充ベースラインよりも+5ポイントの性能向上を達成する。
論文 参考訳(メタデータ) (2023-11-14T07:26:32Z) - Disinformation Detection: An Evolving Challenge in the Age of LLMs [16.46484369516341]
大きな言語モデル(LLM)は、説得力が高く、誤解を招くコンテンツを生成する。
LLMは、先進的な偽情報に対する堅牢な防御として利用することができる。
偽情報の形成と検出を総合的に探究し、この研究を育成する。
論文 参考訳(メタデータ) (2023-09-25T22:12:50Z) - On the Risk of Misinformation Pollution with Large Language Models [127.1107824751703]
本稿では,現代大規模言語モデル (LLM) の誤用の可能性について検討する。
本研究は, LLMが効果的な誤情報発生器として機能し, DOQAシステムの性能が著しく低下することを明らかにする。
論文 参考訳(メタデータ) (2023-05-23T04:10:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。