論文の概要: An Audit and Analysis of LLM-Assisted Health Misinformation Jailbreaks Against LLMs
- arxiv url: http://arxiv.org/abs/2508.10010v1
- Date: Wed, 06 Aug 2025 02:14:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-15 22:24:48.000954
- Title: An Audit and Analysis of LLM-Assisted Health Misinformation Jailbreaks Against LLMs
- Title(参考訳): LLMを介する医療ミス情報ジェイルブレークの監査と解析
- Authors: Ayana Hussain, Patrick Zhao, Nicholas Vincent,
- Abstract要約: 大規模言語モデル(LLM)は有害な誤報を発生させる能力がある -- 必然的に、あるいは悪意のあるアウトプットを発生させようとする"ジェイルブレイク"攻撃によって引き起こされる場合。
本稿では,他のモデルが有害な医療的誤報を発生させるようなLDMによるジェイルブレイク攻撃の有効性と特徴について検討する。
また,脱獄したLLMが生成した誤情報とソーシャルメディア上の典型的な誤情報とを比較検討した。
- 参考スコア(独自算出の注目度): 5.0015751459745825
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) are a double-edged sword capable of generating harmful misinformation -- inadvertently, or when prompted by "jailbreak" attacks that attempt to produce malicious outputs. LLMs could, with additional research, be used to detect and prevent the spread of misinformation. In this paper, we investigate the efficacy and characteristics of LLM-produced jailbreak attacks that cause other models to produce harmful medical misinformation. We also study how misinformation generated by jailbroken LLMs compares to typical misinformation found on social media, and how effectively it can be detected using standard machine learning approaches. Specifically, we closely examine 109 distinct attacks against three target LLMs and compare the attack prompts to in-the-wild health-related LLM queries. We also examine the resulting jailbreak responses, comparing the generated misinformation to health-related misinformation on Reddit. Our findings add more evidence that LLMs can be effectively used to detect misinformation from both other LLMs and from people, and support a body of work suggesting that with careful design, LLMs can contribute to a healthier overall information ecosystem.
- Abstract(参考訳): LLM(Large Language Models)は、悪質な誤報を発生させるダブルエッジの剣である。
LLMは、さらなる研究で誤報の拡散を検知し防止するために使われる可能性がある。
本稿では,他のモデルが有害な医療的誤報を発生させるようなLDMによる脱獄攻撃の有効性と特徴について検討する。
また,jailbreakken LLMが生成した誤情報とソーシャルメディア上の典型的な誤情報とを比較検討し,標準的な機械学習手法を用いて効果的に検出する方法について検討した。
具体的には,3つのLLMに対する109個の異なる攻撃を詳細に検討し,その攻撃プロンプトを病床における健康関連LLMクエリと比較する。
また、生成された誤報とRedditの健康関連誤報を比較して、結果のジェイルブレイク反応についても検討した。
以上の結果から,LSMが他のLSMと人の両方の誤情報の検出に有効であることを示すとともに,慎重に設計することで,LCMがより健全な総合的な情報エコシステムに寄与できることが示唆された。
関連論文リスト
- Can Editing LLMs Inject Harm? [122.83469484328465]
我々は,大規模言語モデルに対する新しいタイプの安全脅威として,知識編集を再構築することを提案する。
誤情報注入の危険性については,まずコモンセンス誤情報注入とロングテール誤情報注入に分類する。
偏見注入のリスクに対して, 偏見文をLLMに高効率で注入できるだけでなく, 1つの偏見文注入で偏見が増大することを発見した。
論文 参考訳(メタデータ) (2024-07-29T17:58:06Z) - Leveraging the Context through Multi-Round Interactions for Jailbreaking Attacks [55.603893267803265]
大規模言語モデル(LLM)は、脱獄攻撃の影響を受けやすい。
脱獄攻撃は、攻撃クエリを微調整することで有害な情報を抽出することを目的としている。
我々は、コンテキストインタラクションアタックと呼ばれる新しい攻撃形式に焦点を当てる。
論文 参考訳(メタデータ) (2024-02-14T13:45:19Z) - Can LLM-Generated Misinformation Be Detected? [18.378744138365537]
大型言語モデル(LLM)は誤情報を生成するために利用することができる。
LLMが生成した誤報は、人間が書いた誤報よりも有害か?
論文 参考訳(メタデータ) (2023-09-25T00:45:07Z) - On the Risk of Misinformation Pollution with Large Language Models [127.1107824751703]
本稿では,現代大規模言語モデル (LLM) の誤用の可能性について検討する。
本研究は, LLMが効果的な誤情報発生器として機能し, DOQAシステムの性能が著しく低下することを明らかにする。
論文 参考訳(メタデータ) (2023-05-23T04:10:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。