論文の概要: Exfiltration of personal information from ChatGPT via prompt injection
- arxiv url: http://arxiv.org/abs/2406.00199v2
- Date: Thu, 6 Jun 2024 06:43:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-07 20:03:47.899965
- Title: Exfiltration of personal information from ChatGPT via prompt injection
- Title(参考訳): 即時注入によるChatGPTからの個人情報の抽出
- Authors: Gregory Schwartzman,
- Abstract要約: ChatGPT 4と4oは、攻撃者がユーザーの個人情報を流出させるプロンプトインジェクション攻撃の影響を受けやすい。
この脆弱性は、ChatGPTのメモリ機能の導入によって悪化している。
- 参考スコア(独自算出の注目度): 5.439020425819001
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We report that ChatGPT 4 and 4o are susceptible to a prompt injection attack that allows an attacker to exfiltrate users' personal data. It is applicable without the use of any 3rd party tools and all users are currently affected. This vulnerability is exacerbated by the recent introduction of ChatGPT's memory feature, which allows an attacker to command ChatGPT to monitor the user for the desired personal data.
- Abstract(参考訳): 本報告では,ChatGPT 4 と 4o は,攻撃者がユーザの個人情報を流出させるプロンプトインジェクション攻撃の影響を受けやすいことを報告している。
サードパーティのツールを使わずに適用でき、現在すべてのユーザが影響を受ける。
この脆弱性は、最近のChatGPTのメモリ機能の導入によって悪化し、攻撃者はChatGPTに、希望する個人データを監視するように指示することができる。
関連論文リスト
- WildChat: 1M ChatGPT Interaction Logs in the Wild [88.05964311416717]
WildChatは100万件のユーザー・チャットGPT会話のコーパスで、250万回以上のインタラクション・ターンで構成されている。
タイムスタンプによるチャットの書き起こしに加えて、州、国、ハッシュIPアドレスを含む人口統計データでデータセットを豊かにします。
論文 参考訳(メタデータ) (2024-05-02T17:00:02Z) - Poisoning Federated Recommender Systems with Fake Users [48.70867241987739]
フェデレーテッド・レコメンデーションは、フェデレーテッド・ラーニングにおける顕著なユースケースである。
本稿では,攻撃対象のアイテムを宣伝するために,PisonFRSという偽ユーザによる新たな毒殺攻撃を導入する。
複数の実世界のデータセットに対する実験では、PoisonFRSが攻撃者-チョセンアイテムを真のユーザの大部分に効果的にプロモートできることが示されている。
論文 参考訳(メタデータ) (2024-02-18T16:34:12Z) - GPT in Sheep's Clothing: The Risk of Customized GPTs [24.312198733476063]
2023年11月、OpenAIは新しいサービスを導入し、ユーザーはChatGPT(GPT)のカスタムバージョンを作成できる。
我々は,GPTが悪意ある使用が可能であり,ユーザに対してプライバシやセキュリティ上のリスクを生じさせるという事実に対する認識を高めることを目的としている。
論文 参考訳(メタデータ) (2024-01-17T09:27:13Z) - Exploring ChatGPT's Capabilities on Vulnerability Management [56.4403395100589]
我々は、70,346のサンプルを含む大規模なデータセットを用いて、完全な脆弱性管理プロセスを含む6つのタスクでChatGPTの機能を探求する。
注目すべき例として、ChatGPTのソフトウェアバグレポートのタイトル生成などのタスクにおける熟練度がある。
以上の結果から,ChatGPTが抱える障害が明らかとなり,将来的な方向性に光を当てた。
論文 参考訳(メタデータ) (2023-11-11T11:01:13Z) - Primacy Effect of ChatGPT [69.49920102917598]
本稿では,ChatGPTの優位性について検討する。
実験と分析により、より信頼性の高いChatGPTベースのソリューションを構築する上で、さらなる洞察が得られればと思っています。
論文 参考訳(メタデータ) (2023-10-20T00:37:28Z) - When ChatGPT Meets Smart Contract Vulnerability Detection: How Far Are
We? [32.49821094985732]
スマートコントラクトの脆弱性を識別する際のChatGPTの性能について,実証的研究を行った。
ChatGPTは高いリコール率を達成するが、スマートコントラクトの脆弱性を特定できる精度は限られている。
我々の研究は、スマートコントラクトの脆弱性の検出に大規模な言語モデル、特にChatGPTを使用する際の長所と短所に関する洞察を提供する。
論文 参考訳(メタデータ) (2023-09-11T15:02:44Z) - Prompt-Enhanced Software Vulnerability Detection Using ChatGPT [9.35868869848051]
GPTのような大規模言語モデル(LLM)は、その驚くべき知性のためにかなりの注目を集めている。
本稿では,ChatGPTを用いたソフトウェア脆弱性検出の性能について検討する。
論文 参考訳(メタデータ) (2023-08-24T10:30:33Z) - ChatGPT for Us: Preserving Data Privacy in ChatGPT via Dialogue Text
Ambiguation to Expand Mental Health Care Delivery [52.73936514734762]
ChatGPTは人間のような対話を生成する能力で人気を集めている。
データに敏感なドメインは、プライバシとデータ所有に関する懸念から、ChatGPTを使用する際の課題に直面している。
ユーザのプライバシーを守るためのテキスト曖昧化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-19T02:09:52Z) - Generating Phishing Attacks using ChatGPT [1.392250707100996]
機能的なフィッシングサイトを生成するためにChatGPTに提供できる悪意のあるプロンプトをいくつか特定する。
これらの攻撃は、バニラChatGPTを使用して、事前の敵のエクスプロイトを必要とせずに生成できる。
論文 参考訳(メタデータ) (2023-05-09T02:38:05Z) - To ChatGPT, or not to ChatGPT: That is the question! [78.407861566006]
本研究は,ChatGPT検出における最新の手法を包括的かつ現代的に評価するものである。
我々は、ChatGPTと人間からのプロンプトからなるベンチマークデータセットをキュレートし、医療、オープンQ&A、ファイナンスドメインからの多様な質問を含む。
評価の結果,既存の手法ではChatGPT生成内容を効果的に検出できないことがわかった。
論文 参考訳(メタデータ) (2023-04-04T03:04:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。