論文の概要: GPT in Sheep's Clothing: The Risk of Customized GPTs
- arxiv url: http://arxiv.org/abs/2401.09075v1
- Date: Wed, 17 Jan 2024 09:27:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 16:10:25.541242
- Title: GPT in Sheep's Clothing: The Risk of Customized GPTs
- Title(参考訳): シープ衣服におけるGPT : カスタマイズGPTのリスク
- Authors: Sagiv Antebi, Noam Azulay, Edan Habler, Ben Ganon, Asaf Shabtai, Yuval
Elovici
- Abstract要約: 2023年11月、OpenAIは新しいサービスを導入し、ユーザーはChatGPT(GPT)のカスタムバージョンを作成できる。
我々は,GPTが悪意ある使用が可能であり,ユーザに対してプライバシやセキュリティ上のリスクを生じさせるという事実に対する認識を高めることを目的としている。
- 参考スコア(独自算出の注目度): 24.312198733476063
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In November 2023, OpenAI introduced a new service allowing users to create
custom versions of ChatGPT (GPTs) by using specific instructions and knowledge
to guide the model's behavior. We aim to raise awareness of the fact that GPTs
can be used maliciously, posing privacy and security risks to their users.
- Abstract(参考訳): 2023年11月、openaiはモデルの振る舞いをガイドするために特定の指示と知識を使用して、ユーザがカスタムバージョンのchatgpt(gpts)を作成できる新しいサービスを導入した。
我々は、GPTが悪意ある使用が可能であることへの認識を高め、プライバシーとセキュリティ上のリスクをユーザに与えることを目指している。
関連論文リスト
- RogueGPT: dis-ethical tuning transforms ChatGPT4 into a Rogue AI in 158 Words [0.0]
本稿では、ChatGPTのデフォルトの倫理的ガードレールが、最新のカスタマイズ機能を使っていかに簡単にバイパスできるかを考察する。
この変化したChatGPTは「RogueGPT」とあだ名され、心配な行動に反応した。
我々の発見は、違法薬物生産、拷問方法、テロリズムといったトピックに関するモデルの知識に関する重要な懸念を提起する。
論文 参考訳(メタデータ) (2024-06-11T18:59:43Z) - Exfiltration of personal information from ChatGPT via prompt injection [5.439020425819001]
ChatGPT 4と4oは、攻撃者がユーザーの個人情報を流出させるプロンプトインジェクション攻撃の影響を受けやすい。
この脆弱性は、ChatGPTのメモリ機能の導入によって悪化している。
論文 参考訳(メタデータ) (2024-05-31T21:21:19Z) - Reconstruct Your Previous Conversations! Comprehensively Investigating Privacy Leakage Risks in Conversations with GPT Models [20.92843974858305]
GPTモデルはタスク最適化にますます利用されている。
本稿では,直接的かつ強力な会話再構築攻撃について紹介する。
過去の会話の再構築をめざした2つの先進的な攻撃を提示する。
論文 参考訳(メタデータ) (2024-02-05T13:18:42Z) - Opening A Pandora's Box: Things You Should Know in the Era of Custom GPTs [27.97654690288698]
我々はOpenAIによるカスタムGPTプラットフォームから生じるセキュリティとプライバシの問題を包括的に分析する。
本研究は,攻撃シナリオを悪質なアクターの役割に基づいた3つの脅威モデルに分類する。
我々は26の潜在的な攻撃ベクトルを特定し、19は実世界の環境で部分的にまたは完全に検証されている。
論文 参考訳(メタデータ) (2023-12-31T16:49:12Z) - User Consented Federated Recommender System Against Personalized
Attribute Inference Attack [55.24441467292359]
本稿では,ユーザの異なるプライバシーニーズを柔軟に満たすために,ユーザ合意型フェデレーションレコメンデーションシステム(UC-FedRec)を提案する。
UC-FedRecは、ユーザーが様々な要求を満たすためにプライバシー設定を自己定義し、ユーザーの同意を得てレコメンデーションを行うことを可能にする。
論文 参考訳(メタデータ) (2023-12-23T09:44:57Z) - Assessing Prompt Injection Risks in 200+ Custom GPTs [21.86130076843285]
本研究は、ユーザカスタマイズGPTに固有の重大なセキュリティ脆弱性である即時インジェクション攻撃を明らかにする。
プロンプトインジェクションによって、相手はカスタマイズされたシステムプロンプトを抽出できるだけでなく、アップロードされたファイルにもアクセスできる。
本稿では,このような攻撃を軽減できる可能性の評価とともに,インパルス注入の直接的解析を行う。
論文 参考訳(メタデータ) (2023-11-20T04:56:46Z) - Primacy Effect of ChatGPT [69.49920102917598]
本稿では,ChatGPTの優位性について検討する。
実験と分析により、より信頼性の高いChatGPTベースのソリューションを構築する上で、さらなる洞察が得られればと思っています。
論文 参考訳(メタデータ) (2023-10-20T00:37:28Z) - DecodingTrust: A Comprehensive Assessment of Trustworthiness in GPT
Models [92.6951708781736]
本稿では,GPT-4とGPT-3.5に着目した大規模言語モデルの総合的信頼性評価を提案する。
GPTモデルは、有害で偏りのある出力を生成し、個人情報を漏らすために、容易に誤解され得る。
我々の研究は、GPTモデルの総合的な信頼性評価を示し、信頼性のギャップに光を当てている。
論文 参考訳(メタデータ) (2023-06-20T17:24:23Z) - ChatGPT for Us: Preserving Data Privacy in ChatGPT via Dialogue Text
Ambiguation to Expand Mental Health Care Delivery [52.73936514734762]
ChatGPTは人間のような対話を生成する能力で人気を集めている。
データに敏感なドメインは、プライバシとデータ所有に関する懸念から、ChatGPTを使用する際の課題に直面している。
ユーザのプライバシーを守るためのテキスト曖昧化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-19T02:09:52Z) - One Small Step for Generative AI, One Giant Leap for AGI: A Complete
Survey on ChatGPT in AIGC Era [95.2284704286191]
GPT-4(別名ChatGPT Plus)は、生成型AI(GAI)の1つの小さなステップであるが、人工知能(AGI)の1つの大きな飛躍である。
2022年11月に公式リリースされて以来、ChatGPTは急速に多くのユーザーを惹きつけてきた。
この研究は、ChatGPTを基盤技術、アプリケーション、課題に関する包括的なレビューで調査した初めてのものである。
論文 参考訳(メタデータ) (2023-04-04T06:22:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。