論文の概要: ProxyGPT: Enabling Anonymous Queries in AI Chatbots with (Un)Trustworthy Browser Proxies
- arxiv url: http://arxiv.org/abs/2407.08792v1
- Date: Thu, 11 Jul 2024 18:08:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-16 03:38:34.235546
- Title: ProxyGPT: Enabling Anonymous Queries in AI Chatbots with (Un)Trustworthy Browser Proxies
- Title(参考訳): ProxyGPT:AIチャットボットの匿名クエリを(Un)Trustworthy Browserプロキシで実現
- Authors: Dzung Pham, Jade Sheffey, Chau Minh Pham, Amir Houmansadr,
- Abstract要約: 本稿では,人気チャットボットプラットフォームにおける匿名クエリを可能にするプライバシ強化システムであるProxyGPTを提案する。
このシステムはTLSが支援するデータ証明、エンドツーエンドの暗号化、匿名支払いといった重要なセキュリティ特性をサポートするように設計されている。
人間の評価によると、従来のAIチャットボットと比べて、ProxyGPTはユーザーのプライバシーの感覚を高める。
- 参考スコア(独自算出の注目度): 12.552035175341894
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: AI-powered chatbots (ChatGPT, Claude, etc.) require users to create an account using their email and phone number, thereby linking their personally identifiable information to their conversational data and usage patterns. As these chatbots are increasingly being used for tasks involving sensitive information, privacy concerns have been raised about how chatbot providers handle user data. To address these concerns, we present ProxyGPT, a privacy-enhancing system that enables anonymous queries in popular chatbot platforms. ProxyGPT leverages volunteer proxies to submit user queries on their behalf, thus providing network-level anonymity for chatbot users. The system is designed to support key security properties such as content integrity via TLS-backed data provenance, end-to-end encryption, and anonymous payment, while also ensuring usability and sustainability. We provide a thorough analysis of the privacy, security, and integrity of our system and identify various future research directions, particularly in the area of private chatbot query synthesis. Our human evaluation shows that ProxyGPT offers users a greater sense of privacy compared to traditional AI chatbots, especially in scenarios where users are hesitant to share their identity with chatbot providers. Although our proof-of-concept has higher latency than popular chatbots, our human interview participants consider this to be an acceptable trade-off for anonymity. To the best of our knowledge, ProxyGPT is the first comprehensive proxy-based solution for privacy-preserving AI chatbots. Our codebase is available at https://github.com/dzungvpham/proxygpt.
- Abstract(参考訳): AIを利用したチャットボット(ChatGPT、Claudeなど)では、ユーザーはメールアドレスと電話番号を使ってアカウントを作成する必要がある。
これらのチャットボットは、機密情報に関わるタスクにますます使われつつあるため、チャットボットプロバイダがユーザーデータをどう扱うかというプライバシー上の懸念が高まっている。
これらの問題に対処するために、人気のあるチャットボットプラットフォームにおける匿名クエリを可能にするプライバシ強化システムであるProxyGPTを提案する。
ProxyGPTはボランティアプロキシを利用してユーザクエリを代行し、チャットボットユーザにネットワークレベルの匿名性を提供する。
このシステムは、TLSが支援するデータ証明、エンドツーエンドの暗号化、匿名支払いなどによるコンテンツ整合性、およびユーザビリティと持続可能性などの重要なセキュリティ特性をサポートするように設計されている。
本稿では,プライバシー,セキュリティ,整合性を徹底的に分析し,特にプライベートチャットボットクエリ合成分野における今後の研究の方向性を明らかにする。
われわれの人間による評価によると、従来のAIチャットボットと比較して、ProxyGPTはユーザーのアイデンティティをチャットボットプロバイダと共有することをためらうシナリオにおいて、ユーザーのプライバシー意識を高めることができる。
概念実証は一般的なチャットボットよりもレイテンシが高いが、人間のインタビュー参加者は、匿名性に対する許容できるトレードオフだと考えている。
私たちの知る限りでは、ProxyGPTはプライバシを保存するAIチャットボットのための、初めての包括的なプロキシベースのソリューションです。
私たちのコードベースはhttps://github.com/dzungvpham/proxygpt.comで公開されています。
関連論文リスト
- Bots can Snoop: Uncovering and Mitigating Privacy Risks of Bots in Group Chats [2.835537619294564]
SnoopGuardはグループメッセージングプロトコルで、強力なエンドツーエンドセキュリティを維持しながら、チャットボットに対するユーザのプライバシを保証する。
私たちのプロトタイプ実装では、メッセージレイヤセキュリティ(MLS)と統合された場合、50人のグループでメッセージを送信するのに約30ミリ秒かかります。
論文 参考訳(メタデータ) (2024-10-09T06:37:41Z) - Are LLM-based methods good enough for detecting unfair terms of service? [67.49487557224415]
大規模言語モデル(LLM)は、長いテキストベースの文書を解析するのに適している。
プライバシーポリシーの集合に対して個別に適用された12の質問からなるデータセットを構築します。
いくつかのオープンソースモデルは、いくつかの商用モデルと比較して高い精度を提供できる。
論文 参考訳(メタデータ) (2024-08-24T09:26:59Z) - WildChat: 1M ChatGPT Interaction Logs in the Wild [88.05964311416717]
WildChatは100万件のユーザー・チャットGPT会話のコーパスで、250万回以上のインタラクション・ターンで構成されている。
タイムスタンプによるチャットの書き起こしに加えて、州、国、ハッシュIPアドレスを含む人口統計データでデータセットを豊かにします。
論文 参考訳(メタデータ) (2024-05-02T17:00:02Z) - User Privacy Harms and Risks in Conversational AI: A Proposed Framework [1.8416014644193066]
本研究は、テキストベースのインタラクションにおいて、9つのプライバシ障害と9つのプライバシリスクを特定する。
目標は、開発者、政策立案者、研究者に会話AIの責任と安全な実装のためのツールを提供することだ。
論文 参考訳(メタデータ) (2024-02-15T05:21:58Z) - Evaluating Chatbots to Promote Users' Trust -- Practices and Open
Problems [11.427175278545517]
本稿では,チャットボットのテスト実践について概説する。
ギャップをユーザ信頼の追求におけるオープンな問題として認識する。
サービスや製品のパフォーマンス、ユーザの満足度、社会に対する長期的意図しない結果に関する信頼の問題を緩和するための道筋を概説する。
論文 参考訳(メタデータ) (2023-09-09T22:40:30Z) - ChatGPT for Us: Preserving Data Privacy in ChatGPT via Dialogue Text
Ambiguation to Expand Mental Health Care Delivery [52.73936514734762]
ChatGPTは人間のような対話を生成する能力で人気を集めている。
データに敏感なドメインは、プライバシとデータ所有に関する懸念から、ChatGPTを使用する際の課題に直面している。
ユーザのプライバシーを守るためのテキスト曖昧化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-19T02:09:52Z) - FedBot: Enhancing Privacy in Chatbots with Federated Learning [0.0]
Federated Learning(FL)は、データをその場所に保持する分散学習方法を通じて、データのプライバシを保護することを目的としている。
POCはDeep Bidirectional Transformerモデルとフェデレーション学習アルゴリズムを組み合わせて、コラボレーティブモデルトレーニング中の顧客のデータプライバシを保護する。
このシステムは、過去のインタラクションから学習する能力を活用することで、時間とともにパフォーマンスと精度を向上させるように設計されている。
論文 参考訳(メタデータ) (2023-04-04T23:13:52Z) - Cross-Network Social User Embedding with Hybrid Differential Privacy
Guarantees [81.6471440778355]
プライバシー保護方式でユーザを包括的に表現するために,ネットワーク横断型ソーシャルユーザ埋め込みフレームワークDP-CroSUEを提案する。
特に、各異種ソーシャルネットワークに対して、異種データ型に対するプライバシー期待の変化を捉えるために、まずハイブリッドな差分プライバシーの概念を導入する。
ユーザ埋め込みをさらに強化するため、新しいネットワーク間GCN埋め込みモデルは、それらの整列したユーザを介して、ネットワーク間で知識を伝達するように設計されている。
論文 参考訳(メタデータ) (2022-09-04T06:22:37Z) - CheerBots: Chatbots toward Empathy and Emotionusing Reinforcement
Learning [60.348822346249854]
本研究では,複数の共感型チャットボットがユーザの暗黙の感情を理解し,複数の対話のターンに対して共感的に応答する枠組みを提案する。
チャットボットをCheerBotsと呼びます。CheerBotsは検索ベースまたは生成ベースで、深い強化学習によって微調整されます。
共感的態度で反応するため,CheerBotsの学習支援としてシミュレーションエージェントである概念人間モデルを開発し,今後のユーザの感情状態の変化を考慮し,共感を喚起する。
論文 参考訳(メタデータ) (2021-10-08T07:44:47Z) - Put Chatbot into Its Interlocutor's Shoes: New Framework to Learn
Chatbot Responding with Intention [55.77218465471519]
本稿では,チャットボットに人間のような意図を持つための革新的なフレームワークを提案する。
我々のフレームワークには、ガイドロボットと人間の役割を担うインターロケータモデルが含まれていた。
本フレームワークを3つの実験的なセットアップを用いて検討し,4つの異なる指標を用いた誘導ロボットの評価を行い,柔軟性と性能の利点を実証した。
論文 参考訳(メタデータ) (2021-03-30T15:24:37Z) - Personalized Chatbot Trustworthiness Ratings [19.537492400265577]
我々は、各問題に対する個別の格付けモジュールに依存するチャットボットのためのパーソナライズされた格付け手法を構想する。
この方法は、特定の信頼問題とは独立しており、集計手順にパラメトリックである。
論文 参考訳(メタデータ) (2020-05-13T22:42:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。