論文の概要: Bots can Snoop: Uncovering and Mitigating Privacy Risks of Bots in Group Chats
- arxiv url: http://arxiv.org/abs/2410.06587v2
- Date: Thu, 06 Feb 2025 05:58:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-07 14:29:08.689475
- Title: Bots can Snoop: Uncovering and Mitigating Privacy Risks of Bots in Group Chats
- Title(参考訳): ボットはスヌープできる - グループチャットにおけるボットのプライバシーリスクの発見と軽減
- Authors: Kai-Hsiang Chou, Yi-Min Lin, Yi-An Wang, Jonathan Weiping Li, Tiffany Hyun-Jin Kim, Hsu-Chun Hsiao,
- Abstract要約: SnoopGuardはセキュアなグループメッセージングプロトコルで、チャットボットに対するユーザのプライバシを保証する。
SnoopGuardは、$O(log n + m)$メッセージ送信の複雑さを、SoAプロトコルの$O(log n + m)$と比較して達成する。
- 参考スコア(独自算出の注目度): 2.835537619294564
- License:
- Abstract: New privacy concerns arise with chatbots on group messaging platforms. Chatbots may access information beyond their intended functionalities, such as sender identities or messages unintended for chatbots. Chatbot developers may exploit such information to infer personal information and link users across groups, potentially leading to data breaches, pervasive tracking, or targeted advertising. Our analysis of conversation datasets shows that (1) chatbots often access far more messages than needed, and (2) when a user joins a new group with chatbots, there is a 3.6% chance that at least one of the chatbots can recognize and associate the user with their previous interactions in other groups. Although state-of-the-art (SoA) group messaging protocols provide robust end-to-end encryption and some platforms have implemented policies to limit chatbot access, no platforms successfully combine these features. This paper introduces SnoopGuard, a secure group messaging protocol that ensures user privacy against chatbots while maintaining strong end-to-end security. Our protocol offers (1) selective message access, preventing chatbots from accessing unrelated messages, and (2) sender anonymity, hiding user identities from chatbots. SnoopGuard achieves $O(\log n + m)$ message-sending complexity for a group of $n$ users and $m$ chatbots, compared to $O(\log(n + m))$ in SoA protocols, with acceptable overhead for enhanced privacy. Our prototype implementation shows that sending a message to a group of 50 users and 10 chatbots takes about 10 milliseconds when integrated with Message Layer Security (MLS).
- Abstract(参考訳): グループメッセージングプラットフォーム上のチャットボットに、新たなプライバシー上の懸念が生じる。
チャットボットは、送信者のアイデンティティやチャットボットに意図しないメッセージなど、意図した機能以上の情報にアクセスすることができる。
チャットボット開発者は、そのような情報を利用して個人情報を推測し、グループ間でユーザーをリンクし、データ漏洩、広範追跡、ターゲット広告につながる可能性がある。
会話データセットの分析から,(1)チャットボットは,必要以上に多くのメッセージにアクセスすることが多く,(2)ユーザがチャットボットで新しいグループに参加すると,少なくとも1つのチャットボットが,他のグループにおける以前のインタラクションを認識,関連付けることができる可能性が3.6%あることがわかった。
最先端(SoA)グループメッセージングプロトコルは、堅牢なエンドツーエンド暗号化を提供し、チャットボットアクセスを制限するポリシーを実装しているプラットフォームもあるが、これらの機能をうまく組み合わせるプラットフォームはない。
本稿では,チャットボットに対するセキュアなグループメッセージングプロトコルであるSnoopGuardを紹介する。
本プロトコルは,(1)選択メッセージアクセス,チャットボットが無関係なメッセージにアクセスすることの防止,(2)送信者の匿名性,およびチャットボットからユーザIDを隠蔽する。
SnoopGuardは、$O(\log n + m)$メッセージ送信複雑性を$n$ユーザと$m$チャットボットのグループで達成している。
プロトタイプ実装では,Message Layer Security(MLS)を統合した場合,50ユーザと10人のチャットボットのグループにメッセージを送信するのに約10ミリ秒を要することが示されている。
関連論文リスト
- RICoTA: Red-teaming of In-the-wild Conversation with Test Attempts [6.0385743836962025]
RICoTAは、大言語モデル(LLM)に挑戦する609のプロンプトで構成される、韓国のレッドチームデータセットである。
われわれは、韓国のRedditのようなコミュニティに自己投稿されたユーザー・チャットボットの会話を活用している。
データセットはGitHubから公開されます。
論文 参考訳(メタデータ) (2025-01-29T15:32:27Z) - Exploring and Mitigating Adversarial Manipulation of Voting-Based Leaderboards [93.16294577018482]
このタイプの最も人気のあるベンチマークであるArenaは、ランダムに選択された2つのモデル間のより良いレスポンスを選択するようユーザに求めることで、モデルをランク付けする。
攻撃者は、約1000票の費用で、リーダーボードを変更できる(お気に入りのモデルを宣伝したり、ライバルを降格させる)。
私たちの攻撃は2つのステップで構成されている。まず、攻撃者が95%以上の精度で特定の応答を生成するためにどのモデルを使用したかを決定する方法を示し、次に、攻撃者はこの情報を使ってターゲットモデルに対して一貫して投票することができる。
論文 参考訳(メタデータ) (2025-01-13T17:12:38Z) - Are LLM-based methods good enough for detecting unfair terms of service? [67.49487557224415]
大規模言語モデル(LLM)は、長いテキストベースの文書を解析するのに適している。
プライバシーポリシーの集合に対して個別に適用された12の質問からなるデータセットを構築します。
いくつかのオープンソースモデルは、いくつかの商用モデルと比較して高い精度を提供できる。
論文 参考訳(メタデータ) (2024-08-24T09:26:59Z) - ProxyGPT: Enabling Anonymous Queries in AI Chatbots with (Un)Trustworthy Browser Proxies [12.552035175341894]
本稿では,人気チャットボットプラットフォームにおける匿名クエリを可能にするプライバシ強化システムであるProxyGPTを提案する。
このシステムはTLSが支援するデータ証明、エンドツーエンドの暗号化、匿名支払いといった重要なセキュリティ特性をサポートするように設計されている。
人間の評価によると、従来のAIチャットボットと比べて、ProxyGPTはユーザーのプライバシーの感覚を高める。
論文 参考訳(メタデータ) (2024-07-11T18:08:04Z) - WildChat: 1M ChatGPT Interaction Logs in the Wild [88.05964311416717]
WildChatは100万件のユーザー・チャットGPT会話のコーパスで、250万回以上のインタラクション・ターンで構成されている。
タイムスタンプによるチャットの書き起こしに加えて、州、国、ハッシュIPアドレスを含む人口統計データでデータセットを豊かにします。
論文 参考訳(メタデータ) (2024-05-02T17:00:02Z) - Rewarding Chatbots for Real-World Engagement with Millions of Users [1.2583983802175422]
本研究では,ユーザエンゲージメントを優先して保持性を高めるソーシャルチャットボットの開発について検討する。
提案手法では,ユーザインタラクションから収集した擬似ラベルを用いて報酬モデルのトレーニングを行う。
Chai Researchプラットフォーム上の1万人のデイリーチャットユーザを対象としたA/Bテストは、このアプローチがMCLを最大70%向上させることを示している。
今後の作業は、報酬モデルを使用してデータフライホイールを実現し、最新のユーザ会話を使用して、言語モデルと報酬モデルを交互に微調整することを目的としている。
論文 参考訳(メタデータ) (2023-03-10T18:53:52Z) - Neural Generation Meets Real People: Building a Social, Informative
Open-Domain Dialogue Agent [65.68144111226626]
Chirpy Cardinalは、情報と会話の両方をねらっている。
ユーザーとボットの両方を交互に会話に駆り立てる。
Chirpy Cardinalは、Alexa Prize Socialbot Grand Challengeで9つのボットのうち2位にランクインした。
論文 参考訳(メタデータ) (2022-07-25T09:57:23Z) - Put Chatbot into Its Interlocutor's Shoes: New Framework to Learn
Chatbot Responding with Intention [55.77218465471519]
本稿では,チャットボットに人間のような意図を持つための革新的なフレームワークを提案する。
我々のフレームワークには、ガイドロボットと人間の役割を担うインターロケータモデルが含まれていた。
本フレームワークを3つの実験的なセットアップを用いて検討し,4つの異なる指標を用いた誘導ロボットの評価を行い,柔軟性と性能の利点を実証した。
論文 参考訳(メタデータ) (2021-03-30T15:24:37Z) - Pchatbot: A Large-Scale Dataset for Personalized Chatbot [49.16746174238548]
本稿では,Weibo と Judicial のフォーラムから収集した2つのサブセットを含む大規模対話データセットである Pchatbot を紹介する。
生データセットを対話システムに適応させるため、匿名化などのプロセスを通じて生データセットを精巧に正規化する。
Pchatbotのスケールは、既存の中国のデータセットよりも大幅に大きく、データ駆動モデルの恩恵を受ける可能性がある。
論文 参考訳(メタデータ) (2020-09-28T12:49:07Z) - Personalized Chatbot Trustworthiness Ratings [19.537492400265577]
我々は、各問題に対する個別の格付けモジュールに依存するチャットボットのためのパーソナライズされた格付け手法を構想する。
この方法は、特定の信頼問題とは独立しており、集計手順にパラメトリックである。
論文 参考訳(メタデータ) (2020-05-13T22:42:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。