論文の概要: Bots can Snoop: Uncovering and Mitigating Privacy Risks of Bots in Group Chats
- arxiv url: http://arxiv.org/abs/2410.06587v1
- Date: Wed, 9 Oct 2024 06:37:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-01 04:49:21.918989
- Title: Bots can Snoop: Uncovering and Mitigating Privacy Risks of Bots in Group Chats
- Title(参考訳): ボットはスヌープできる - グループチャットにおけるボットのプライバシーリスクの発見と軽減
- Authors: Kai-Hsiang Chou, Yi-Min Lin, Yi-An Wang, Jonathan Weiping Li, Tiffany Hyun-Jin Kim, Hsu-Chun Hsiao,
- Abstract要約: SnoopGuardはグループメッセージングプロトコルで、強力なエンドツーエンドセキュリティを維持しながら、チャットボットに対するユーザのプライバシを保証する。
私たちのプロトタイプ実装では、メッセージレイヤセキュリティ(MLS)と統合された場合、50人のグループでメッセージを送信するのに約30ミリ秒かかります。
- 参考スコア(独自算出の注目度): 2.835537619294564
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: New privacy concerns arise with chatbots on group messaging platforms. Chatbots may access information beyond their intended functionalities, such as messages unintended for chatbots or sender's identities. Chatbot operators may exploit such information to infer personal information and link users across groups, potentially leading to personal data breaches, pervasive tracking, and targeted advertising. Our analysis of conversation datasets shows that (1) chatbots often access far more messages than needed, and (2) when a user joins a new group with chatbots, there is a 3.4% chance that at least one of the chatbots can recognize and associate the user with their previous interactions in other groups. Although state-of-the-art group messaging protocols provide robust end-to-end security and some platforms have implemented policies to limit chatbot access, no platforms successfully combine these features. This paper introduces SnoopGuard, a secure group messaging protocol that ensures user privacy against chatbots while maintaining strong end-to-end security. Our method offers selective message access, preventing chatbots from accessing unrelated messages, and ensures sender anonymity within the group. SnoopGuard achieves $O(\log n + m)$ message-sending complexity for a group of $n$ users and $m$ chatbots, compared to $O(\log(n + m))$ in state-of-the-art protocols, with acceptable overhead for enhanced privacy. Our prototype implementation shows that sending a message in a group of 50 users and 10 chatbots takes about 30 milliseconds when integrated with Message Layer Security (MLS).
- Abstract(参考訳): グループメッセージングプラットフォーム上のチャットボットに、新たなプライバシー上の懸念が生じる。
チャットボットは、チャットボットや送信者のアイデンティティに意図しないメッセージなど、意図した機能以上の情報にアクセスすることができる。
チャットボットオペレーターは、そのような情報を利用して個人情報を推測し、グループ間でユーザーをリンクし、個人データ漏洩、広範囲な追跡、ターゲット広告につながる可能性がある。
会話データセットの分析から,(1)チャットボットは,必要以上に多くのメッセージにアクセスすることが多く,(2)ユーザがチャットボットで新しいグループに参加すると,少なくとも1つのチャットボットが,他のグループで以前のインタラクションを認識,関連付けることができる可能性が3.4%あることがわかった。
最先端のグループメッセージングプロトコルは、堅牢なエンドツーエンドセキュリティを提供し、チャットボットアクセスを制限するポリシーを実装しているプラットフォームもあるが、これらの機能をうまく組み合わせるプラットフォームは存在しない。
本稿では,チャットボットに対するセキュアなグループメッセージングプロトコルであるSnoopGuardを紹介する。
提案手法は、選択的なメッセージアクセスを提供し、チャットボットが無関係なメッセージにアクセスするのを防ぎ、グループ内の送信者の匿名性を保証する。
SnoopGuardは、$O(\log n + m)$メッセージ送信複雑性を$n$ユーザと$m$チャットボットのグループで達成している。
プロトタイプ実装では,Message Layer Security(MLS)を統合した場合,50ユーザと10のチャットボットからなるグループでメッセージを送信するのに約30ミリ秒を要することが示された。
関連論文リスト
- Are LLM-based methods good enough for detecting unfair terms of service? [67.49487557224415]
大規模言語モデル(LLM)は、長いテキストベースの文書を解析するのに適している。
プライバシーポリシーの集合に対して個別に適用された12の質問からなるデータセットを構築します。
いくつかのオープンソースモデルは、いくつかの商用モデルと比較して高い精度を提供できる。
論文 参考訳(メタデータ) (2024-08-24T09:26:59Z) - ProxyGPT: Enabling Anonymous Queries in AI Chatbots with (Un)Trustworthy Browser Proxies [12.552035175341894]
本稿では,人気チャットボットプラットフォームにおける匿名クエリを可能にするプライバシ強化システムであるProxyGPTを提案する。
このシステムはTLSが支援するデータ証明、エンドツーエンドの暗号化、匿名支払いといった重要なセキュリティ特性をサポートするように設計されている。
人間の評価によると、従来のAIチャットボットと比べて、ProxyGPTはユーザーのプライバシーの感覚を高める。
論文 参考訳(メタデータ) (2024-07-11T18:08:04Z) - WildChat: 1M ChatGPT Interaction Logs in the Wild [88.05964311416717]
WildChatは100万件のユーザー・チャットGPT会話のコーパスで、250万回以上のインタラクション・ターンで構成されている。
タイムスタンプによるチャットの書き起こしに加えて、州、国、ハッシュIPアドレスを含む人口統計データでデータセットを豊かにします。
論文 参考訳(メタデータ) (2024-05-02T17:00:02Z) - FedBot: Enhancing Privacy in Chatbots with Federated Learning [0.0]
Federated Learning(FL)は、データをその場所に保持する分散学習方法を通じて、データのプライバシを保護することを目的としている。
POCはDeep Bidirectional Transformerモデルとフェデレーション学習アルゴリズムを組み合わせて、コラボレーティブモデルトレーニング中の顧客のデータプライバシを保護する。
このシステムは、過去のインタラクションから学習する能力を活用することで、時間とともにパフォーマンスと精度を向上させるように設計されている。
論文 参考訳(メタデータ) (2023-04-04T23:13:52Z) - Rewarding Chatbots for Real-World Engagement with Millions of Users [1.2583983802175422]
本研究では,ユーザエンゲージメントを優先して保持性を高めるソーシャルチャットボットの開発について検討する。
提案手法では,ユーザインタラクションから収集した擬似ラベルを用いて報酬モデルのトレーニングを行う。
Chai Researchプラットフォーム上の1万人のデイリーチャットユーザを対象としたA/Bテストは、このアプローチがMCLを最大70%向上させることを示している。
今後の作業は、報酬モデルを使用してデータフライホイールを実現し、最新のユーザ会話を使用して、言語モデルと報酬モデルを交互に微調整することを目的としている。
論文 参考訳(メタデータ) (2023-03-10T18:53:52Z) - Neural Generation Meets Real People: Building a Social, Informative
Open-Domain Dialogue Agent [65.68144111226626]
Chirpy Cardinalは、情報と会話の両方をねらっている。
ユーザーとボットの両方を交互に会話に駆り立てる。
Chirpy Cardinalは、Alexa Prize Socialbot Grand Challengeで9つのボットのうち2位にランクインした。
論文 参考訳(メタデータ) (2022-07-25T09:57:23Z) - You Don't Know My Favorite Color: Preventing Dialogue Representations
from Revealing Speakers' Private Personas [44.82330540456883]
簡単なニューラルネットワークを用いて話者のペルソナを高精度に推定可能であることを示す。
提案する防衛目標が,攻撃精度を37.6%から0.5%に大幅に低減できることを示すため,広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-04-26T09:36:18Z) - Put Chatbot into Its Interlocutor's Shoes: New Framework to Learn
Chatbot Responding with Intention [55.77218465471519]
本稿では,チャットボットに人間のような意図を持つための革新的なフレームワークを提案する。
我々のフレームワークには、ガイドロボットと人間の役割を担うインターロケータモデルが含まれていた。
本フレームワークを3つの実験的なセットアップを用いて検討し,4つの異なる指標を用いた誘導ロボットの評価を行い,柔軟性と性能の利点を実証した。
論文 参考訳(メタデータ) (2021-03-30T15:24:37Z) - Pchatbot: A Large-Scale Dataset for Personalized Chatbot [49.16746174238548]
本稿では,Weibo と Judicial のフォーラムから収集した2つのサブセットを含む大規模対話データセットである Pchatbot を紹介する。
生データセットを対話システムに適応させるため、匿名化などのプロセスを通じて生データセットを精巧に正規化する。
Pchatbotのスケールは、既存の中国のデータセットよりも大幅に大きく、データ駆動モデルの恩恵を受ける可能性がある。
論文 参考訳(メタデータ) (2020-09-28T12:49:07Z) - Personalized Chatbot Trustworthiness Ratings [19.537492400265577]
我々は、各問題に対する個別の格付けモジュールに依存するチャットボットのためのパーソナライズされた格付け手法を構想する。
この方法は、特定の信頼問題とは独立しており、集計手順にパラメトリックである。
論文 参考訳(メタデータ) (2020-05-13T22:42:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。