論文の概要: One Size Fits All? A Modular Adaptive Sanitization Kit (MASK) for Customizable Privacy-Preserving Phone Scam Detection
- arxiv url: http://arxiv.org/abs/2510.18493v1
- Date: Tue, 21 Oct 2025 10:30:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:13.428034
- Title: One Size Fits All? A Modular Adaptive Sanitization Kit (MASK) for Customizable Privacy-Preserving Phone Scam Detection
- Title(参考訳): 1つのサイズがすべて? カスタマイズ可能なプライバシ保護電話カメラ検出のためのモジュール適応衛生キット(MASK)
- Authors: Kangzhong Wang, Zitong Shen, Youqian Zhang, Michael MK Cheung, Xiapu Luo, Grace Ngai, Eugene Yujun Fu,
- Abstract要約: 携帯電話の詐欺は、世界中の個人的安全と金融の安全の両方にとって大きな脅威だ。
大規模言語モデル(LLMs)の最近の進歩は、書き起こされた電話会話を分析して不正行為を検出する強力な可能性を示している。
LLMは、処理中にサードパーティのサービスプロバイダに暴露される可能性のある機密性の高い個人情報を含むことが多いため、顕著なプライバシーリスクを導入している。
個人の好みに基づいた動的プライバシ調整を実現するためのトレーニング可能なフレームワークであるMASKを提案する。
- 参考スコア(独自算出の注目度): 32.85893058597231
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Phone scams remain a pervasive threat to both personal safety and financial security worldwide. Recent advances in large language models (LLMs) have demonstrated strong potential in detecting fraudulent behavior by analyzing transcribed phone conversations. However, these capabilities introduce notable privacy risks, as such conversations frequently contain sensitive personal information that may be exposed to third-party service providers during processing. In this work, we explore how to harness LLMs for phone scam detection while preserving user privacy. We propose MASK (Modular Adaptive Sanitization Kit), a trainable and extensible framework that enables dynamic privacy adjustment based on individual preferences. MASK provides a pluggable architecture that accommodates diverse sanitization methods - from traditional keyword-based techniques for high-privacy users to sophisticated neural approaches for those prioritizing accuracy. We also discuss potential modeling approaches and loss function designs for future development, enabling the creation of truly personalized, privacy-aware LLM-based detection systems that balance user trust and detection effectiveness, even beyond phone scam context.
- Abstract(参考訳): 携帯電話の詐欺は、世界中の個人的安全と金融の安全の両方にとって大きな脅威だ。
大規模言語モデル(LLMs)の最近の進歩は、書き起こされた電話会話を分析して不正行為を検出する強力な可能性を示している。
しかしながら、これらの機能は、処理中にサードパーティのサービスプロバイダに暴露される可能性のある機密性の高い個人情報を含むことが多いため、顕著なプライバシーリスクをもたらす。
本研究では,ユーザプライバシを保護しながら,携帯電話の盗聴検出にLLMを利用する方法について検討する。
個別の嗜好に基づいた動的プライバシ調整を可能にするトレーニング可能な拡張可能なフレームワークであるMASK(Modular Adaptive Sanitization Kit)を提案する。
MASKは、ハイプライバシユーザのための従来のキーワードベースのテクニックから、精度を優先する人たちのための洗練されたニューラルネットワークアプローチまで、さまざまな衛生手法に対応するプラグイン可能なアーキテクチャを提供する。
また、将来の開発に向けた潜在的なモデリング手法や損失関数の設計についても論じ、電話詐欺の文脈を超えても、ユーザの信頼と検出効率のバランスをとる、真のパーソナライズされたプライバシを意識したLLMベースの検知システムの構築を可能にする。
関連論文リスト
- Guarding Your Conversations: Privacy Gatekeepers for Secure Interactions with Cloud-Based AI Models [0.34998703934432673]
ユーザクエリから機密情報をフィルタリングする,軽量でローカルな実行モデルであるLLMゲートキーパのコンセプトを提案する。
人間の被験者による実験を通して、この二重モデルアプローチは、LLM応答の品質を損なうことなく、ユーザのプライバシーを大幅に向上させながら、最小限のオーバーヘッドをもたらすことを示した。
論文 参考訳(メタデータ) (2025-08-22T19:49:03Z) - A Framework to Prevent Biometric Data Leakage in the Immersive Technologies Domain [11.378592130605929]
サイコグラフィーデータ(音声コマンド機能、顔のダイナミックスなど)はセンシティブなデータであり、ユーザーの同意なしにデバイスから漏れてはならない。
我々は没入型技術領域における機密データ(またはバイオメトリックデータ)のプライバシー漏洩を軽減するためのシンプルな技術フレームワークを開発する。
論文 参考訳(メタデータ) (2025-05-07T04:35:32Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - Preserving Privacy in Large Language Models: A Survey on Current Threats and Solutions [12.451936012379319]
大規模言語モデル(LLM)は、人工知能の大幅な進歩を表し、様々な領域にまたがる応用を見つける。
トレーニングのための大規模なインターネットソースデータセットへの依存は、注目すべきプライバシー問題を引き起こす。
特定のアプリケーション固有のシナリオでは、これらのモデルをプライベートデータで微調整する必要があります。
論文 参考訳(メタデータ) (2024-08-10T05:41:19Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - Can Language Models be Instructed to Protect Personal Information? [30.187731765653428]
シミュレーションシナリオにおいて、モデルが特定の個人情報のカテゴリを保護するように指示されたとき、プライバシ/ユーティリティトレードオフを評価するためのベンチマークであるPrivQAを紹介します。
我々は,テキストや画像入力による単純なジェイルブレイク手法により,敵が容易にこれらの保護を回避できることを見出した。
PrivQAは、プライバシー保護を改善した新しいモデルの開発と、これらの保護の敵意的な堅牢性をサポートする可能性があると考えています。
論文 参考訳(メタデータ) (2023-10-03T17:30:33Z) - OPOM: Customized Invisible Cloak towards Face Privacy Protection [58.07786010689529]
我々は、新しいタイプのカスタマイズクロークに基づく技術の観点から、顔のプライバシ保護について検討する。
本研究では,個人固有の(クラスワイドな)ユニバーサルマスクを生成するために,1人1マスク(OPOM)という新しい手法を提案する。
提案手法の有効性を,共通データセットと有名データセットの両方で評価した。
論文 参考訳(メタデータ) (2022-05-24T11:29:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。