論文の概要: Dynamic User-controllable Privacy-preserving Few-shot Sensing Framework
- arxiv url: http://arxiv.org/abs/2508.03989v1
- Date: Wed, 06 Aug 2025 00:44:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-07 20:09:22.482087
- Title: Dynamic User-controllable Privacy-preserving Few-shot Sensing Framework
- Title(参考訳): 動的ユーザ制御型プライバシー保護Few-shot Sensing Framework
- Authors: Ajesh Koyatan Chathoth, Shuhao Yu, Stephen Lee,
- Abstract要約: PrivCLIPは、ユーザコントロール可能な、数ショットのプライバシ保護センシングフレームワークである。
PrivCLIPを使えば、ユーザーはアクティビティを機密性(ブラックリスト)、非機密性(ホワイトリスト)、中立性(グレイリスト)と分類することで、プライバシの好みを指定および変更することができる。
- 参考スコア(独自算出の注目度): 0.589889361990138
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: User-controllable privacy is important in modern sensing systems, as privacy preferences can vary significantly from person to person and may evolve over time. This is especially relevant in devices equipped with Inertial Measurement Unit (IMU) sensors, such as smartphones and wearables, which continuously collect rich time-series data that can inadvertently expose sensitive user behaviors. While prior work has proposed privacy-preserving methods for sensor data, most rely on static, predefined privacy labels or require large quantities of private training data, limiting their adaptability and user agency. In this work, we introduce PrivCLIP, a dynamic, user-controllable, few-shot privacy-preserving sensing framework. PrivCLIP allows users to specify and modify their privacy preferences by categorizing activities as sensitive (black-listed), non-sensitive (white-listed), or neutral (gray-listed). Leveraging a multimodal contrastive learning approach, PrivCLIP aligns IMU sensor data with natural language activity descriptions in a shared embedding space, enabling few-shot detection of sensitive activities. When a privacy-sensitive activity is identified, the system uses a language-guided activity sanitizer and a motion generation module (IMU-GPT) to transform the original data into a privacy-compliant version that semantically resembles a non-sensitive activity. We evaluate PrivCLIP on multiple human activity recognition datasets and demonstrate that it significantly outperforms baseline methods in terms of both privacy protection and data utility.
- Abstract(参考訳): ユーザコントロール可能なプライバシは、現代的なセンシングシステムにおいて重要である。
これは、スマートフォンやウェアラブルのような慣性計測ユニット(IMU)センサーを装備したデバイスにおいて特に関係がある。
これまでの作業では、センサデータのプライバシ保存方法が提案されていたが、ほとんどの場合、静的で事前定義されたプライバシラベルに依存しているか、あるいは大量のプライベートトレーニングデータを必要とするため、適応性とユーザエージェンシーが制限されている。
本研究では,動的でユーザ制御可能な,数ショットのプライバシ保存型センシングフレームワークであるPrivCLIPを紹介する。
PrivCLIPを使用することで、ユーザーはアクティビティを機密性(ブラックリスト)、非機密性(ホワイトリスト)、中立性(グレイリスト)と分類することで、プライバシの好みを指定および変更することができる。
マルチモーダルなコントラスト学習アプローチを活用することで、PrivCLIPはIMUセンサデータを、共有埋め込み空間内の自然言語アクティビティ記述と整合させ、機密アクティビティの少数ショット検出を可能にする。
プライバシに敏感なアクティビティが特定されると、言語誘導型アクティビティサニタイザとモーション生成モジュール(IMU-GPT)を使用して、元のデータを意味的に非敏感なアクティビティに類似したプライバシに適合したバージョンに変換する。
複数の人的活動認識データセット上でPrivCLIPを評価し,プライバシ保護とデータユーティリティの両方の観点から,ベースライン手法を著しく上回っていることを実証した。
関連論文リスト
- Inference Privacy: Properties and Mechanisms [8.471466670802817]
推論プライバシ(IP)は、推論時にユーザのデータに対して厳格なプライバシ保証を提供しながら、モデルと対話することを可能にする。
本稿では,ユーザがカスタマイズ可能な入力摂動と出力摂動という,IPを実現するための2つのメカニズムを提案する。
論文 参考訳(メタデータ) (2024-11-27T20:47:28Z) - FT-PrivacyScore: Personalized Privacy Scoring Service for Machine Learning Participation [4.772368796656325]
実際には、制御されたデータアクセスは、多くの産業や研究環境でデータプライバシを保護する主要な方法である。
我々は,FT-PrivacyScoreのプロトタイプを開発し,モデル微調整作業に参加する際のプライバシーリスクを効率よく定量的に推定できることを実証した。
論文 参考訳(メタデータ) (2024-10-30T02:41:26Z) - Activity Recognition on Avatar-Anonymized Datasets with Masked Differential Privacy [64.32494202656801]
プライバシを保存するコンピュータビジョンは、機械学習と人工知能において重要な問題である。
本稿では,ビデオデータセット中の感性のある被験者を文脈内の合成アバターに置き換える匿名化パイプラインを提案する。
また、匿名化されていないがプライバシーに敏感な背景情報を保護するため、MaskDPを提案する。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Protecting Activity Sensing Data Privacy Using Hierarchical Information Dissociation [8.584570228761503]
スマートフォンやウェアラブルデバイスは私たちの日常生活に統合され、パーソナライズされたサービスを提供している。
多くのアプリは、収集されたセンシングデータが不必要な機密情報を含んでいるため、過小評価される。
既存の方法はプライベートラベルを取得しなければならず、ユーザーはプライバシポリシーを指定する必要がある。
プライベートメタデータや多粒度アクティビティ情報を含む階層情報を解離するために,Hippoを提案する。
論文 参考訳(メタデータ) (2024-09-04T15:38:00Z) - Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - Privacy Preserving Large Language Models: ChatGPT Case Study Based Vision and Framework [6.828884629694705]
本稿では,LLMのプライバシ生成モデルであるPrivChatGPTという概念モデルを提案する。
PrivChatGPTは、データキュレーション/前処理中にユーザのプライバシを保護し、プライベートコンテキストの保存と大規模データのプライベートトレーニングプロセスという2つの主要コンポーネントから構成される。
論文 参考訳(メタデータ) (2023-10-19T06:55:13Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - SPAct: Self-supervised Privacy Preservation for Action Recognition [73.79886509500409]
アクション認識におけるプライバシー漏洩を緩和するための既存のアプローチは、ビデオデータセットのアクションラベルとともに、プライバシラベルを必要とする。
自己教師付き学習(SSL)の最近の進歩は、未ラベルデータの未発見の可能性を解き放ちつつある。
本稿では、プライバシーラベルを必要とせず、自己管理的な方法で、入力ビデオからプライバシー情報を除去する新しいトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-29T02:56:40Z) - Partial sensitivity analysis in differential privacy [58.730520380312676]
それぞれの入力特徴が個人のプライバシ損失に与える影響について検討する。
プライベートデータベース上でのクエリに対する我々のアプローチを実験的に評価する。
また、合成データにおけるニューラルネットワークトレーニングの文脈における知見についても検討する。
論文 参考訳(メタデータ) (2021-09-22T08:29:16Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。