論文の概要: Statistical Feature-based Personal Information Detection in Mobile
Network Traffic
- arxiv url: http://arxiv.org/abs/2112.12346v1
- Date: Thu, 23 Dec 2021 04:01:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-24 16:25:02.073587
- Title: Statistical Feature-based Personal Information Detection in Mobile
Network Traffic
- Title(参考訳): モバイルネットワークトラフィックにおける統計的特徴量に基づく個人情報検出
- Authors: Shuang Zhao, Shuhui Chen, Ziling Wei
- Abstract要約: 本稿では、交通における個人情報の発生パターンを統計的に表現するために、個人情報の統計的特徴を設計する。
検出器は機械学習アルゴリズムに基づいてトレーニングされ、同様のパターンで潜在的な個人情報を検出する。
われわれの知る限りでは、統計的特徴に基づいて個人情報を検出するのはこれが初めてだ。
- 参考スコア(独自算出の注目度): 13.568975395946433
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the popularity of smartphones, mobile applications (apps) have
penetrated the daily life of people. Although apps provide rich
functionalities, they also access a large amount of personal information
simultaneously. As a result, privacy concerns are raised. To understand what
personal information the apps collect, many solutions are presented to detect
privacy leaks in apps. Recently, the traffic monitoring-based privacy leak
detection method has shown promising performance and strong scalability.
However, it still has some shortcomings. Firstly, it suffers from detecting the
leakage of personal information with obfuscation. Secondly, it cannot discover
the privacy leaks of undefined type. Aiming at solving the above problems, a
new personal information detection method based on traffic monitoring is
proposed in this paper. In this paper, statistical features of personal
information are designed to depict the occurrence patterns of personal
information in the traffic, including local patterns and global patterns. Then
a detector is trained based on machine learning algorithms to discover
potential personal information with similar patterns. Since the statistical
features are independent of the value and type of personal information, the
trained detector is capable of identifying various types of privacy leaks and
obfuscated privacy leaks. As far as we know, this is the first work that
detects personal information based on statistical features. Finally, the
experimental results show that the proposed method could achieve better
performance than the state-of-the-art.
- Abstract(参考訳): スマートフォンの普及に伴い、モバイルアプリケーション(アプリ)は人々の日常生活に浸透してきた。
アプリは豊富な機能を提供しているが、同時に大量の個人情報にアクセスできる。
その結果、プライバシーの懸念が高まる。
アプリが収集する個人情報を理解するために、アプリのプライバシー漏洩を検出する多くのソリューションが提示される。
近年,トラフィック監視に基づくプライバシー漏洩検出手法が有望な性能とスケーラビリティを示している。
しかし、まだいくつかの欠点がある。
まず、難読化による個人情報の漏洩の検出に苦しむ。
第二に、未定義型のプライバシー漏洩を見つけることはできない。
本稿では,上記の問題を解決するために,交通監視に基づく新たな個人情報検出手法を提案する。
本稿では,局所的なパターンやグローバルなパターンを含む,交通における個人情報の発生パターンを統計的に表現するために,個人情報の統計的特徴を設計する。
次に、機械学習アルゴリズムに基づいて検知器を訓練し、同様のパターンで潜在的な個人情報を検出する。
統計的特徴は個人情報の価値と種類とは独立しているため、トレーニングされた検出器は様々な種類のプライバシーリークと難解なプライバシーリークを特定することができる。
われわれの知る限り、統計的特徴に基づいて個人情報を検出するのはこれが初めてだ。
その結果,提案手法は最先端の手法よりも優れた性能が得られることがわかった。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Collection, usage and privacy of mobility data in the enterprise and public administrations [55.2480439325792]
個人のプライバシーを守るためには、匿名化などのセキュリティ対策が必要である。
本研究では,現場における実践の洞察を得るために,専門家によるインタビューを行った。
我々は、一般的には最先端の差分プライバシー基準に準拠しない、使用中のプライバシー強化手法を調査した。
論文 参考訳(メタデータ) (2024-07-04T08:29:27Z) - Can Language Models be Instructed to Protect Personal Information? [30.187731765653428]
シミュレーションシナリオにおいて、モデルが特定の個人情報のカテゴリを保護するように指示されたとき、プライバシ/ユーティリティトレードオフを評価するためのベンチマークであるPrivQAを紹介します。
我々は,テキストや画像入力による単純なジェイルブレイク手法により,敵が容易にこれらの保護を回避できることを見出した。
PrivQAは、プライバシー保護を改善した新しいモデルの開発と、これらの保護の敵意的な堅牢性をサポートする可能性があると考えています。
論文 参考訳(メタデータ) (2023-10-03T17:30:33Z) - TeD-SPAD: Temporal Distinctiveness for Self-supervised
Privacy-preservation for video Anomaly Detection [59.04634695294402]
人間の監視のないビデオ異常検出(VAD)は複雑なコンピュータビジョンタスクである。
VADのプライバシー漏洩により、モデルは人々の個人情報に関連する不必要なバイアスを拾い上げ、増幅することができる。
本稿では,視覚的プライベート情報を自己管理的に破壊する,プライバシーに配慮したビデオ異常検出フレームワークTeD-SPADを提案する。
論文 参考訳(メタデータ) (2023-08-21T22:42:55Z) - A General Framework for Auditing Differentially Private Machine Learning [27.99806936918949]
本稿では,差分プライベートな学習者によって与えられるプライバシ保証を統計的に評価する枠組みを提案する。
本研究は、微分プライベート機械学習実装のプライバシを実証的に評価する一般的な手法を開発する。
論文 参考訳(メタデータ) (2022-10-16T21:34:18Z) - The Privacy Onion Effect: Memorization is Relative [76.46529413546725]
もっとも脆弱な外接点の"層"を取り除くことで、前もって安全だった点の新たな層を同じ攻撃に晒す。
これは、機械学習のようなプライバシー強化技術が、他のユーザーのプライバシーに悪影響を及ぼす可能性を示唆している。
論文 参考訳(メタデータ) (2022-06-21T15:25:56Z) - SPAct: Self-supervised Privacy Preservation for Action Recognition [73.79886509500409]
アクション認識におけるプライバシー漏洩を緩和するための既存のアプローチは、ビデオデータセットのアクションラベルとともに、プライバシラベルを必要とする。
自己教師付き学習(SSL)の最近の進歩は、未ラベルデータの未発見の可能性を解き放ちつつある。
本稿では、プライバシーラベルを必要とせず、自己管理的な方法で、入力ビデオからプライバシー情報を除去する新しいトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-29T02:56:40Z) - Active Privacy-Utility Trade-off Against Inference in Time-Series Data
Sharing [29.738666406095074]
我々は、誠実だが信頼できるサービスプロバイダ(SP)のサービスに見返りに、個人情報を含むデータを公開しているユーザについて検討する。
両問題を部分的に観測可能なマルコフ決定過程(POMDP)として定式化し,アクター・クリティック(A2C)深部強化学習(DRL)を用いて数値的に解いた。
本研究では,合成データと喫煙活動データセットの両方に対するポリシーのプライバシユーティリティトレードオフ(PUT)を評価し,長い短期記憶(LSTM)ニューラルネットワークでモデル化されたSPのアクティビティ検出精度をテストすることにより,その妥当性を示す。
論文 参考訳(メタデータ) (2022-02-11T18:57:31Z) - Towards a Data Privacy-Predictive Performance Trade-off [2.580765958706854]
分類タスクにおけるデータプライバシと予測性能のトレードオフの存在を評価する。
従来の文献とは異なり、プライバシーのレベルが高ければ高いほど、予測性能が向上することを確認した。
論文 参考訳(メタデータ) (2022-01-13T21:48:51Z) - Learning Language and Multimodal Privacy-Preserving Markers of Mood from
Mobile Data [74.60507696087966]
精神状態は、先進医療に共通する国でも診断されていない。
人間の行動を監視するための有望なデータソースのひとつは、日々のスマートフォンの利用だ。
本研究では,自殺行動のリスクが高い青少年集団の移動行動のデータセットを用いて,日常生活の行動マーカーについて検討した。
論文 参考訳(メタデータ) (2021-06-24T17:46:03Z) - Learning With Differential Privacy [3.618133010429131]
異なるプライバシーは、漏洩に対する適切な保護を約束して救助にやってくる。
データの収集時にランダムな応答技術を使用し、より優れたユーティリティで強力なプライバシを保証します。
論文 参考訳(メタデータ) (2020-06-10T02:04:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。