論文の概要: Privacy Information Classification: A Hybrid Approach
- arxiv url: http://arxiv.org/abs/2101.11574v1
- Date: Wed, 27 Jan 2021 18:03:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-02 00:30:15.398067
- Title: Privacy Information Classification: A Hybrid Approach
- Title(参考訳): プライバシ情報の分類: ハイブリッドアプローチ
- Authors: Jiaqi Wu, Weihua Li, Quan Bai, Takayuki Ito, Ahmed Moustafa
- Abstract要約: 本研究は,OSNからプライバシ情報を検出し,分類するためのハイブリッドプライバシ分類手法を提案する。
提案したハイブリッドアプローチは、プライバシー関連の情報抽出にディープラーニングモデルとオントロジーベースのモデルの両方を用いる。
- 参考スコア(独自算出の注目度): 9.642559585173517
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A large amount of information has been published to online social networks
every day. Individual privacy-related information is also possibly disclosed
unconsciously by the end-users. Identifying privacy-related data and protecting
the online social network users from privacy leakage turn out to be
significant. Under such a motivation, this study aims to propose and develop a
hybrid privacy classification approach to detect and classify privacy
information from OSNs. The proposed hybrid approach employs both deep learning
models and ontology-based models for privacy-related information extraction.
Extensive experiments are conducted to validate the proposed hybrid approach,
and the empirical results demonstrate its superiority in assisting online
social network users against privacy leakage.
- Abstract(参考訳): 毎日大量の情報がオンラインソーシャルネットワークに公開されています。
個人のプライバシー関連の情報は、エンドユーザによって無意識に開示されることもある。
プライバシー関連のデータを識別し、オンラインソーシャルネットワークのユーザーをプライバシーの漏洩から保護することが重要になった。
そこで本研究では,OSNからプライバシー情報を検出・分類するハイブリッドプライバシー分類手法を提案する。
提案されたハイブリッドアプローチは、プライバシー関連の情報抽出にディープラーニングモデルとオントロジベースのモデルの両方を用いる。
提案したハイブリッドアプローチを検証するため,大規模な実験を行い,オンラインソーシャルネットワーク利用者のプライバシー侵害対策における優位性を実証した。
関連論文リスト
- Model Inversion Attacks: A Survey of Approaches and Countermeasures [59.986922963781]
近年、新しいタイプのプライバシ攻撃であるモデル反転攻撃(MIA)は、トレーニングのためのプライベートデータの機密性を抽出することを目的としている。
この重要性にもかかわらず、総合的な概要とMIAに関する深い洞察を提供する体系的な研究が欠如している。
本調査は、攻撃と防御の両方において、最新のMIA手法を要約することを目的としている。
論文 参考訳(メタデータ) (2024-11-15T08:09:28Z) - Unveiling Privacy Vulnerabilities: Investigating the Role of Structure in Graph Data [17.11821761700748]
本研究では,ネットワーク構造から生じるプライバシーリスクに対する理解と保護を推し進める。
我々は,ネットワーク構造によるプライバシー漏洩の可能性を評価するための重要なツールとして機能する,新しいグラフプライベート属性推論攻撃を開発した。
攻撃モデルはユーザのプライバシに重大な脅威を与え,グラフデータ公開手法は最適なプライバシとユーティリティのトレードオフを実現する。
論文 参考訳(メタデータ) (2024-07-26T07:40:54Z) - A Survey of Privacy-Preserving Model Explanations: Privacy Risks, Attacks, and Countermeasures [50.987594546912725]
AIのプライバシと説明可能性に関する研究が増えているにもかかわらず、プライバシを保存するモデル説明にはほとんど注意が払われていない。
本稿では,モデル説明に対するプライバシ攻撃とその対策に関する,最初の徹底的な調査を紹介する。
論文 参考訳(メタデータ) (2024-03-31T12:44:48Z) - When Graph Convolution Meets Double Attention: Online Privacy Disclosure Detection with Multi-Label Text Classification [6.700420953065072]
影響を受ける人々やオンラインプラットフォームに警告する上で、このような望ましくないプライバシー開示を検出することが重要です。
本稿では,多ラベルテキスト分類問題としてプライバシ開示検出をモデル化する。
オンラインプライバシ開示を検出するMLTC分類器を構築するために,新たなプライバシ開示検出モデルを提案する。
論文 参考訳(メタデータ) (2023-11-27T15:25:17Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Momentum Gradient Descent Federated Learning with Local Differential
Privacy [10.60240656423935]
ビッグデータの時代、個人情報のプライバシーはより顕著になった。
本稿では,機械学習モデルの性能向上のために,フェデレーション学習と局所差分プライバシーをモーメント勾配勾配下で統合することを提案する。
論文 参考訳(メタデータ) (2022-09-28T13:30:38Z) - Cross-Network Social User Embedding with Hybrid Differential Privacy
Guarantees [81.6471440778355]
プライバシー保護方式でユーザを包括的に表現するために,ネットワーク横断型ソーシャルユーザ埋め込みフレームワークDP-CroSUEを提案する。
特に、各異種ソーシャルネットワークに対して、異種データ型に対するプライバシー期待の変化を捉えるために、まずハイブリッドな差分プライバシーの概念を導入する。
ユーザ埋め込みをさらに強化するため、新しいネットワーク間GCN埋め込みモデルは、それらの整列したユーザを介して、ネットワーク間で知識を伝達するように設計されている。
論文 参考訳(メタデータ) (2022-09-04T06:22:37Z) - The Privacy Onion Effect: Memorization is Relative [76.46529413546725]
もっとも脆弱な外接点の"層"を取り除くことで、前もって安全だった点の新たな層を同じ攻撃に晒す。
これは、機械学習のようなプライバシー強化技術が、他のユーザーのプライバシーに悪影響を及ぼす可能性を示唆している。
論文 参考訳(メタデータ) (2022-06-21T15:25:56Z) - Applications of Differential Privacy in Social Network Analysis: A
Survey [60.696428840516724]
差別化プライバシは、情報を共有し、強力な保証でプライバシを保存するのに有効である。
ソーシャルネットワーク分析は多くのアプリケーションで広く採用されており、差分プライバシーの応用のための新たな領域が開かれた。
論文 参考訳(メタデータ) (2020-10-06T19:06:03Z) - Learning With Differential Privacy [3.618133010429131]
異なるプライバシーは、漏洩に対する適切な保護を約束して救助にやってくる。
データの収集時にランダムな応答技術を使用し、より優れたユーティリティで強力なプライバシを保証します。
論文 参考訳(メタデータ) (2020-06-10T02:04:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。