論文の概要: Community Detection for Access-Control Decisions: Analysing the Role of
Homophily and Information Diffusion in Online Social Networks
- arxiv url: http://arxiv.org/abs/2104.09137v2
- Date: Mon, 7 Jun 2021 08:55:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-03 04:48:45.443485
- Title: Community Detection for Access-Control Decisions: Analysing the Role of
Homophily and Information Diffusion in Online Social Networks
- Title(参考訳): アクセス制御決定のためのコミュニティ検出:オンラインソーシャルネットワークにおけるホモフィリと情報拡散の役割の分析
- Authors: Nicolas E. Diaz Ferreyra, Tobias Hecking, Esma A\"imeur, Maritta
Heisel, and H. Ulrich Hoppe
- Abstract要約: ACL(Access-Control Lists)は、オンラインソーシャルネットワーク(OSN)の最も重要なプライバシー機能のひとつである。
本研究は,OSNにおけるACLの自動生成におけるコミュニティ検出アルゴリズムの利用について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Access-Control Lists (ACLs) (a.k.a. friend lists) are one of the most
important privacy features of Online Social Networks (OSNs) as they allow users
to restrict the audience of their publications. Nevertheless, creating and
maintaining custom ACLs can introduce a high cognitive burden on average OSNs
users since it normally requires assessing the trustworthiness of a large
number of contacts. In principle, community detection algorithms can be
leveraged to support the generation of ACLs by mapping a set of examples (i.e.
contacts labelled as untrusted) to the emerging communities inside the user's
ego-network. However, unlike users' access-control preferences, traditional
community-detection algorithms do not take the homophily characteristics of
such communities into account (i.e. attributes shared among members).
Consequently, this strategy may lead to inaccurate ACL configurations and
privacy breaches under certain homophily scenarios. This work investigates the
use of community-detection algorithms for the automatic generation of ACLs in
OSNs. Particularly, it analyses the performance of the aforementioned approach
under different homophily conditions through a simulation model. Furthermore,
since private information may reach the scope of untrusted recipients through
the re-sharing affordances of OSNs, information diffusion processes are also
modelled and taken explicitly into account. Altogether, the removal of
gatekeeper nodes is further explored as a strategy to counteract unwanted data
dissemination.
- Abstract(参考訳): アクセス制御リスト(ACL、Access-Control Lists)は、オンラインソーシャルネットワーク(OSN)の最も重要なプライバシー機能の一つであり、ユーザーが出版物のオーディエンスを制限することができる。
それでも、カスタムACLの作成とメンテナンスは、多くの連絡先の信頼性を評価する必要があるため、平均的なOSNユーザに高い認知的負担をもたらす可能性がある。
原則として、コミュニティ検出アルゴリズムは、ユーザのego-network内の新興コミュニティに一連の例(信頼できないとラベル付けされた連絡先)をマッピングすることで、ACLの生成を支援するために利用することができる。
しかし、アクセス制御の好みとは異なり、従来のコミュニティ検出アルゴリズムはそのようなコミュニティのホモフィリな特徴を考慮に入れていない(つまり、メンバー間で共有される属性)。
したがって、この戦略は特定のホモフィリーシナリオの下でacl設定の不正確さやプライバシー侵害につながる可能性がある。
本研究は,OSNにおけるACLの自動生成におけるコミュニティ検出アルゴリズムの利用について検討する。
特に, シミュレーションモデルを用いて, 異なるホモフィリー条件下での上記のアプローチの性能を解析した。
さらに、個人情報はOSNの再共有による信頼できない受信者の範囲に達する可能性があるため、情報拡散プロセスもモデル化され、明示的に考慮される。
さらに、ゲートキーパーノードの削除は、不要なデータ拡散に対抗する戦略として検討されている。
関連論文リスト
- Unveiling Privacy Vulnerabilities: Investigating the Role of Structure in Graph Data [17.11821761700748]
本研究では,ネットワーク構造から生じるプライバシーリスクに対する理解と保護を推し進める。
我々は,ネットワーク構造によるプライバシー漏洩の可能性を評価するための重要なツールとして機能する,新しいグラフプライベート属性推論攻撃を開発した。
攻撃モデルはユーザのプライバシに重大な脅威を与え,グラフデータ公開手法は最適なプライバシとユーティリティのトレードオフを実現する。
論文 参考訳(メタデータ) (2024-07-26T07:40:54Z) - PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - Privacy Preserving Semi-Decentralized Mean Estimation over Intermittently-Connected Networks [59.43433767253956]
信頼できない無線ネットワークの異なるノードに分散するベクトルの平均をプライベートに推定する問題を考える。
半分散的なセットアップでは、ノードは隣人と協力してローカルコンセンサスを計算し、中央サーバにリレーする。
ノード間のデータ共有による協調中継とプライバシー漏洩のトレードオフについて検討する。
論文 参考訳(メタデータ) (2024-06-06T06:12:15Z) - GNNBleed: Inference Attacks to Unveil Private Edges in Graphs with
Realistic Access to GNN Models [3.0509197593879844]
本稿では,敵がブラックボックスGNNモデルアクセスを持つ状況におけるエッジプライバシについて検討する。
我々は,GNNのメッセージパッシング機構に基づく一連のプライバシ攻撃を導入する。
論文 参考訳(メタデータ) (2023-11-03T20:26:03Z) - Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - Evading Community Detection via Counterfactual Neighborhood Search [10.990525728657747]
コミュニティ検出は、ソーシャルメディアプラットフォームが共通の関心を共有しているユーザーの密接な結び付きのあるグループを見つけるのに有用である。
一部のユーザーは、プラットフォームを離れることなく、政治的、宗教的な組織との連携など、様々な理由で匿名性を維持し、コミュニティ検出をオプトアウトしたいと考えるかもしれない。
本研究では,ネットワークグラフの構造的特性を戦略的に変更して,与えられたコミュニティ検出アルゴリズムによって1つ以上のノードが識別されるのを防ぐ,コミュニティメンバシップ隠蔽の課題に対処する。
論文 参考訳(メタデータ) (2023-10-13T07:30:50Z) - Social-Aware Clustered Federated Learning with Customized Privacy Preservation [38.00035804720786]
本稿では,ソーシャル・アウェア・クラスタ・フェデレーション・ラーニングの新たな手法を提案する。
モデル更新をソーシャルグループに混ぜ合わせることで、敵はソーシャル層を組み合わせた結果のみを盗むことができるが、個人のプライバシーを盗むことはできない。
FacebookネットワークとMNIST/CIFAR-10データセットの実験は、SCFLが学習ユーティリティを効果的に強化し、ユーザの支払いを改善し、カスタマイズ可能なプライバシ保護を強制できることを検証する。
論文 参考訳(メタデータ) (2022-12-25T10:16:36Z) - Cross-Network Social User Embedding with Hybrid Differential Privacy
Guarantees [81.6471440778355]
プライバシー保護方式でユーザを包括的に表現するために,ネットワーク横断型ソーシャルユーザ埋め込みフレームワークDP-CroSUEを提案する。
特に、各異種ソーシャルネットワークに対して、異種データ型に対するプライバシー期待の変化を捉えるために、まずハイブリッドな差分プライバシーの概念を導入する。
ユーザ埋め込みをさらに強化するため、新しいネットワーク間GCN埋め込みモデルは、それらの整列したユーザを介して、ネットワーク間で知識を伝達するように設計されている。
論文 参考訳(メタデータ) (2022-09-04T06:22:37Z) - Content Popularity Prediction in Fog-RANs: A Clustered Federated
Learning Based Approach [66.31587753595291]
本稿では,ローカルユーザとモバイルユーザの両面からコンテンツの人気度を統合した,モビリティに配慮した新しい人気予測ポリシーを提案する。
ローカルユーザにとって、コンテンツの人気は、ローカルユーザやコンテンツの隠された表現を学習することによって予測される。
モバイルユーザーにとって、コンテンツの人気はユーザー好みの学習によって予測される。
論文 参考訳(メタデータ) (2022-06-13T03:34:00Z) - Privacy-preserving Traffic Flow Prediction: A Federated Learning
Approach [61.64006416975458]
本稿では,フェデレート学習に基づくGated Recurrent Unit Neural Network Algorithm (FedGRU) というプライバシ保護機械学習手法を提案する。
FedGRUは、現在の集中学習方法と異なり、安全なパラメータアグリゲーション機構を通じて、普遍的な学習モデルを更新する。
FedGRUの予測精度は、先進的なディープラーニングモデルよりも90.96%高い。
論文 参考訳(メタデータ) (2020-03-19T13:07:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。