論文の概要: On Privacy and Confidentiality of Communications in Organizational
Graphs
- arxiv url: http://arxiv.org/abs/2105.13418v1
- Date: Thu, 27 May 2021 19:45:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-01 02:20:38.307942
- Title: On Privacy and Confidentiality of Communications in Organizational
Graphs
- Title(参考訳): 組織グラフにおけるコミュニケーションのプライバシーと秘密性について
- Authors: Masoumeh Shafieinejad and Huseyin Inan and Marcello Hasegawa and
Robert Sim
- Abstract要約: この研究は、企業コンテキストにおける機密性とプライバシの区別方法を示している。
それは、機密性を維持するためのアプローチを定式化し、差分プライバシーの原則を活用することを目的としている。
- 参考スコア(独自算出の注目度): 3.5270468102327004
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learned models trained on organizational communication data, such as
emails in an enterprise, carry unique risks of breaching confidentiality, even
if the model is intended only for internal use. This work shows how
confidentiality is distinct from privacy in an enterprise context, and aims to
formulate an approach to preserving confidentiality while leveraging principles
from differential privacy. The goal is to perform machine learning tasks, such
as learning a language model or performing topic analysis, using interpersonal
communications in the organization, while not learning about confidential
information shared in the organization. Works that apply differential privacy
techniques to natural language processing tasks usually assume independently
distributed data, and overlook potential correlation among the records.
Ignoring this correlation results in a fictional promise of privacy. Naively
extending differential privacy techniques to focus on group privacy instead of
record-level privacy is a straightforward approach to mitigate this issue. This
approach, although providing a more realistic privacy-guarantee, is
over-cautious and severely impacts model utility. We show this gap between
these two extreme measures of privacy over two language tasks, and introduce a
middle-ground solution. We propose a model that captures the correlation in the
social network graph, and incorporates this correlation in the privacy
calculations through Pufferfish privacy principles.
- Abstract(参考訳): 企業内のeメールなどの組織的コミュニケーションデータに基づいてトレーニングされた機械学習モデルは、たとえモデルが内部使用のみを意図していたとしても、機密性に違反する独自のリスクを負う。
この研究は、企業におけるプライバシーと機密性がどのように異なるかを示し、差分プライバシーの原則を生かしながら機密性を保存するためのアプローチを定式化することを目的としている。
目標は、言語モデル学習やトピック分析といった機械学習タスクを実行し、組織内で共有される機密情報を学習することなく、組織内の対人コミュニケーションを使用することである。
自然言語処理タスクに差分プライバシー技術を適用する作業は通常、独立して分散データを仮定し、レコード間の潜在的な相関を見落としている。
この相関を無視することは、架空のプライバシーの約束をもたらす。
ディファレンシャルプライバシのテクニックを、レコードレベルのプライバシではなくグループプライバシに拡張することは、この問題を軽減するための直接的なアプローチである。
このアプローチは、より現実的なプライバシー保証を提供するが、過度に注意し、モデルユーティリティに深刻な影響を与える。
2つの言語タスクにおけるこの2つの極端なプライバシー対策のギャップを示し、中間的な解決策を導入する。
本稿では,ソーシャルネットワークグラフの相関関係を捉えるモデルを提案し,この相関関係をPufferfishのプライバシー原則によるプライバシー計算に組み込む。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - PrivacyLens: Evaluating Privacy Norm Awareness of Language Models in Action [54.11479432110771]
PrivacyLensは、プライバシに敏感な種子を表現的なヴィグネットに拡張し、さらにエージェントの軌跡に拡張するために設計された新しいフレームワークである。
プライバシの文献とクラウドソーシングされたシードに基づいて、プライバシの規範のコレクションをインスタンス化する。
GPT-4やLlama-3-70Bのような最先端のLMは、プライバシー強化の指示が出されたとしても、機密情報を25.68%、38.69%のケースでリークしている。
論文 参考訳(メタデータ) (2024-08-29T17:58:38Z) - Confounding Privacy and Inverse Composition [32.85314813605347]
差分プライバシーでは、センシティブな情報がデータセットに含まれ、Pufferfishのプライバシでは、センシティブな情報がデータの配布を決定する。
我々は、差分プライバシーとPufferfishプライバシーの両方を一般化する新しいプライバシー概念(epsilon, delta$)を導入する。
論文 参考訳(メタデータ) (2024-08-21T21:45:13Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - Vision Through the Veil: Differential Privacy in Federated Learning for
Medical Image Classification [15.382184404673389]
医療におけるディープラーニングアプリケーションの普及は、さまざまな機関にデータ収集を求める。
プライバシー保護メカニズムは、データが自然に敏感である医療画像解析において最重要である。
本研究は,プライバシ保護技術である差分プライバシを,医用画像分類のための統合学習フレームワークに統合することの必要性に対処する。
論文 参考訳(メタデータ) (2023-06-30T16:48:58Z) - Momentum Gradient Descent Federated Learning with Local Differential
Privacy [10.60240656423935]
ビッグデータの時代、個人情報のプライバシーはより顕著になった。
本稿では,機械学習モデルの性能向上のために,フェデレーション学習と局所差分プライバシーをモーメント勾配勾配下で統合することを提案する。
論文 参考訳(メタデータ) (2022-09-28T13:30:38Z) - Privacy Amplification via Shuffling for Linear Contextual Bandits [51.94904361874446]
ディファレンシャルプライバシ(DP)を用いた文脈線形バンディット問題について検討する。
プライバシのシャッフルモデルを利用して,JDP と LDP のプライバシ/ユーティリティトレードオフを実現することができることを示す。
以上の結果から,ローカルプライバシを保ちながらシャッフルモデルを活用することで,JDPとDPのトレードオフを得ることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-11T15:23:28Z) - Federated $f$-Differential Privacy [19.499120576896228]
フェデレートラーニング(Federated Learning, FL)とは、クライアントが繰り返し情報を共有することによってモデルを学ぶ訓練パラダイムである。
フェデレーション設定に特化した新しい概念である、フェデレーション$f$-differenceプライバシを紹介します。
そこで我々は,最先端flアルゴリズムの大規模ファミリーに対応する汎用的federated learningフレームワークprifedsyncを提案する。
論文 参考訳(メタデータ) (2021-02-22T16:28:21Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Differentially Private Multi-Agent Planning for Logistic-like Problems [70.3758644421664]
本稿では,ロジスティックな問題に対する強力なプライバシ保護計画手法を提案する。
1) 強いプライバシー、完全性、効率性、2) 通信制約に対処する2つの課題に対処する。
我々の知る限り、マルチエージェントプランニングの分野に差分プライバシーを適用したのは、この論文が初めてである。
論文 参考訳(メタデータ) (2020-08-16T03:43:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。