論文の概要: Towards Privacy-Aware Bayesian Networks: A Credal Approach
- arxiv url: http://arxiv.org/abs/2509.18949v1
- Date: Tue, 23 Sep 2025 12:58:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.846249
- Title: Towards Privacy-Aware Bayesian Networks: A Credal Approach
- Title(参考訳): プライバシーに配慮したベイズ的ネットワークを目指す - 致命的なアプローチ
- Authors: Niccolò Rocchi, Fabio Stella, Cassio de Campos,
- Abstract要約: プライバシーの懸念が高まるにつれ、機密情報を保護するための公開モデルにとってますます重要になっている。
本稿では,モデルのプライバシとユーティリティのバランスをとるための新しいソリューションとして,クレダルネットワーク(CN)を紹介する。
- 参考スコア(独自算出の注目度): 0.41292255339309664
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bayesian networks (BN) are probabilistic graphical models that enable efficient knowledge representation and inference. These have proven effective across diverse domains, including healthcare, bioinformatics and economics. The structure and parameters of a BN can be obtained by domain experts or directly learned from available data. However, as privacy concerns escalate, it becomes increasingly critical for publicly released models to safeguard sensitive information in training data. Typically, released models do not prioritize privacy by design. In particular, tracing attacks from adversaries can combine the released BN with auxiliary data to determine whether specific individuals belong to the data from which the BN was learned. State-of-the-art protection tecniques involve introducing noise into the learned parameters. While this offers robust protection against tracing attacks, it significantly impacts the model's utility, in terms of both the significance and accuracy of the resulting inferences. Hence, high privacy may be attained at the cost of releasing a possibly ineffective model. This paper introduces credal networks (CN) as a novel solution for balancing the model's privacy and utility. After adapting the notion of tracing attacks, we demonstrate that a CN enables the masking of the learned BN, thereby reducing the probability of successful attacks. As CNs are obfuscated but not noisy versions of BNs, they can achieve meaningful inferences while safeguarding privacy. Moreover, we identify key learning information that must be concealed to prevent attackers from recovering the underlying BN. Finally, we conduct a set of numerical experiments to analyze how privacy gains can be modulated by tuning the CN hyperparameters. Our results confirm that CNs provide a principled, practical, and effective approach towards the development of privacy-aware probabilistic graphical models.
- Abstract(参考訳): ベイズネットワーク(BN)は、効率的な知識表現と推論を可能にする確率的グラフィカルモデルである。
これらは、医療、バイオインフォマティクス、経済など、様々な領域で有効であることが証明されている。
BNの構造とパラメータはドメインの専門家によって得ることができ、あるいは利用可能なデータから直接学ぶことができる。
しかし、プライバシーに関する懸念がエスカレートするにつれて、トレーニングデータの機密情報を保護するための公開モデルにとって、ますます重要になっている。
通常、リリースされたモデルは、設計によるプライバシの優先順位を付けない。
特に、敵からの追跡攻撃は、解放されたBNと補助データを組み合わせて、BNが学習したデータに属する特定の個人かどうかを判断することができる。
最先端の保護テクニークには、学習パラメータにノイズを導入することが含まれる。
これは、トレース攻撃に対する堅牢な保護を提供するが、結果として生じる推論の重要性と正確性の両方の観点から、モデルの実用性に大きな影響を及ぼす。
したがって、高プライバシは、潜在的に非効率なモデルをリリースするコストで達成される可能性がある。
本稿では,モデルのプライバシとユーティリティのバランスをとるための新しいソリューションとして,クレダルネットワーク(CN)を紹介する。
追跡攻撃の概念を適用した後、CNが学習したBNのマスキングを可能にし、攻撃を成功させる確率を低下させることを示した。
CNは難読だがBNのノイズのないバージョンなので、プライバシーを保護しながら意味のある推論を達成できる。
さらに,攻撃者が基礎となるBNを回復するのを防ぐために隠さなければならない重要な学習情報を同定する。
最後に,CNハイパーパラメータをチューニングすることで,プライバシゲインをどのように変調できるかを解析するための数値実験を行う。
以上の結果から,CNはプライバシを意識した確率的グラフィカルモデルの開発に対して,原則的,実践的,効果的なアプローチを提供することが明らかとなった。
関連論文リスト
- On the MIA Vulnerability Gap Between Private GANs and Diffusion Models [51.53790101362898]
GAN(Generative Adversarial Networks)と拡散モデルが高品質な画像合成のための主要なアプローチとして登場している。
差分自己生成モデルが直面するプライバシーリスクの統一的および実証的分析について述べる。
論文 参考訳(メタデータ) (2025-09-03T14:18:22Z) - Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Node Injection Link Stealing Attack [0.649970685896541]
グラフ構造化データ内のプライベートリンクを推測することにより、グラフニューラルネットワーク(GNN)のプライバシ脆弱性を露呈する、ステルスで効果的な攻撃を提案する。
我々の研究は、GNNに固有のプライバシの脆弱性を強調し、アプリケーションの堅牢なプライバシ保護メカニズムを開発することの重要性を強調しています。
論文 参考訳(メタデータ) (2023-07-25T14:51:01Z) - A Unified Framework of Graph Information Bottleneck for Robustness and
Membership Privacy [43.11374582152925]
グラフニューラルネットワーク(GNN)は,グラフ構造化データのモデリングにおいて大きな成功を収めている。
GNNは、GNNモデルを騙して望ましい予測をする敵攻撃に対して脆弱である。
本研究では、ロバストかつメンバーシップなプライバシー保護型GNNを開発するための新しい課題について検討する。
論文 参考訳(メタデータ) (2023-06-14T16:11:00Z) - Discriminative Adversarial Privacy: Balancing Accuracy and Membership
Privacy in Neural Networks [7.0895962209555465]
DAP(Dariminative Adversarial Privacy)は、モデルの性能、速度、プライバシのバランスを達成するために設計された学習技術である。
DAPは、MIAの誤差を最大化しながら予測誤差を最小化できる新しい損失関数に基づく敵の訓練に依存している。
さらに、パフォーマンスプライバシのトレードオフを捉えるために、AOP(Acuracy Over Privacy)と呼ばれる新しいメトリクスを紹介します。
論文 参考訳(メタデータ) (2023-06-05T17:25:45Z) - Hiding Visual Information via Obfuscating Adversarial Perturbations [47.315523613407244]
本稿では,データの視覚的プライバシを保護するために,敵対的な視覚情報隠蔽手法を提案する。
具体的には、データの視覚情報を隠蔽する難読化対向摂動を生成する。
認識・分類タスクの実験結果から,提案手法が視覚情報を効果的に隠蔽できることが示唆された。
論文 参考訳(メタデータ) (2022-09-30T08:23:26Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z) - Federated Deep Learning with Bayesian Privacy [28.99404058773532]
フェデレートラーニング(FL)は、ユーザ間でプライベートデータを共有せずにモデルを協調的に学習することで、データのプライバシを保護することを目的としている。
ホモモルフィック暗号化(HE)ベースの手法は、セキュアなプライバシ保護を提供するが、非常に高い計算と通信のオーバーヘッドに悩まされる。
差分プライバシ(DP)を用いたディープラーニングは,複雑な管理コストで実践的な学習アルゴリズムとして実装された。
論文 参考訳(メタデータ) (2021-09-27T12:48:40Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。