論文の概要: Onto-DP: Constructing Neighborhoods for Differential Privacy on Ontological Databases
- arxiv url: http://arxiv.org/abs/2602.15614v1
- Date: Tue, 17 Feb 2026 14:42:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-18 16:03:18.0906
- Title: Onto-DP: Constructing Neighborhoods for Differential Privacy on Ontological Databases
- Title(参考訳): オントDP:オントロジーデータベース上での差別化のための近隣環境の構築
- Authors: Yasmine Hayder, Adrien Boiret, Cédric Eichler, Benjamin Nguyen,
- Abstract要約: 攻撃者は推論ルールを利用してデータベースに埋め込まれた機密情報を発見できることを示す。
本稿では,従来のDPモデル上に構築された差分プライバシーパラダイムの新たな拡張について紹介する。
- 参考スコア(独自算出の注目度): 0.6999740786886536
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we investigate how attackers can discover sensitive information embedded within databases by exploiting inference rules. We demonstrate the inadequacy of naively applied existing state of the art differential privacy (DP) models in safeguarding against such attacks. We introduce ontology aware differential privacy (Onto-DP), a novel extension of differential privacy paradigms built on top of any classical DP model by enriching it with semantic awareness. We show that this extension is a sufficient condition to adequately protect against attackers aware of inference rules.
- Abstract(参考訳): 本稿では,攻撃者が推論ルールを利用してデータベース内に埋め込まれたセンシティブな情報を発見できる方法を検討する。
このような攻撃から身を守るために,既存の最先端の差分プライバシ(DP)モデルが不適切であることを実証する。
本稿では,従来のDPモデル上に構築された新たな差分プライバシーパラダイムである差分プライバシー(Onto-DP)について,セマンティック・アウェアネス(セマンティック・アウェアネス)を付加して導入する。
この拡張は、推論ルールに気付いて攻撃者を保護するのに十分な条件であることを示す。
関連論文リスト
- On the MIA Vulnerability Gap Between Private GANs and Diffusion Models [51.53790101362898]
GAN(Generative Adversarial Networks)と拡散モデルが高品質な画像合成のための主要なアプローチとして登場している。
差分自己生成モデルが直面するプライバシーリスクの統一的および実証的分析について述べる。
論文 参考訳(メタデータ) (2025-09-03T14:18:22Z) - Beyond the Worst Case: Extending Differential Privacy Guarantees to Realistic Adversaries [17.780319275883127]
差別化プライバシ(differial Privacy)は、メカニズムの最悪のプライバシー漏洩に結びつく定義のファミリーである。
この研究は、現実のプライバシーリスクを代表する攻撃者の成功について、DPの最悪の保証がどんな意味を持つのかを浮き彫りにしている。
論文 参考訳(メタデータ) (2025-07-10T20:36:31Z) - Differential Privacy in Machine Learning: From Symbolic AI to LLMs [49.1574468325115]
差別化プライバシは、プライバシーリスクを軽減するための正式なフレームワークを提供する。
単一のデータポイントの包含や除外がアルゴリズムの出力を著しく変更しないことを保証する。
論文 参考訳(メタデータ) (2025-06-13T11:30:35Z) - Activity Recognition on Avatar-Anonymized Datasets with Masked Differential Privacy [64.32494202656801]
プライバシを保存するコンピュータビジョンは、機械学習と人工知能において重要な問題である。
本稿では,ビデオデータセット中の感性のある被験者を文脈内の合成アバターに置き換える匿名化パイプラインを提案する。
また、匿名化されていないがプライバシーに敏感な背景情報を保護するため、MaskDPを提案する。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - FedAdOb: Privacy-Preserving Federated Deep Learning with Adaptive Obfuscation [26.617708498454743]
フェデレーテッド・ラーニング(FL)は、複数のクライアントがプライベートデータを共有せずに、共同で機械学習モデルを学習できるコラボレーティブ・アプローチとして登場した。
本稿では,FedAdObと呼ばれる新しい適応難読化機構を提案する。
論文 参考訳(メタデータ) (2024-06-03T08:12:09Z) - ATTAXONOMY: Unpacking Differential Privacy Guarantees Against Practical Adversaries [11.550822252074733]
我々は攻撃の詳細な分類を提供し、攻撃のさまざまな側面を示し、多くの現実世界の設定が検討されていることを強調している。
イスラエル厚生労働省が最近発表した、差分プライバシーを用いた出生データセットの実際のケーススタディを分析して、分類学を運用しています。
論文 参考訳(メタデータ) (2024-05-02T20:23:23Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - Node Injection Link Stealing Attack [0.649970685896541]
グラフ構造化データ内のプライベートリンクを推測することにより、グラフニューラルネットワーク(GNN)のプライバシ脆弱性を露呈する、ステルスで効果的な攻撃を提案する。
我々の研究は、GNNに固有のプライバシの脆弱性を強調し、アプリケーションの堅牢なプライバシ保護メカニズムを開発することの重要性を強調しています。
論文 参考訳(メタデータ) (2023-07-25T14:51:01Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Bounding Training Data Reconstruction in Private (Deep) Learning [40.86813581191581]
差分プライバシーは、MLにおけるデータ漏洩を防ぐデファクト手法として広く受け入れられている。
既存のDPのセマンティック保証は、メンバーシップ推論に重点を置いている。
我々は、Renyi差分プライバシーとFisher情報漏洩という2つの異なるプライバシ会計手法が、データ再構成攻撃に対して強力なセマンティック保護を提供することを示した。
論文 参考訳(メタデータ) (2022-01-28T19:24:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。