論文の概要: Privacy-preserving formal concept analysis: A homomorphic encryption-based concept construction
- arxiv url: http://arxiv.org/abs/2511.22117v1
- Date: Thu, 27 Nov 2025 05:16:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.404791
- Title: Privacy-preserving formal concept analysis: A homomorphic encryption-based concept construction
- Title(参考訳): プライバシー保護形式概念分析--同型暗号化に基づく概念構築
- Authors: Qiangqiang Chen, Yunfeng Ke, Shen Li, Jinhai Li,
- Abstract要約: 本稿では,バイナリデータ表現と同型暗号化技術を組み合わせたプライバシ保存形式文脈分析(PFCA)フレームワークを提案する。
この方法は、プライベートデータを明らかにすることなく、セキュアで効率的な概念構築を可能にする。
これらの発見は、大規模FCAアプリケーションにおけるプライバシー保護データマイニングとセキュアな知識発見に重要な意味を持つ。
- 参考スコア(独自算出の注目度): 7.56423213879122
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Formal Concept Analysis (FCA) is extensively used in knowledge extraction, cognitive concept learning, and data mining. However, its computational demands on large-scale datasets often require outsourcing to external computing services, raising concerns about the leakage of sensitive information. To address this challenge, we propose a novel approach to enhance data security and privacy in FCA-based computations. Specifically, we introduce a Privacy-preserving Formal Context Analysis (PFCA) framework that combines binary data representation with homomorphic encryption techniques. This method enables secure and efficient concept construction without revealing private data. Experimental results and security analysis confirm the effectiveness of our approach in preserving privacy while maintaining computational performance. These findings have important implications for privacy-preserving data mining and secure knowledge discovery in large-scale FCA applications.
- Abstract(参考訳): 形式的概念分析(FCA)は知識抽出、認知概念学習、データマイニングに広く用いられている。
しかし、大規模なデータセットに対する計算上の要求は、しばしば外部コンピューティングサービスへのアウトソーシングを必要とし、機密情報の漏洩に関する懸念を提起する。
この課題に対処するために、FCAベースの計算におけるデータセキュリティとプライバシを強化する新しいアプローチを提案する。
具体的には、バイナリデータ表現と同型暗号化技術を組み合わせたプライバシ保存形式文脈分析(PFCA)フレームワークを提案する。
この方法は、プライベートデータを明らかにすることなく、セキュアで効率的な概念構築を可能にする。
実験結果とセキュリティ分析により,計算性能を維持しながらプライバシを保護する手法の有効性が確認された。
これらの発見は、大規模FCAアプリケーションにおけるプライバシー保護データマイニングとセキュアな知識発見に重要な意味を持つ。
関連論文リスト
- Subgraph Federated Learning via Spectral Methods [52.40322201034717]
FedLapは、プライバシとスケーラビリティを確保しながら、ノード間の依存関係をキャプチャする新しいフレームワークである。
我々は、FedLapのプライバシを正式に分析し、プライバシを保存することを実証する。
論文 参考訳(メタデータ) (2025-10-29T16:22:32Z) - Advancing Practical Homomorphic Encryption for Federated Learning: Theoretical Guarantees and Efficiency Optimizations [1.8245990984484237]
Federated Learning(FL)は、クライアントデバイスにローカルに保存された生データを保持することによって、データのプライバシを維持しながら、協調的なモデルトレーニングを可能にする。
近年の研究では、モデル勾配の共有がモデル反転攻撃の脆弱性を生み出すことが示されている。
本稿では,モデル反転攻撃に対する防御として選択暗号の基本原理を理論的に解析する枠組みを提案する。
論文 参考訳(メタデータ) (2025-09-24T18:43:52Z) - Urania: Differentially Private Insights into AI Use [102.27238986985698]
$Urania$は、クラスタリング、パーティション選択、ヒストグラムベースの要約といったDPツールを活用することによって、エンドツーエンドのプライバシ保護を提供する。
結果は、厳密なユーザのプライバシを維持しながら、意味のある会話の洞察を抽出するフレームワークの能力を示している。
論文 参考訳(メタデータ) (2025-06-05T07:00:31Z) - Privacy-Preserving Federated Embedding Learning for Localized Retrieval-Augmented Generation [60.81109086640437]
我々はFedE4RAG(Federated Retrieval-Augmented Generation)と呼ばれる新しいフレームワークを提案する。
FedE4RAGはクライアント側RAG検索モデルの協調トレーニングを容易にする。
モデルパラメータの保護にフェデレート学習の準同型暗号化を適用する。
論文 参考訳(メタデータ) (2025-04-27T04:26:02Z) - Verifiable Privacy-Preserving Computing [3.543432625843538]
我々は、検証可能性と、分散データ上のプライバシ保存計算を組み合わせた既存のソリューションを分析する。
我々は、ソリューションアプローチ、セキュリティ、効率、実用性に関する37の異なるスキームを分類し比較する。
論文 参考訳(メタデータ) (2023-09-15T08:44:13Z) - Federated Deep Learning with Bayesian Privacy [28.99404058773532]
フェデレートラーニング(FL)は、ユーザ間でプライベートデータを共有せずにモデルを協調的に学習することで、データのプライバシを保護することを目的としている。
ホモモルフィック暗号化(HE)ベースの手法は、セキュアなプライバシ保護を提供するが、非常に高い計算と通信のオーバーヘッドに悩まされる。
差分プライバシ(DP)を用いたディープラーニングは,複雑な管理コストで実践的な学習アルゴリズムとして実装された。
論文 参考訳(メタデータ) (2021-09-27T12:48:40Z) - Reinforcement Learning on Encrypted Data [58.39270571778521]
本稿では,DQNエージェントが,離散的かつ連続的な状態空間を持つ環境でどのように動作するかを予備的,実験的に検討する。
その結果,非決定論的暗号が存在する場合でも,エージェントは依然として小さな状態空間で学習することができるが,より複雑な環境では性能が低下することがわかった。
論文 参考訳(メタデータ) (2021-09-16T21:59:37Z) - SPEED: Secure, PrivatE, and Efficient Deep learning [2.283665431721732]
私たちは、強力なプライバシー制約に対処できるディープラーニングフレームワークを導入します。
協調学習、差分プライバシー、同型暗号化に基づいて、提案手法は最先端技術に進化する。
論文 参考訳(メタデータ) (2020-06-16T19:31:52Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。