論文の概要: Publishing Neural Networks in Drug Discovery Might Compromise Training Data Privacy
- arxiv url: http://arxiv.org/abs/2410.16975v1
- Date: Tue, 22 Oct 2024 12:55:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-23 14:29:15.777528
- Title: Publishing Neural Networks in Drug Discovery Might Compromise Training Data Privacy
- Title(参考訳): 薬物発見におけるニューラルネットワークの公開は、トレーニングデータのプライバシーを損なう
- Authors: Fabian P. Krüger, Johan Östman, Lewis Mervin, Igor V. Tetko, Ola Engkvist,
- Abstract要約: 本研究では,これらの構造を訓練した機械学習モデルが一般公開される際に,秘密の化学構造を公開するリスクについて検討する。
我々は、ブラックボックス環境での分子特性予測のためのニューラルネットワークを調べるために、薬物発見の文脈でほとんど探索されていないプライバシーを評価する一般的な方法であるメンバーシップ推論攻撃を使用する。
- 参考スコア(独自算出の注目度): 2.329118180380305
- License:
- Abstract: This study investigates the risks of exposing confidential chemical structures when machine learning models trained on these structures are made publicly available. We use membership inference attacks, a common method to assess privacy that is largely unexplored in the context of drug discovery, to examine neural networks for molecular property prediction in a black-box setting. Our results reveal significant privacy risks across all evaluated datasets and neural network architectures. Combining multiple attacks increases these risks. Molecules from minority classes, often the most valuable in drug discovery, are particularly vulnerable. We also found that representing molecules as graphs and using message-passing neural networks may mitigate these risks. We provide a framework to assess privacy risks of classification models and molecular representations. Our findings highlight the need for careful consideration when sharing neural networks trained on proprietary chemical structures, informing organisations and researchers about the trade-offs between data confidentiality and model openness.
- Abstract(参考訳): 本研究では,これらの構造を訓練した機械学習モデルが一般公開される際に,秘密の化学構造を公開するリスクについて検討する。
我々は、薬物発見の文脈でほとんど探索されていないプライバシーを評価する一般的な方法であるメンバーシップ推論攻撃を用いて、ブラックボックス環境での分子特性予測のためのニューラルネットワークを調べる。
その結果、すべての評価データセットとニューラルネットワークアーキテクチャにおいて、重大なプライバシーリスクが明らかとなった。
複数の攻撃を組み合わせることで、これらのリスクが増大する。
マイノリティ階級の分子は、しばしば薬物発見において最も貴重であり、特に脆弱である。
また、分子をグラフとして表現し、メッセージパッシングニューラルネットワークを使用することで、これらのリスクを軽減できることが分かった。
分類モデルと分子表現のプライバシーリスクを評価する枠組みを提供する。
この発見は、独自の化学構造に基づいてトレーニングされたニューラルネットワークを共有する際に、データ機密性とモデル開放性の間のトレードオフについて、組織や研究者に通知する際の注意深い考慮の必要性を強調します。
関連論文リスト
- Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Searching for the Essence of Adversarial Perturbations [73.96215665913797]
本稿では,ニューラルネットワークの誤予測の原因となる,人間の認識可能な情報を含む対人摂動について述べる。
この人間の認識可能な情報の概念は、敵の摂動に関連する重要な特徴を説明できる。
論文 参考訳(メタデータ) (2022-05-30T18:04:57Z) - Secure & Private Federated Neuroimaging [17.946206585229675]
Federated Learningは、データを共有することなく、複数のデータソース上でニューラルネットワークモデルの分散トレーニングを可能にする。
各サイトは、ニューラルネットワークをプライベートデータ上でしばらくトレーニングし、ニューラルネットワークパラメータをフェデレーションコントローラと共有する。
当社のフェデレートラーニングアーキテクチャであるMetisFLは、強力なセキュリティとプライバシを提供します。
論文 参考訳(メタデータ) (2022-05-11T03:36:04Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - NeuraCrypt: Hiding Private Health Data via Random Neural Networks for
Public Training [64.54200987493573]
我々は,ランダムな深層ニューラルネットワークに基づくプライベート符号化方式であるNeuraCryptを提案する。
NeuraCryptは、データ所有者のみが知っているランダムに構築されたニューラルネットワークを使用して、生の患者データをエンコードする。
我々は,NeuraCryptが,様々なX線タスクの非プライベートベースラインに対して,競合精度を達成することを示す。
論文 参考訳(メタデータ) (2021-06-04T13:42:21Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - DiPSeN: Differentially Private Self-normalizing Neural Networks For
Adversarial Robustness in Federated Learning [6.1448102196124195]
フェデレーション学習は、プライバシー侵害や情報の漏洩から保護するのに役立ちます。
機械学習モデルを敵のサンプルから防御することがより困難にする新しいリスクベクターを導入している。
DiPSeNは、差分プライバシーノイズの要素と自己正規化技術を組み合わせた差分プライベート自己正規化ニューラルネットワークです。
論文 参考訳(メタデータ) (2021-01-08T20:49:56Z) - Evaluation of Inference Attack Models for Deep Learning on Medical Data [16.128164765752032]
最近開発された推論攻撃アルゴリズムは、画像とテキスト記録を悪意ある当事者によって再構成可能であることを示している。
これにより、機密性の高い患者情報を含む医療画像と電子健康記録がこれらの攻撃に対して脆弱であるという懸念が生じる。
本稿では,この重要な問題に対して,医学的深層学習コミュニティの研究者の関心を惹きつけることを目的とする。
論文 参考訳(メタデータ) (2020-10-31T03:18:36Z) - Towards an Automatic Analysis of CHO-K1 Suspension Growth in
Microfluidic Single-cell Cultivation [63.94623495501023]
我々は、人間の力で抽象化されたニューラルネットワークをデータレベルで注入できる新しい機械学習アーキテクチャを提案する。
具体的には、自然データと合成データに基づいて生成モデルを同時に訓練し、細胞数などの対象変数を確実に推定できる共有表現を学習する。
論文 参考訳(メタデータ) (2020-10-20T08:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。