論文の概要: Censoring chemical data to mitigate dual use risk
- arxiv url: http://arxiv.org/abs/2304.10510v1
- Date: Thu, 20 Apr 2023 17:46:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-21 12:08:26.975291
- Title: Censoring chemical data to mitigate dual use risk
- Title(参考訳): 化学データを検閲して二重利用リスクを軽減
- Authors: Quintina L. Campbell, Jonathan Herington, Andrew D. White
- Abstract要約: 深層ニューラルネットワークを訓練するためのデータの有用性を保ちながら、データセットを選択的にノイズ付けするモデルに依存しない手法を提案する。
この結果から,選択的ノイズ付きデータセットは,制御付きラベルの予測におけるモデル分散とバイアスを誘導できることがわかった。
この研究は、よりセキュアで協調的なデータ共有の実践を可能にするための将来の研究の基盤として提案されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The dual use of machine learning applications, where models can be used for
both beneficial and malicious purposes, presents a significant challenge. This
has recently become a particular concern in chemistry, where chemical datasets
containing sensitive labels (e.g. toxicological information) could be used to
develop predictive models that identify novel toxins or chemical warfare
agents. To mitigate dual use risks, we propose a model-agnostic method of
selectively noising datasets while preserving the utility of the data for
training deep neural networks in a beneficial region. We evaluate the
effectiveness of the proposed method across least squares, a multilayer
perceptron, and a graph neural network. Our findings show selectively noised
datasets can induce model variance and bias in predictions for sensitive labels
with control, suggesting the safe sharing of datasets containing sensitive
information is feasible. We also find omitting sensitive data often increases
model variance sufficiently to mitigate dual use. This work is proposed as a
foundation for future research on enabling more secure and collaborative data
sharing practices and safer machine learning applications in chemistry.
- Abstract(参考訳): モデルが有益な目的と悪意のある目的の両方に使用できる機械学習アプリケーションの二重利用は、大きな課題となる。
これは化学において特に関心事となり、敏感なラベル(例えば毒性情報)を含む化学データセットは、新しい毒素や化学兵器を識別する予測モデルの開発に使用できる。
そこで本研究では,深層ニューラルネットワークを有益領域に訓練するためのデータの有用性を維持しつつ,データセットを選択的に通知するモデル非依存手法を提案する。
本研究では,提案手法の有効性を最小二乗数,多層パーセプトロン,グラフニューラルネットワークで評価する。
本研究は,選択的にノイズの多いデータセットが,機密情報を含むデータセットの安全な共有が実現可能であることを示唆する。
また、感度データを省略することでモデルの分散が増大し、二重利用が軽減される。
この研究は、よりセキュアで協調的なデータ共有プラクティスとより安全な機械学習アプリケーションを化学で実現するための将来の研究の基盤として提案されている。
関連論文リスト
- Unlearnable Examples Detection via Iterative Filtering [84.59070204221366]
ディープニューラルネットワークは、データ中毒攻撃に弱いことが証明されている。
混合データセットから有毒なサンプルを検出することは極めて有益であり、困難である。
UE識別のための反復フィルタリング手法を提案する。
論文 参考訳(メタデータ) (2024-08-15T13:26:13Z) - An Autoencoder and Generative Adversarial Networks Approach for Multi-Omics Data Imbalanced Class Handling and Classification [2.2940141855172036]
分子生物学では、マルチオミクスシークエンシングから生成されるデータの爆発があった。
従来の統計手法は、そのような高次元データを扱う際に難しい課題に直面している。
この研究は、オートエンコーダを組み込んだニューラルネットワークでこれらの課題に取り組むことに焦点を当て、特徴の潜在空間を抽出する。
論文 参考訳(メタデータ) (2024-05-16T01:45:55Z) - Have You Poisoned My Data? Defending Neural Networks against Data Poisoning [0.393259574660092]
本稿では,トランスファー学習環境における有毒なデータポイントの検出とフィルタリングを行う新しい手法を提案する。
有効毒は, 特徴ベクトル空間の清浄点とよく区別できることを示す。
提案手法は, 防衛率と最終訓練モデルの性能において, 既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-03-20T11:50:16Z) - Leveraging Internal Representations of Model for Magnetic Image
Classification [0.13654846342364302]
本稿では、1つの磁気画像とそれに対応するラベル画像しか持たないシナリオに特化して設計された機械学習モデルトレーニングのための、潜在的に画期的なパラダイムを提案する。
私たちはDeep Learningの能力を活用して、データの不足を克服することを目的として、簡潔で情報に富んだサンプルを生成します。
論文 参考訳(メタデータ) (2024-03-11T15:15:50Z) - Self-Supervised Neuron Segmentation with Multi-Agent Reinforcement
Learning [53.00683059396803]
マスク画像モデル(MIM)は,マスク画像から元の情報を復元する簡便さと有効性から広く利用されている。
本稿では、強化学習(RL)を利用して最適な画像マスキング比とマスキング戦略を自動検索する決定に基づくMIMを提案する。
本手法は,ニューロン分節の課題において,代替自己監督法に対して有意な優位性を有する。
論文 参考訳(メタデータ) (2023-10-06T10:40:46Z) - On the Interplay of Subset Selection and Informed Graph Neural Networks [3.091456764812509]
この研究は、QM9データセットにおける分子の原子化エネルギーの予測に焦点を当てている。
トレーニングセット選択過程における分子多様性の最大化は,線形回帰法および非線形回帰法のロバスト性を高めることを示す。
また、モデルに依存しない説明器を用いて、グラフニューラルネットワークによる予測の信頼性を確認する。
論文 参考訳(メタデータ) (2023-06-15T09:09:27Z) - ChemVise: Maximizing Out-of-Distribution Chemical Detection with the
Novel Application of Zero-Shot Learning [60.02503434201552]
本研究は,簡単な学習セットから複雑な露光の学習近似を提案する。
合成センサ応答に対するこのアプローチは, 分布外の化学分析物の検出を驚くほど改善することを示した。
論文 参考訳(メタデータ) (2023-02-09T20:19:57Z) - Autoregressive Perturbations for Data Poisoning [54.205200221427994]
ソーシャルメディアからのデータスクレイピングは、不正なデータの使用に関する懸念が高まっている。
データ中毒攻撃は、スクラップ対策として提案されている。
より広範なデータセットにアクセスせずに有毒なデータを生成できる自動回帰(AR)中毒を導入する。
論文 参考訳(メタデータ) (2022-06-08T06:24:51Z) - Attack-agnostic Adversarial Detection on Medical Data Using Explainable
Machine Learning [0.0]
本論文では,2つのデータセット上での対比サンプルの正確な検出のためのモデル非依存説明性に基づく手法を提案する。
MIMIC-IIIとHenan-Renmin EHRのデータセットでは,縦軸攻撃に対する検出精度は77%であった。
MIMIC-CXRデータセットでは88%の精度を実現し、すべての設定において、両方のデータセットにおける敵検出技術の現状を10%以上改善した。
論文 参考訳(メタデータ) (2021-05-05T10:01:53Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。