論文の概要: Data privacy protection in microscopic image analysis for material data
mining
- arxiv url: http://arxiv.org/abs/2111.07892v1
- Date: Tue, 9 Nov 2021 11:16:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-21 14:56:47.943589
- Title: Data privacy protection in microscopic image analysis for material data
mining
- Title(参考訳): 材料データマイニングのための顕微鏡画像解析におけるデータプライバシ保護
- Authors: Boyuan Ma and Xiang Yin and Xiaojuan Ban and Haiyou Huang and Neng
Zhang and Hao Wang and Weihua Xue
- Abstract要約: 本研究では,データプライバシ保護に基づく材料微細構造画像特徴抽出アルゴリズムであるFedTransferを提案する。
1) 多結晶微細構造画像分割タスクにフェデレート学習アルゴリズムを導入し,機械学習をフル活用し,データアイランドを壊し,ユーザデータのプライバシとセキュリティを確保する条件下でモデル一般化能力を向上させる。
ユーザの機密性に緊急でない画像のスタイル情報を共有することにより、異なるユーザのデータ分散の違いによるパフォーマンスペナルティを低減することができる。
- 参考スコア(独自算出の注目度): 8.266759895003279
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent progress in material data mining has been driven by high-capacity
models trained on large datasets. However, collecting experimental data has
been extremely costly owing to the amount of human effort and expertise
required. Therefore, material researchers are often reluctant to easily
disclose their private data, which leads to the problem of data island, and it
is difficult to collect a large amount of data to train high-quality models. In
this study, a material microstructure image feature extraction algorithm
FedTransfer based on data privacy protection is proposed. The core
contributions are as follows: 1) the federated learning algorithm is introduced
into the polycrystalline microstructure image segmentation task to make full
use of different user data to carry out machine learning, break the data island
and improve the model generalization ability under the condition of ensuring
the privacy and security of user data; 2) A data sharing strategy based on
style transfer is proposed. By sharing style information of images that is not
urgent for user confidentiality, it can reduce the performance penalty caused
by the distribution difference of data among different users.
- Abstract(参考訳): 材料データマイニングの最近の進歩は、大規模データセットで訓練された高容量モデルによって推進されている。
しかし、人間の努力と専門知識の量のために、実験データを集めるのは非常にコストがかかる。
そのため、材料研究者は、容易に個人データを開示することを避け、データアイランドの問題を引き起こし、高品質なモデルを訓練するために大量のデータを集めることは困難である。
本研究では,データプライバシ保護に基づく材料微細構造画像特徴抽出アルゴリズムであるFedTransferを提案する。
主な貢献は次のとおりである。
1) 多結晶微細構造画像分割タスクにフェデレート学習アルゴリズムを導入し、異なるユーザデータをフル活用して機械学習を行い、データの島を破り、ユーザデータのプライバシーとセキュリティを確保する条件下でモデル一般化能力を向上させる。
2)スタイル転送に基づくデータ共有戦略を提案する。
ユーザの機密性に緊急でない画像のスタイル情報を共有することにより、異なるユーザのデータ分散の違いによるパフォーマンスペナルティを低減することができる。
関連論文リスト
- Enhancing User-Centric Privacy Protection: An Interactive Framework through Diffusion Models and Machine Unlearning [54.30994558765057]
この研究は、データ共有とモデル公開の間、画像データのプライバシーを同時に保護する包括的なプライバシー保護フレームワークのパイオニアだ。
本稿では、生成機械学習モデルを用いて属性レベルで画像情報を修正するインタラクティブな画像プライバシー保護フレームワークを提案する。
本フレームワークでは、画像中の属性情報を保護する差分プライバシー拡散モデルと、修正された画像データセット上でトレーニングされたモデルの効率的な更新を行う特徴未学習アルゴリズムの2つのモジュールをインスタンス化する。
論文 参考訳(メタデータ) (2024-09-05T07:55:55Z) - Assessing the Impact of Image Dataset Features on Privacy-Preserving Machine Learning [1.3604778572442302]
本研究では,私的および非私的畳み込みニューラルネットワーク(CNN)モデルの有用性と脆弱性に影響を与える画像データセットの特徴を明らかにする。
不均衡なデータセットはマイノリティクラスでは脆弱性を増大させるが、DPはこの問題を緩和する。
論文 参考訳(メタデータ) (2024-09-02T15:30:27Z) - Privacy-preserving datasets by capturing feature distributions with Conditional VAEs [0.11999555634662634]
条件付き変分オートエンコーダ(CVAE)は、大きな事前学習された視覚基盤モデルから抽出された特徴ベクトルに基づいて訓練される。
本手法は, 医用領域と自然画像領域の両方において, 従来のアプローチよりも優れている。
結果は、データスカースおよびプライバシに敏感な環境におけるディープラーニングアプリケーションに大きな影響を与える生成モデルの可能性を強調している。
論文 参考訳(メタデータ) (2024-08-01T15:26:24Z) - Privacy-Preserving Graph Machine Learning from Data to Computation: A
Survey [67.7834898542701]
我々は,グラフ機械学習のプライバシ保護手法の見直しに重点を置いている。
まずプライバシ保護グラフデータを生成する方法を検討する。
次に,プライバシ保護情報を送信する方法について述べる。
論文 参考訳(メタデータ) (2023-07-10T04:30:23Z) - Approximate, Adapt, Anonymize (3A): a Framework for Privacy Preserving
Training Data Release for Machine Learning [3.29354893777827]
データリリースフレームワークである3A(Approximate, Adapt, Anonymize)を導入し、機械学習のデータユーティリティを最大化する。
本稿では,実データセットと民生データセットでトレーニングしたモデルの性能指標の相違が最小限に抑えられることを示す実験的な証拠を示す。
論文 参考訳(メタデータ) (2023-07-04T18:37:11Z) - Towards Generalizable Data Protection With Transferable Unlearnable
Examples [50.628011208660645]
本稿では、転送不可能な例を生成することによって、新しい一般化可能なデータ保護手法を提案する。
私たちの知る限りでは、これはデータ分散の観点からデータのプライバシを調べる最初のソリューションです。
論文 参考訳(メタデータ) (2023-05-18T04:17:01Z) - ConfounderGAN: Protecting Image Data Privacy with Causal Confounder [85.6757153033139]
本稿では,GAN(Generative Adversarial Network)のConfounderGANを提案する。
実験は、3つの自然なオブジェクトデータセットと3つの医療データセットからなる6つの画像分類データセットで実施される。
論文 参考訳(メタデータ) (2022-12-04T08:49:14Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - Privacy Enhancing Machine Learning via Removal of Unwanted Dependencies [21.97951347784442]
本稿では,特定のアプリケーションに送信される前に,データ中のセンシティブな情報を除去する,教師付き・敵対型学習手法の新たな変種について検討する。
提案手法は,エンド・ツー・エンド方式で特徴マッピングと予測モデルを同時に保存するプライバシー保護を最適化する。
モバイルセンシングと顔データを用いた実験結果から,予測モデルの実用性能の維持に成功し,予測性能の低下を招いた。
論文 参考訳(メタデータ) (2020-07-30T19:55:10Z) - TIPRDC: Task-Independent Privacy-Respecting Data Crowdsourcing Framework
for Deep Learning with Anonymized Intermediate Representations [49.20701800683092]
本稿では,匿名化中間表現を用いたタスク非依存型プライバシ参照データクラウドソーシングフレームワークTIPRDCを提案する。
このフレームワークの目的は、中間表現からプライバシー情報を隠蔽できる機能抽出器を学習することであり、データコレクターの生データに埋め込まれた元の情報を最大限に保持し、未知の学習タスクを達成することである。
論文 参考訳(メタデータ) (2020-05-23T06:21:26Z) - Privacy-Preserving Image Classification in the Local Setting [17.375582978294105]
ローカル微分プライバシ(LDP)は、データ所有者がランダムにインプットを摂動させ、リリース前にデータの妥当な削除を可能にする、有望なソリューションを提供する。
本稿では、データ所有者が画像を保持し、不信なデータ利用者が機械学習モデルにこれらの画像を入力として適合させたいという、双方向のイメージ分類問題について考察する。
本稿では,拡張性のある領域サイズで画像表現を生成する,教師付き画像特徴抽出器 DCAConv を提案する。
論文 参考訳(メタデータ) (2020-02-09T01:25:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。