論文の概要: Learning Realistic Patterns from Unrealistic Stimuli: Generalization and
Data Anonymization
- arxiv url: http://arxiv.org/abs/2009.10007v2
- Date: Thu, 9 Dec 2021 11:56:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-16 04:24:30.339519
- Title: Learning Realistic Patterns from Unrealistic Stimuli: Generalization and
Data Anonymization
- Title(参考訳): 非現実的な刺激からリアルなパターンを学ぶ:一般化とデータ匿名化
- Authors: Konstantinos Nikolaidis, Stein Kristiansen, Thomas Plagemann, Vera
Goebel, Knut Liest{\o}l, Mohan Kankanhalli, Gunn Marit Traaen, Britt
{\O}verland, Harriet Akre, Lars Aaker{\o}y, Sigurd Steinshamn
- Abstract要約: 本研究は、匿名化されたデータ合成において、サードパーティがそのようなプライベートデータから恩恵を受けられるような、シンプルかつ非従来的なアプローチについて検討する。
オープンおよび大規模臨床研究の睡眠モニタリングデータを用いて,(1)エンドユーザーが睡眠時無呼吸検出のためにカスタマイズされた分類モデルを作成し,有効活用できるかどうかを評価し,(2)研究参加者の身元を保護した。
- 参考スコア(独自算出の注目度): 0.5091527753265949
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Good training data is a prerequisite to develop useful ML applications.
However, in many domains existing data sets cannot be shared due to privacy
regulations (e.g., from medical studies). This work investigates a simple yet
unconventional approach for anonymized data synthesis to enable third parties
to benefit from such private data. We explore the feasibility of learning
implicitly from unrealistic, task-relevant stimuli, which are synthesized by
exciting the neurons of a trained deep neural network (DNN). As such, neuronal
excitation serves as a pseudo-generative model. The stimuli data is used to
train new classification models. Furthermore, we extend this framework to
inhibit representations that are associated with specific individuals. We use
sleep monitoring data from both an open and a large closed clinical study and
evaluate whether (1) end-users can create and successfully use customized
classification models for sleep apnea detection, and (2) the identity of
participants in the study is protected. Extensive comparative empirical
investigation shows that different algorithms trained on the stimuli are able
generalize successfully on the same task as the original model. However,
architectural and algorithmic similarity between new and original models play
an important role in performance. For similar architectures, the performance is
close to that of using the true data (e.g., Accuracy difference of 0.56\%,
Kappa coefficient difference of 0.03-0.04). Further experiments show that the
stimuli can to a large extent successfully anonymize participants of the
clinical studies.
- Abstract(参考訳): 優れたトレーニングデータは、有用なMLアプリケーションを開発するための前提条件である。
しかし、多くの分野において、既存のデータセットはプライバシー規則(例えば医学研究)によって共有できない。
本研究は、匿名化データ合成のための単純かつ非慣習的なアプローチを調査し、第三者がそのようなプライベートデータから恩恵を受けられるようにする。
我々は、訓練された深層ニューラルネットワーク(DNN)のニューロンを刺激することによって合成される非現実的タスク関連刺激から暗黙的に学習する可能性を探る。
したがって、神経細胞の励起は擬似生成モデルとして機能する。
刺激データは、新しい分類モデルのトレーニングに使用される。
さらに、この枠組みを拡張し、特定の個人に関連する表現を抑制する。
オープンおよび大規模臨床研究の睡眠モニタリングデータを用いて,(1)エンドユーザーが睡眠時無呼吸検出のためにカスタマイズされた分類モデルを作成し,有効活用できるかどうかを評価し,(2)研究参加者の身元を保護した。
広範囲にわたる比較実験により、刺激で訓練された異なるアルゴリズムが元のモデルと同じタスクでうまく一般化できることが示されている。
しかし、新しいモデルとオリジナルモデルのアーキテクチャ的およびアルゴリズム的類似性は、パフォーマンスにおいて重要な役割を果たす。
類似したアーキテクチャでは、真のデータ(例えば 0.56\% の精度差、 0.03-0.04 のkappa係数差)を使うパフォーマンスに近い。
さらなる実験により、この刺激は臨床研究の参加者をかなりうまく匿名化できることが示されている。
関連論文リスト
- Latent Variable Sequence Identification for Cognitive Models with Neural Bayes Estimation [7.7227297059345466]
本稿では,ニューラルベイズ推定を拡張して,実験データと対象変数空間との直接マッピングを学習する手法を提案する。
我々の研究は、リカレントニューラルネットワークとシミュレーションベースの推論を組み合わせることで、潜在変数配列を特定することで、研究者がより広範な認知モデルにアクセスできるようになることを強調している。
論文 参考訳(メタデータ) (2024-06-20T21:13:39Z) - Deep networks for system identification: a Survey [56.34005280792013]
システム識別は、入力出力データから動的システムの数学的記述を学習する。
同定されたモデルの主な目的は、以前の観測から新しいデータを予測することである。
我々は、フィードフォワード、畳み込み、リカレントネットワークなどの文献で一般的に採用されているアーキテクチャについて論じる。
論文 参考訳(メタデータ) (2023-01-30T12:38:31Z) - Improving the Level of Autism Discrimination through GraphRNN Link
Prediction [8.103074928419527]
本稿では,GraphRNNを用いて実脳ネットワークのエッジ分布を学習する後者の手法に基づく。
実験の結果,オリジナルデータと合成データの組み合わせはニューラルネットワークの識別を大幅に改善することがわかった。
論文 参考訳(メタデータ) (2022-02-19T06:50:32Z) - Learning Neural Causal Models with Active Interventions [83.44636110899742]
本稿では,データ生成プロセスの根底にある因果構造を素早く識別する能動的介入ターゲット機構を提案する。
本手法は,ランダムな介入ターゲティングと比較して,要求される対話回数を大幅に削減する。
シミュレーションデータから実世界のデータまで,複数のベンチマークにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2021-09-06T13:10:37Z) - The Causal Neural Connection: Expressiveness, Learnability, and
Inference [125.57815987218756]
構造因果モデル (Structuor causal model, SCM) と呼ばれるオブジェクトは、調査中のシステムのランダムな変動のメカニズムと源の集合を表す。
本稿では, 因果的階層定理 (Thm. 1, Bareinboim et al., 2020) がまだニューラルモデルに対して成り立っていることを示す。
我々はニューラル因果モデル(NCM)と呼ばれる特殊なタイプのSCMを導入し、因果推論に必要な構造的制約をエンコードする新しいタイプの帰納バイアスを定式化する。
論文 参考訳(メタデータ) (2021-07-02T01:55:18Z) - Handling Data Heterogeneity with Generative Replay in Collaborative
Learning for Medical Imaging [21.53220262343254]
本稿では,協調学習手法におけるデータ不均一性の課題に対処する新たな再生戦略を提案する。
一次モデルは所望のタスクを学習し、補助的な「生成再生モデル」は入力画像によく似た画像を合成するか、潜伏変数の抽出を支援する。
生成的再生戦略は柔軟であり、既存の協調学習手法に組み込んで、機関間のデータの均一性を扱う能力を向上させるか、あるいはコミュニケーションコストを削減するために、新しい個別の協調学習フレームワーク(FedReplayと称される)として使用される。
論文 参考訳(メタデータ) (2021-06-24T17:39:55Z) - No Fear of Heterogeneity: Classifier Calibration for Federated Learning
with Non-IID Data [78.69828864672978]
実世界のフェデレーションシステムにおける分類モデルのトレーニングにおける中心的な課題は、非IIDデータによる学習である。
このアルゴリズムは, 近似されたssian混合モデルからサンプリングした仮想表現を用いて分類器を調整する。
実験の結果,CIFAR-10,CIFAR-100,CINIC-10など,一般的なフェデレーション学習ベンチマークにおけるCCVRの現状が示された。
論文 参考訳(メタデータ) (2021-06-09T12:02:29Z) - Learning identifiable and interpretable latent models of
high-dimensional neural activity using pi-VAE [10.529943544385585]
本稿では,潜在モデルと従来のニューラルエンコーディングモデルから重要な要素を統合する手法を提案する。
我々の手法であるpi-VAEは、同定可能な変分自動エンコーダの最近の進歩にインスパイアされている。
人工データを用いてpi-VAEを検証し,それをラット海馬およびマカク運動野の神経生理学的データセットの解析に応用した。
論文 参考訳(メタデータ) (2020-11-09T22:00:38Z) - Modeling Shared Responses in Neuroimaging Studies through MultiView ICA [94.31804763196116]
被験者の大規模なコホートを含むグループ研究は、脳機能組織に関する一般的な結論を引き出す上で重要である。
グループ研究のための新しい多視点独立成分分析モデルを提案し、各被験者のデータを共有独立音源と雑音の線形結合としてモデル化する。
まず、fMRIデータを用いて、被験者間の共通音源の同定における感度の向上を示す。
論文 参考訳(メタデータ) (2020-06-11T17:29:53Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z) - Do Saliency Models Detect Odd-One-Out Targets? New Datasets and Evaluations [15.374430656911498]
本研究では,サリエンスの正準例と考えられるシングルトン検出について検討する。
ほぼすべてのサリエンシアルゴリズムは、合成画像や自然画像のシングルトンターゲットに適切に反応しないことを示す。
論文 参考訳(メタデータ) (2020-05-13T20:59:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。