論文の概要: PASTA-4-PHT: A Pipeline for Automated Security and Technical Audits for the Personal Health Train
- arxiv url: http://arxiv.org/abs/2412.01275v1
- Date: Mon, 02 Dec 2024 08:43:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:40:13.918240
- Title: PASTA-4-PHT: A Pipeline for Automated Security and Technical Audits for the Personal Health Train
- Title(参考訳): PASTA-4-PHT:パーソナルヘルストレインのための安全・技術監査パイプライン
- Authors: Sascha Welten, Karl Kindermann, Ahmet Polat, Martin Görz, Maximilian Jugl, Laurenz Neumann, Alexander Neumann, Johannes Lohmöller, Jan Pennekamp, Stefan Decker,
- Abstract要約: この研究は、DevSecOpsの原則にインスパイアされたPHT準拠のセキュリティと監査パイプラインについて論じる。
我々は、PHTに脆弱性を導入し、我々のパイプラインを5つの現実世界のPHTに適用する。
最終的に、私たちの仕事はPHTフレームワーク内のデータ処理アクティビティのセキュリティと全体的な透明性の向上に貢献します。
- 参考スコア(独自算出の注目度): 34.203290179252555
- License:
- Abstract: With the introduction of data protection regulations, the need for innovative privacy-preserving approaches to process and analyse sensitive data has become apparent. One approach is the Personal Health Train (PHT) that brings analysis code to the data and conducts the data processing at the data premises. However, despite its demonstrated success in various studies, the execution of external code in sensitive environments, such as hospitals, introduces new research challenges because the interactions of the code with sensitive data are often incomprehensible and lack transparency. These interactions raise concerns about potential effects on the data and increases the risk of data breaches. To address this issue, this work discusses a PHT-aligned security and audit pipeline inspired by DevSecOps principles. The automated pipeline incorporates multiple phases that detect vulnerabilities. To thoroughly study its versatility, we evaluate this pipeline in two ways. First, we deliberately introduce vulnerabilities into a PHT. Second, we apply our pipeline to five real-world PHTs, which have been utilised in real-world studies, to audit them for potential vulnerabilities. Our evaluation demonstrates that our designed pipeline successfully identifies potential vulnerabilities and can be applied to real-world studies. In compliance with the requirements of the GDPR for data management, documentation, and protection, our automated approach supports researchers using in their data-intensive work and reduces manual overhead. It can be used as a decision-making tool to assess and document potential vulnerabilities in code for data processing. Ultimately, our work contributes to an increased security and overall transparency of data processing activities within the PHT framework.
- Abstract(参考訳): データ保護規則の導入により、機密データを処理し分析するための革新的なプライバシー保護アプローチの必要性が明らかになってきた。
1つのアプローチはPersonal Health Train (PHT)で、データに分析コードをもたらし、データ前提でデータ処理を実行する。
しかし、様々な研究で成功しているにもかかわらず、病院などのセンシティブな環境における外部コードの実行は、しばしばコードとセンシティブなデータとの相互作用が理解不能で透明性が欠如しているため、新たな研究課題を提起する。
これらの相互作用は、データに対する潜在的な影響に関する懸念を高め、データ漏洩のリスクを高める。
この問題に対処するため、この作業では、DevSecOps原則にインスパイアされたPHT準拠のセキュリティと監査パイプラインについて論じる。
自動パイプラインには、脆弱性を検出する複数のフェーズが組み込まれている。
その汎用性を徹底的に研究するために、このパイプラインを2つの方法で評価する。
まず、PHTに故意に脆弱性を導入します。
第二に、私たちのパイプラインを現実世界の研究で使われている5つの実世界のPHTに適用し、潜在的な脆弱性を検査します。
我々の評価は、設計したパイプラインが潜在的な脆弱性の特定に成功し、現実世界の研究に適用可能であることを示す。
データ管理、ドキュメンテーション、保護のためのGDPRの要件に従って、自動的なアプローチは、データ集約的な作業で研究者が使用していることをサポートし、手作業によるオーバーヘッドを低減します。
データ処理のためのコード内の潜在的な脆弱性を評価し文書化するための意思決定ツールとして使用できる。
最終的に、私たちの仕事はPHTフレームワーク内のデータ処理アクティビティのセキュリティと全体的な透明性の向上に貢献します。
関連論文リスト
- Beyond the Safety Bundle: Auditing the Helpful and Harmless Dataset [4.522849055040843]
この研究は、Helpful and Harmless データセットを Anthropic で監査した。
本研究は,大規模言語モデルにおける安全性軽減のための,よりニュアンスで文脈に敏感なアプローチの必要性を浮き彫りにした。
論文 参考訳(メタデータ) (2024-11-12T23:43:20Z) - AutoPT: How Far Are We from the End2End Automated Web Penetration Testing? [54.65079443902714]
LLMによって駆動されるPSMの原理に基づく自動浸透試験エージェントであるAutoPTを紹介する。
以上の結果から, AutoPT は GPT-4o ミニモデル上でのベースラインフレームワーク ReAct よりも優れていた。
論文 参考訳(メタデータ) (2024-11-02T13:24:30Z) - Data Quality Issues in Vulnerability Detection Datasets [1.6114012813668932]
脆弱性検出は、サイバーセキュリティのためのソフトウェアの潜在的な弱点を特定する上で、極めて難しいタスクである。
深層学習(DL)は検出プロセスの自動化に大きな進歩を遂げた。
この目的のためにDLモデルをトレーニングするために、多くのデータセットが作成されています。
しかし、これらのデータセットは、DLモデルの検出精度の低下につながるいくつかの問題に悩まされる。
論文 参考訳(メタデータ) (2024-10-08T13:31:29Z) - Generative AI for Secure and Privacy-Preserving Mobile Crowdsensing [74.58071278710896]
生成AIは、学術分野と産業分野の両方から多くの注目を集めている。
セキュアでプライバシ保護のモバイルクラウドセンシング(SPPMCS)は、データ収集/取得に広く応用されている。
論文 参考訳(メタデータ) (2024-05-17T04:00:58Z) - Secure and Verifiable Data Collaboration with Low-Cost Zero-Knowledge
Proofs [30.260427020479536]
本稿では,セキュアかつ検証可能なデータコラボレーションのための新しい高効率ソリューションRiseFLを提案する。
まず,ZKP生成と検証のコストを大幅に削減する確率論的整合性検査法を提案する。
第3に,ビザンチンのロバスト性を満たすハイブリッドなコミットメントスキームを設計し,性能を向上する。
論文 参考訳(メタデータ) (2023-11-26T14:19:46Z) - Towards Generalizable Data Protection With Transferable Unlearnable
Examples [50.628011208660645]
本稿では、転送不可能な例を生成することによって、新しい一般化可能なデータ保護手法を提案する。
私たちの知る限りでは、これはデータ分散の観点からデータのプライバシを調べる最初のソリューションです。
論文 参考訳(メタデータ) (2023-05-18T04:17:01Z) - Stop Uploading Test Data in Plain Text: Practical Strategies for
Mitigating Data Contamination by Evaluation Benchmarks [70.39633252935445]
データ汚染は、大規模な自動クロールコーパスで事前訓練されたモデルの台頭によって、普及し、課題となっている。
クローズドモデルの場合、トレーニングデータはトレードシークレットになり、オープンモデルであっても汚染を検出するのは簡単ではない。
1)公開するテストデータを公開鍵で暗号化し,デリバティブ配信を許可する,(2)クローズドAPI保持者からの要求トレーニング排他的コントロールを許可する,(2)評価を拒否してテストデータを保護する,(3)インターネット上のソリューションで表示されるデータを避け,インターネット由来のWebページコンテキストを解放する,という3つの方法を提案する。
論文 参考訳(メタデータ) (2023-05-17T12:23:38Z) - Bringing the Algorithms to the Data -- Secure Distributed Medical
Analytics using the Personal Health Train (PHT-meDIC) [1.451998131020241]
パーソナルヘルストレイン(PHT)パラダイムは、"データへのアルゴリズム"パラダイムを実装している。
本稿では,PHT概念のオープンソース実装であるPHT-meDICを提案する。
論文 参考訳(メタデータ) (2022-12-07T06:29:15Z) - VELVET: a noVel Ensemble Learning approach to automatically locate
VulnErable sTatements [62.93814803258067]
本稿では,ソースコード中の脆弱な文を見つけるための新しいアンサンブル学習手法であるVELVETを提案する。
我々のモデルは、グラフベースとシーケンスベースニューラルネットワークを組み合わせて、プログラムグラフの局所的およびグローバル的コンテキストを捕捉する。
VELVETは、合成データと実世界のデータに対して、それぞれ99.6%と43.6%の精度を達成している。
論文 参考訳(メタデータ) (2021-12-20T22:45:27Z) - Privacy Preservation in Federated Learning: An insightful survey from
the GDPR Perspective [10.901568085406753]
この記事は、フェデレーテッドラーニングに使用できる最先端のプライバシー技術に関する調査に特化している。
近年の研究では、FLにおけるデータの保持と計算は、プライバシ保証者にとって不十分であることが示されている。
これは、FLシステム内のパーティ間で交換されるMLモデルパラメータが、いくつかのプライバシ攻撃で悪用されるためである。
論文 参考訳(メタデータ) (2020-11-10T21:41:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。