論文の概要: Security Analysis and Threat Modeling of Research Management Applications [Extended Version]
- arxiv url: http://arxiv.org/abs/2510.03407v1
- Date: Fri, 03 Oct 2025 18:07:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.026421
- Title: Security Analysis and Threat Modeling of Research Management Applications [Extended Version]
- Title(参考訳): 研究管理アプリケーションのセキュリティ分析と脅威モデリング [拡張版]
- Authors: Boniface M. Sindala, Ragib Hasan,
- Abstract要約: 本研究は、研究集約環境におけるセンシティブな情報管理のための、よりセキュアなフレームワークへの貢献を目的とする。
研究管理アプリケーション(RMA)は、機密データを収集、送信、分析、保存するために臨床研究環境で広く利用されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Research management applications (RMA) are widely used in clinical research environments to collect, transmit, analyze, and store sensitive data. This data is so valuable making RMAs susceptible to security threats. This analysis, analyzes RMAs' security, focusing on Research Electronic Data Capture (REDCap) as an example. We explore the strengths and vulnerabilities within RMAs by evaluating the architecture, data flow, and security features. We identify and assess potential risks using the MITRE ATT\&CK framework and STRIDE model. We assess REDCap's defenses against common attack vectors focusing on security to provide confidentiality, integrity, availability, non-repudiation, and authentication. We conclude by proposing recommendations for enhancing the security of RMAs, ensuring that critical research data remains protected without compromising usability. This research aims to contribute towards a more secure framework for managing sensitive information in research-intensive environments.
- Abstract(参考訳): 研究管理アプリケーション(RMA)は、機密データを収集、送信、分析、保存するために臨床研究環境で広く利用されている。
このデータは非常に貴重であり、RMAはセキュリティの脅威を受けやすい。
この分析は、Research Electronic Data Capture(REDCap)を例として、RMAのセキュリティを分析します。
アーキテクチャ、データフロー、セキュリティ機能を評価することで、RMA内の強度と脆弱性を調査します。
我々は、MITRE ATT\&CKフレームワークとSTRIDEモデルを用いて潜在的なリスクを特定し、評価する。
我々は、セキュリティを重視した一般的な攻撃ベクトルに対するREDCapの防御を評価し、機密性、完全性、可用性、非審査、認証を提供する。
我々は、RMAの安全性を高めるための勧告を提案し、重要な研究データがユーザビリティを損なうことなく保護されることを保証することで締めくくります。
本研究は、研究集約環境におけるセンシティブな情報管理のための、よりセキュアなフレームワークへの貢献を目的とする。
関連論文リスト
- Efficient Cybersecurity Assessment Using SVM and Fuzzy Evidential Reasoning for Resilient Infrastructure [0.0]
本稿では,ファジィ明示的推論 (ER) を用いたセキュリティ問題評価モデルを提案する。
このような問題を克服するために,ファジィ明示的推論 (ER) を用いたセキュリティ問題評価モデルを提案する。
論文 参考訳(メタデータ) (2025-06-28T16:08:34Z) - Keep Security! Benchmarking Security Policy Preservation in Large Language Model Contexts Against Indirect Attacks in Question Answering [15.506092447902931]
大規模言語モデル(LLM)は、企業や政府のような機密性の高いドメインにますますデプロイされている。
我々は,質問応答における文脈的非開示ポリシーに対するLCMの適合性を評価する,新しい大規模ベンチマークデータセットであるCoPrivaを紹介した。
私たちはベンチマークで10個のLSMを評価し、重大な脆弱性を明らかにします。
論文 参考訳(メタデータ) (2025-05-21T17:58:11Z) - Privacy-Aware RAG: Secure and Isolated Knowledge Retrieval [7.412110686946628]
本稿では,RAGシステムを不正アクセスやデータ漏洩から保護するための高度な暗号化手法を提案する。
当社のアプローチでは、ストレージに先立ってテキストコンテンツとそれに対応する埋め込みの両方を暗号化し、すべてのデータがセキュアに暗号化されていることを保証します。
以上の結果から,RAGシステムの設計と展開に高度な暗号化技術を統合することにより,プライバシー保護を効果的に強化できることが示唆された。
論文 参考訳(メタデータ) (2025-03-17T07:45:05Z) - Comprehensive Digital Forensics and Risk Mitigation Strategy for Modern Enterprises [0.0]
本研究は、サイバーセキュリティに対するアプローチの概要として、予防的脅威予測、法医学的調査、CCPAなどの規制の遵守などを挙げる。
ソーシャルエンジニアリング、インサイダーリスク、フィッシング、ランサムウェアといった主要な脅威と、AIと機械学習を活用する緩和戦略について検討する。
この発見は、機密データを保護するための継続的監視、政策執行、適応型セキュリティ対策の重要性を強調している。
論文 参考訳(メタデータ) (2025-02-26T23:18:49Z) - A Survey of Safety on Large Vision-Language Models: Attacks, Defenses and Evaluations [127.52707312573791]
この調査はLVLMの安全性を包括的に分析し、攻撃、防御、評価方法などの重要な側面をカバーする。
我々はこれらの相互関連コンポーネントを統合する統一フレームワークを導入し、LVLMの脆弱性を概観する。
我々は,最新のLVLMであるDeepseek Janus-Pro上で一連の安全性評価を行い,その結果を理論的に分析する。
論文 参考訳(メタデータ) (2025-02-14T08:42:43Z) - SoK: The Security-Safety Continuum of Multimodal Foundation Models through Information Flow and Game-Theoretic Defenses [58.93030774141753]
MFM(Multimodal foundation model)は、多種多様なデータモダリティを統合し、複雑で広範囲なタスクをサポートする。
本稿では,モデル行動とシステムレベルの相互作用の両方から生じる致命的な脅威を特定することで,MFMの文脈における安全性とセキュリティの概念を統一する。
論文 参考訳(メタデータ) (2024-11-17T23:06:20Z) - EARBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [53.717918131568936]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
本研究では,EAIシナリオにおける身体的リスクの自動評価のための新しいフレームワークEARBenchを紹介する。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z) - Safetywashing: Do AI Safety Benchmarks Actually Measure Safety Progress? [59.96471873997733]
我々は、より有意義な安全指標を開発するための実証的な基盤を提案し、機械学習研究の文脈でAIの安全性を定義する。
我々は、AI安全研究のためのより厳格なフレームワークを提供し、安全性評価の科学を前進させ、測定可能な進歩への道筋を明らかにすることを目指している。
論文 参考訳(メタデータ) (2024-07-31T17:59:24Z) - Towards Safer Generative Language Models: A Survey on Safety Risks,
Evaluations, and Improvements [76.80453043969209]
本調査では,大規模モデルに関する安全研究の枠組みについて述べる。
まず、広範囲にわたる安全問題を導入し、その後、大型モデルの安全性評価手法を掘り下げる。
トレーニングからデプロイメントまで,大規模なモデルの安全性を高めるための戦略について検討する。
論文 参考訳(メタデータ) (2023-02-18T09:32:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。