論文の概要: Semantic Risk Scoring of Aggregated Metrics: An AI-Driven Approach for Healthcare Data Governance
- arxiv url: http://arxiv.org/abs/2603.07924v1
- Date: Mon, 09 Mar 2026 03:36:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:15.407216
- Title: Semantic Risk Scoring of Aggregated Metrics: An AI-Driven Approach for Healthcare Data Governance
- Title(参考訳): 集約メトリクスのセマンティックリスクスコア付け:医療データガバナンスのためのAI駆動アプローチ
- Authors: Mohammed Omer Shakeel Ahmed,
- Abstract要約: 大規模医療機関は通常、複数のビジネスインテリジェンス(BI)チームを運営している。
HIPAA、FERPA、IRBの制限のため、これらのチームは分析に必要な患者レベルのデータを共有するという課題に直面している。
事前計算されたプライバシに準拠した要約である計量集計表が提案されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large healthcare institutions typically operate multiple business intelligence (BI) teams segmented by domain, including clinical performance, fundraising, operations, and compliance. Due to HIPAA, FERPA, and IRB restrictions, these teams face challenges in sharing patient-level data needed for analytics. To mitigate this, A metric aggregation table is proposed, which is a precomputed, privacy-compliant summary. These abstractions enable decision-making without direct access to sensitive data. However, even aggregated metrics can inadvertently lead to privacy risks if constructed without rigorous safeguards. A modular AI framework is proposed that evaluates SQL-based metric definitions for potential overexposure using both semantic and syntactic features. Specifically, the system parses SQL queries into abstract syntax trees (ASTs), extracts sensitive patterns (e.g., fine-grained GROUP BY on ZIP code or gender), and encodes the logic using pretrained CodeBERT embeddings. These are fused with structural features and passed to an XGBoost classifier trained to assign risk scores. Queries that surpass the risk threshold (e.g., > 0.85) are flagged and returned with human-readable explanations. This enables proactive governance, preventing statistical disclosure before deployment. This implementation demonstrates strong potential for cross-departmental metric sharing in healthcare while maintaining compliance and auditability. The system also promotes role-based access control (RBAC), supports zero-trust data architectures, and aligns with national data modernization goals by ensuring that metric pipelines are explainable, privacy-preserving, and AI-auditable by design. Unlike prior works that rely on runtime data access to flag privacy violations, the proposed framework performs static, explainable detection at the query-level, enabling pre-execution protection and audit readiness
- Abstract(参考訳): 大規模医療機関は通常、複数のビジネスインテリジェンス(BI)チームを運営する。
HIPAA、FERPA、IRBの制限のため、これらのチームは分析に必要な患者レベルのデータを共有するという課題に直面している。
これを軽減するために、事前計算されたプライバシーに準拠した要約であるメートル法集計表が提案されている。
これらの抽象化は、機密データに直接アクセスすることなく意思決定を可能にする。
しかし、集約されたメトリクスでさえ、厳格な保護なしに構築された場合、必然的にプライバシー上のリスクにつながる可能性がある。
意味的特徴と構文的特徴の両方を用いて、潜在的な過剰露光に対するSQLベースのメトリック定義を評価するモジュール型AIフレームワークが提案されている。
具体的には、SQLクエリを抽象構文木(AST)に解析し、センシティブなパターン(例えば、ZIPコードや性別の細かいGROUP BY)を抽出し、事前訓練されたCodeBERT埋め込みを使用してロジックをエンコードする。
これらは構造的特徴と融合し、リスクスコアを割り当てるように訓練されたXGBoost分類器に渡される。
リスクしきい値を超えるクエリ(例: > 0.85)はフラグ付けされ、人間可読な説明で返される。
これにより、プロアクティブなガバナンスが可能になり、デプロイ前の統計的開示が防止される。
この実装は、コンプライアンスと監査性を維持しながら、医療における横断的なメトリクス共有の可能性を示している。
また、ロールベースのアクセス制御(RBAC)を促進し、ゼロトラストデータアーキテクチャをサポートし、メトリックパイプラインが説明可能、プライバシー保護、AI監査可能な設計であることを保証することで、国家データの近代化目標と整合する。
プライバシ違反に対するランタイムデータアクセスに依存する以前の作業とは異なり、提案されたフレームワークは、クエリレベルで静的で説明可能な検出を実行し、事前実行保護と監査の準備を可能にする。
関連論文リスト
- A Late-Fusion Multimodal AI Framework for Privacy-Preserving Deduplication in National Healthcare Data Environments [0.0]
機密情報に依存しない新しい,スケーラブルでマルチモーダルなAIフレームワークを提案する。
このアプローチは、エンティティ解決に対するプライバシ準拠のソリューションを提供し、セキュアなデジタルインフラストラクチャをサポートし、公衆衛生分析の信頼性を高める。
国家の健康データモダナイゼーションへの統合には適しており、プライバシ優先のイノベーションというより広範な目標に合わせている。
論文 参考訳(メタデータ) (2026-03-04T20:46:26Z) - EHRSummarizer: A Privacy-Aware, FHIR-Native Architecture for Structured Clinical Summarization of Electronic Health Records [0.0]
EHRSummarizerは構造化チャートレビューをサポートする構造化要約を生成する。
システムは、データ最小化、ステートレス処理、フレキシブルなデプロイメントのために設定できる。
論文 参考訳(メタデータ) (2026-01-04T21:10:42Z) - Compliance as a Trust Metric [1.0264137858888513]
本稿では,規制コンプライアンスを定量的かつダイナミックな信頼度として運用することで,この研究ギャップを埋める。
私たちのコントリビューションは、各違反の深刻度を、そのボリューム、時間、ブレッドス、臨界度など、複数の次元に沿って評価する定量的モデルです。
人工病院のデータセット上でACEを評価し,複雑なHIPAAおよびHIPAA違反を正確に検出できることを実証した。
論文 参考訳(メタデータ) (2026-01-03T21:14:40Z) - ACT: Agentic Classification Tree [33.65390081055222]
本稿では,各分割を自然言語質問として定式化することにより,決定木手法を非構造化入力に拡張するエージェント分類木(ACT)を提案する。
テキストベンチマークの実験では、ACTは透過的で解釈可能な決定パスを生成しながら、プロンプトベースのベースラインと一致またはオーバーしている。
論文 参考訳(メタデータ) (2025-09-30T15:54:08Z) - Transparent, Evaluable, and Accessible Data Agents: A Proof-of-Concept Framework [0.0]
本稿では、AIエージェントの開発と評価のためのモジュール型コンポーネントベースのアーキテクチャについて述べる。
このシステムは、技術的でないユーザが複雑なデータウェアハウスと対話できるようにすることによって、データアクセシビリティにおける中核的な課題に対処する。
設計の要点は、多層推論フレームワークを通じて達成される透明な意思決定へのコミットメントである。
論文 参考訳(メタデータ) (2025-09-28T23:54:41Z) - DRIFT: Dynamic Rule-Based Defense with Injection Isolation for Securing LLM Agents [52.92354372596197]
大規模言語モデル(LLM)は、強力な推論と計画能力のため、エージェントシステムの中心となってきています。
この相互作用は、外部ソースからの悪意のある入力がエージェントの振る舞いを誤解させる可能性がある、インジェクション攻撃のリスクも引き起こす。
本稿では,信頼に値するエージェントシステムのための動的ルールベースの分離フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-13T05:01:09Z) - Certifiably Byzantine-Robust Federated Conformal Prediction [49.23374238798428]
本稿では,悪意のあるクライアントに対する堅牢な共形予測を行う新しいフレームワークRob-FCPを提案する。
我々は、さまざまなビザンチン攻撃の下で、悪意のあるクライアントの多様な割合に対するRob-FCPの堅牢性を実証的に実証した。
論文 参考訳(メタデータ) (2024-06-04T04:43:30Z) - Bring Your Own Data! Self-Supervised Evaluation for Large Language
Models [52.15056231665816]
大規模言語モデル(LLM)の自己教師型評価のためのフレームワークを提案する。
閉書知識,毒性,長期文脈依存性を測定するための自己指導型評価戦略を実証する。
自己監督評価と人監督評価との間には強い相関関係が認められた。
論文 参考訳(メタデータ) (2023-06-23T17:59:09Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - DeepEnroll: Patient-Trial Matching with Deep Embedding and Entailment
Prediction [67.91606509226132]
臨床試験は医薬品開発に不可欠であるが、高価で不正確で不十分な患者募集に苦しむことが多い。
DeepEnrollは、入力基準(タブラリデータ)を一致する推論のための共有潜在空間に共同でエンコードする、クロスモーダル推論学習モデルである。
論文 参考訳(メタデータ) (2020-01-22T17:51:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。