論文の概要: Embedding with Large Language Models for Classification of HIPAA Safeguard Compliance Rules
- arxiv url: http://arxiv.org/abs/2410.20664v2
- Date: Thu, 07 Nov 2024 21:18:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-11 14:52:39.656564
- Title: Embedding with Large Language Models for Classification of HIPAA Safeguard Compliance Rules
- Title(参考訳): HIPAA Safeguard Compliance Rules の分類のための大規模言語モデルを用いた埋め込み
- Authors: Md Abdur Rahman, Md Abdul Barek, ABM Kamrul Islam Riad, Md Mostafizur Rahman, Md Bajlur Rashid, Smita Ambedkar, Md Raihan Miaa, Fan Wu, Alfredo Cuzzocrea, Sheikh Iqbal Ahamed,
- Abstract要約: コードパターン処理における従来のWord2Vec埋め込みの限界を特定します。
この問題を克服するために、データセットの属性にコンテキスト化された埋め込みを提供する多言語BERTを採用しています。
その結果,ロジスティック回帰は99.95%の精度で,分類を著しく向上させることがわかった。
- 参考スコア(独自算出の注目度): 4.871808381472344
- License:
- Abstract: Although software developers of mHealth apps are responsible for protecting patient data and adhering to strict privacy and security requirements, many of them lack awareness of HIPAA regulations and struggle to distinguish between HIPAA rules categories. Therefore, providing guidance of HIPAA rules patterns classification is essential for developing secured applications for Google Play Store. In this work, we identified the limitations of traditional Word2Vec embeddings in processing code patterns. To address this, we adopt multilingual BERT (Bidirectional Encoder Representations from Transformers) which offers contextualized embeddings to the attributes of dataset to overcome the issues. Therefore, we applied this BERT to our dataset for embedding code patterns and then uses these embedded code to various machine learning approaches. Our results demonstrate that the models significantly enhances classification performance, with Logistic Regression achieving a remarkable accuracy of 99.95\%. Additionally, we obtained high accuracy from Support Vector Machine (99.79\%), Random Forest (99.73\%), and Naive Bayes (95.93\%), outperforming existing approaches. This work underscores the effectiveness and showcases its potential for secure application development.
- Abstract(参考訳): mHealthアプリのソフトウェア開発者は、患者のデータ保護と厳格なプライバシとセキュリティ要件の遵守に責任を負っているが、その多くはHIPAA規則に対する認識がなく、HIPAAルールのカテゴリを区別するのに苦労している。
したがって、Google Play Storeのセキュアなアプリケーションを開発するためには、HIPAAルールパターン分類のガイダンスを提供することが不可欠である。
本研究では,コードパターン処理における従来のWord2Vec埋め込みの限界を特定した。
この問題に対処するために,多言語BERT(Bidirectional Encoder Representations from Transformers)を採用し,データセットの属性にコンテキスト化された埋め込みを提供することで問題を克服する。
そこで、このBERTを私たちのデータセットに適用して、コードパターンを埋め込み、その埋め込みコードをさまざまな機械学習アプローチに利用した。
その結果,ロジスティック回帰は99.95 %の精度を達成し,分類性能を著しく向上させることが示された。
さらに,Support Vector Machine (99.79\%),Random Forest (99.73\%),Naive Bayes (95.93\%)から高い精度を得られた。
この研究は、その効果を浮き彫りにして、セキュアなアプリケーション開発の可能性を示している。
関連論文リスト
- An Advanced NLP Framework for Automated Medical Diagnosis with DeBERTa and Dynamic Contextual Positional Gating [0.40964539027092917]
提案手法では、バックトランスレーションを用いて多様なパラフレーズデータセットを生成し、ロバスト性を改善し、分類タスクにおけるオーバーフィッティングを軽減する。
分類には、意図に基づくフィードフォワードニューラルネットワーク(ABFNN)が使用され、意思決定精度を向上させるために、最も関連性の高い機能に効果的に焦点が当てられている。
本手法は, 99.78%の精度, 99.72%のリコール, 99.79%の精度, F1スコアの99.75%の精度で, 医療診断におけるNLPフレームワークの有効性を示す。
論文 参考訳(メタデータ) (2025-02-11T18:32:24Z) - PIPA: Preference Alignment as Prior-Informed Statistical Estimation [57.24096291517857]
本稿では、RLフリーな統一確率的フレームワークであるPIPA(Pior-Informed Preference Alignment)を紹介する。
PIPAはペアデータとアンペアデータの両方に対応し、回答とステップレベルのアノテーションを提供する。
異なる種類の事前情報を統合することにより,PIPA-MとPIPA-Nの2種類のPIPAを開発した。
論文 参考訳(メタデータ) (2025-02-09T04:31:30Z) - Zero-Shot ATC Coding with Large Language Models for Clinical Assessments [40.72273945475456]
解剖学的治療化学符号を処方記録に手動で割り当てることは重大なボトルネックである。
ローカル展開可能な大規模言語モデル(LLM)を用いた実践的アプローチを開発する。
GPT-4oを精度天井とし,プライバシに敏感なデプロイメントに適したオープンソースのLlamaモデルの開発に注力する。
論文 参考訳(メタデータ) (2024-12-10T18:43:02Z) - Adaptive Hierarchical Certification for Segmentation using Randomized Smoothing [87.48628403354351]
機械学習の認証は、特定の条件下では、敵対的なサンプルが特定の範囲内でモデルを回避できないことを証明している。
セグメンテーションの一般的な認証方法は、平らな粒度のクラスを使い、モデルの不確実性による高い断続率をもたらす。
本稿では,複数レベルの階層内で画素を認証し,不安定なコンポーネントに対して粗いレベルに適応的に認証を緩和する,新しい,より実用的な設定を提案する。
論文 参考訳(メタデータ) (2024-02-13T11:59:43Z) - GuardML: Efficient Privacy-Preserving Machine Learning Services Through
Hybrid Homomorphic Encryption [2.611778281107039]
プライバシ保存機械学習(PPML)メソッドは、機械学習モデルのプライバシとセキュリティを保護するために導入された。
現代の暗号方式であるHybrid Homomorphic Encryption (HHE)が最近登場した。
心電図データに基づく心疾患の分類のためのHHEベースのPPMLアプリケーションの開発と評価を行った。
論文 参考訳(メタデータ) (2024-01-26T13:12:52Z) - A Distributed Privacy Preserving Model for the Detection of Alzheimer's Disease [0.0]
本稿では,分散データからトレーニングできるHIPAA準拠のフレームワークを提案する。
次に,アルツハイマー病(AD)検出のための多モード垂直フェデレーションモデルを提案する。
ここで提案されたVFLアーキテクチャは、多様な医療データソースをまたいだ協調学習を可能にする、新しい分散アーキテクチャを提供する。
論文 参考訳(メタデータ) (2023-12-15T22:09:04Z) - Sensitive Data Detection with High-Throughput Machine Learning Models in
Electrical Health Records [15.982220037507169]
1996年健康保険ポータビリティ・アンド・アカウンタビリティ法(英: Health Insurance Portability and Accountability Act of 1996, HIPAA)は、厚生労働情報保護法(PHI)である。
この領域における課題の1つは、異なる分野にわたるデータにおけるPHIフィールドの不均一性である。
この可変性は、あるデータベースで動作しているルールベースの機密変数識別システムを別のデータベースでフェールさせる。
論文 参考訳(メタデータ) (2023-04-30T16:14:23Z) - DeID-GPT: Zero-shot Medical Text De-Identification by GPT-4 [80.36535668574804]
我々は新しいGPT4対応脱識別フレームワーク(DeID-GPT)を開発した。
開発したDeID-GPTは,非構造化医用テキストからの個人情報のマスキングにおいて,高い精度と信頼性を示した。
本研究は,ChatGPTおよびGPT-4を医療用テキストデータ処理および非識別に利用した最初期の1つである。
論文 参考訳(メタデータ) (2023-03-20T11:34:37Z) - Does Synthetic Data Generation of LLMs Help Clinical Text Mining? [51.205078179427645]
臨床テキストマイニングにおけるOpenAIのChatGPTの可能性を検討する。
本稿では,高品質な合成データを大量に生成する新たな学習パラダイムを提案する。
提案手法により,下流タスクの性能が大幅に向上した。
論文 参考訳(メタデータ) (2023-03-08T03:56:31Z) - Anomaly Detection Based on Selection and Weighting in Latent Space [73.01328671569759]
SWADと呼ばれる新しい選択および重み付けに基づく異常検出フレームワークを提案する。
ベンチマークと実世界のデータセットによる実験は、SWADの有効性と優位性を示している。
論文 参考訳(メタデータ) (2021-03-08T10:56:38Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。