論文の概要: An Attack Method for Medical Insurance Claim Fraud Detection based on Generative Adversarial Network
- arxiv url: http://arxiv.org/abs/2506.19871v1
- Date: Sun, 22 Jun 2025 05:02:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-26 21:00:42.453976
- Title: An Attack Method for Medical Insurance Claim Fraud Detection based on Generative Adversarial Network
- Title(参考訳): ジェネレーティブ・ディバイサル・ネットワークを用いた医療保険クレームフレーム検出の一手法
- Authors: Yining Pang, Chenghan Li,
- Abstract要約: 保険詐欺検出は、現代の保険サービスにおいて重要な進歩である。
本稿では,不正検出システムに対する敵対攻撃を行うためのGANベースのアプローチを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Insurance fraud detection represents a pivotal advancement in modern insurance service, providing intelligent and digitalized monitoring to enhance management and prevent fraud. It is crucial for ensuring the security and efficiency of insurance systems. Although AI and machine learning algorithms have demonstrated strong performance in detecting fraudulent claims, the absence of standardized defense mechanisms renders current systems vulnerable to emerging adversarial threats. In this paper, we propose a GAN-based approach to conduct adversarial attacks on fraud detection systems. Our results indicate that an attacker, without knowledge of the training data or internal model details, can generate fraudulent cases that are classified as legitimate with a 99\% attack success rate (ASR). By subtly modifying real insurance records and claims, adversaries can significantly increase the fraud risk, potentially bypassing compromised detection systems. These findings underscore the urgent need to enhance the robustness of insurance fraud detection models against adversarial manipulation, thereby ensuring the stability and reliability of different insurance systems.
- Abstract(参考訳): 保険詐欺検出は、現代保険サービスの重要な進歩であり、管理を強化し不正を防ぐインテリジェントでデジタル化された監視を提供する。
保険システムの安全性と効率を確保することが不可欠である。
AIと機械学習アルゴリズムは不正なクレームを検出する上で強いパフォーマンスを示しているが、標準化された防御機構が欠如しているため、現在のシステムは新たな敵の脅威に脆弱である。
本稿では,不正検出システムに対する敵対攻撃を行うためのGANに基づくアプローチを提案する。
その結果,訓練データや内部モデルの詳細を知らない攻撃者は,99%の攻撃成功率(ASR)で正当と分類された不正なケースを生成できることがわかった。
実際の保険記録やクレームを微調整することで、敵は不正行為のリスクを大幅に増加させ、侵入された検知システムを回避できる可能性がある。
これらの知見は, 各種保険システムの安定性と信頼性を確保するために, 対人操作に対する保険詐欺検出モデルの堅牢性を高めることの必要性を浮き彫りにしている。
関連論文リスト
- Confidential Guardian: Cryptographically Prohibiting the Abuse of Model Abstention [65.47632669243657]
不正直な機関は、不確実性の観点からサービスを差別または不正に否定する機構を利用することができる。
我々は、ミラージュと呼ばれる不確実性誘導攻撃を導入することで、この脅威の実践性を実証する。
本研究では,参照データセット上のキャリブレーションメトリクスを分析し,人工的に抑制された信頼度を検出するフレームワークであるConfidential Guardianを提案する。
論文 参考訳(メタデータ) (2025-05-29T19:47:50Z) - CRUPL: A Semi-Supervised Cyber Attack Detection with Consistency Regularization and Uncertainty-aware Pseudo-Labeling in Smart Grid [0.5499796332553707]
スマートグリッドに対するサイバー攻撃は、データの整合性を妥協し、電源の信頼性を損なう可能性がある。
従来の侵入検知システムは、しばしば、新しく洗練された攻撃を効果的に検出する助けを必要とする。
本研究では,ラベル付きおよびラベルなし計測データを活用することにより,スマートグリッドにおけるサイバー攻撃検出の半教師付き手法を提案する。
論文 参考訳(メタデータ) (2025-03-01T05:49:23Z) - IDU-Detector: A Synergistic Framework for Robust Masquerader Attack Detection [3.3821216642235608]
デジタル時代には、ユーザは個人データを企業データベースに格納し、データセキュリティを企業管理の中心とする。
大規模な攻撃面を考えると、アセットは弱い認証、脆弱性、マルウェアといった課題に直面している。
IDU-Detectorを導入し、侵入検知システム(IDS)とユーザ・エンティティ・ビヘイビア・アナリティクス(UEBA)を統合した。
この統合は、不正アクセスを監視し、システムギャップをブリッジし、継続的な監視を保証し、脅威識別を強化する。
論文 参考訳(メタデータ) (2024-11-09T13:03:29Z) - Case Study: Neural Network Malware Detection Verification for Feature and Image Datasets [5.198311758274061]
我々は、敵に対する具体的な保護を確保するのに役立つ新しい検証ドメインを提案する。
マルウェア分類と2種類の共通マルウェアデータセットについて述べる。
マルウェア分類の検証の改善と改善に必要な課題と今後の考察について概説する。
論文 参考訳(メタデータ) (2024-04-08T17:37:22Z) - FaultGuard: A Generative Approach to Resilient Fault Prediction in Smart Electrical Grids [53.2306792009435]
FaultGuardは、障害タイプとゾーン分類のための最初のフレームワークであり、敵攻撃に耐性がある。
本稿では,ロバスト性を高めるために,低複雑性故障予測モデルとオンライン逆行訓練手法を提案する。
本モデルでは,耐故障予測ベンチマークの最先端を最大0.958の精度で上回っている。
論文 参考訳(メタデータ) (2024-03-26T08:51:23Z) - A Zero Trust Framework for Realization and Defense Against Generative AI
Attacks in Power Grid [62.91192307098067]
本稿では電力グリッドサプライチェーン(PGSC)のための新しいゼロ信頼フレームワークを提案する。
潜在的なGenAIによる攻撃ベクターの早期発見、テールリスクに基づく安定性の評価、そしてそのような脅威の緩和を容易にする。
実験の結果,ゼロ信頼フレームワークは攻撃ベクトル生成に95.7%の精度,95%安定PGSCに9.61%のリスク尺度,GenAIによる攻撃に対する防御に99%の信頼性が得られた。
論文 参考訳(メタデータ) (2024-03-11T02:47:21Z) - When Authentication Is Not Enough: On the Security of Behavioral-Based Driver Authentication Systems [53.2306792009435]
我々はランダムフォレストとリカレントニューラルネットワークアーキテクチャに基づく2つの軽量ドライバ認証システムを開発した。
我々は,SMARTCANとGANCANという2つの新しいエスケープアタックを開発することで,これらのシステムに対する攻撃を最初に提案する。
コントリビューションを通じて、これらのシステムを安全に採用する実践者を支援し、車の盗難を軽減し、ドライバーのセキュリティを高める。
論文 参考訳(メタデータ) (2023-06-09T14:33:26Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - Certifiers Make Neural Networks Vulnerable to Availability Attacks [70.69104148250614]
私たちは初めて、逆転戦略が敵によって意図的に引き起こされる可能性があることを示します。
いくつかの入力や摂動のために自然に発生する障害に加えて、敵は故意にフォールバックを誘発するために訓練時間攻撃を使用することができる。
我々は2つの新しいアベイラビリティーアタックを設計し、これらの脅威の実用的妥当性を示す。
論文 参考訳(メタデータ) (2021-08-25T15:49:10Z) - Adversarial Attacks for Tabular Data: Application to Fraud Detection and
Imbalanced Data [3.2458203725405976]
逆の攻撃は、逆の例、つまり、AIシステムが間違った出力を返すように誘導するわずかに変更された入力を生成することを目的としています。
本稿では,不正検出の文脈において,最先端アルゴリズムを不均衡データに適用する新しい手法を提案する。
実験の結果,提案する修正が攻撃成功率に繋がることがわかった。
実世界の生産システムに適用した場合,提案手法は,高度なaiに基づく不正検出手法の堅牢性に重大な脅威を与える可能性を示す。
論文 参考訳(メタデータ) (2021-01-20T08:58:29Z) - Uncovering Insurance Fraud Conspiracy with Network Learning [34.609076567889694]
我々は,組織的な詐欺師の集団を識別する新しいデータ駆動手法を開発した。
請求者間でデバイス共有ネットワークを導入する。
そこで我々は,グラフ学習アルゴリズムに基づく不正検出の自動解法を開発した。
論文 参考訳(メタデータ) (2020-02-27T13:15:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。