論文の概要: Leaking Sensitive Financial Accounting Data in Plain Sight using Deep
Autoencoder Neural Networks
- arxiv url: http://arxiv.org/abs/2012.07110v1
- Date: Sun, 13 Dec 2020 17:29:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-09 12:48:03.669739
- Title: Leaking Sensitive Financial Accounting Data in Plain Sight using Deep
Autoencoder Neural Networks
- Title(参考訳): ディープ・オートエンコーダ・ニューラルネットを用いた平面視における感性財務会計データの漏洩
- Authors: Marco Schreyer, Chistian Schulze, Damian Borth
- Abstract要約: センシティブな会計データを漏洩させる「実世界の脅威モデル」を提案する。
3つのニューラルネットワークで構成された深層ステガノグラフィープロセスは、そのデータを日々の目立たないイメージに隠すように訓練できる。
- 参考スコア(独自算出の注目度): 1.9659095632676094
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Nowadays, organizations collect vast quantities of sensitive information in
`Enterprise Resource Planning' (ERP) systems, such as accounting relevant
transactions, customer master data, or strategic sales price information. The
leakage of such information poses a severe threat for companies as the number
of incidents and the reputational damage to those experiencing them continue to
increase. At the same time, discoveries in deep learning research revealed that
machine learning models could be maliciously misused to create new attack
vectors. Understanding the nature of such attacks becomes increasingly
important for the (internal) audit and fraud examination practice. The creation
of such an awareness holds in particular for the fraudulent data leakage using
deep learning-based steganographic techniques that might remain undetected by
state-of-the-art `Computer Assisted Audit Techniques' (CAATs). In this work, we
introduce a real-world `threat model' designed to leak sensitive accounting
data. In addition, we show that a deep steganographic process, constituted by
three neural networks, can be trained to hide such data in unobtrusive
`day-to-day' images. Finally, we provide qualitative and quantitative
evaluations on two publicly available real-world payment datasets.
- Abstract(参考訳): 今日では,企業資源計画(ERP)システムでは,関連する取引や顧客マスタデータ,戦略的販売価格情報など,膨大な量の機密情報を収集している。
こうした情報漏えいは、事件の件数や経験者への評判の被害が増加し続けており、企業にとって深刻な脅威となる。
同時に、ディープラーニング研究における発見は、機械学習モデルが悪意を持って悪用され、新たな攻撃ベクターを生成する可能性があることを明らかにした。
このような攻撃の性質を理解することは、(内部)監査・不正検査の実践においてますます重要になる。
このような認識の作成は、特に、最先端の「コンピュータ支援監査技術」(CAAT)によって検出されることのない深層学習に基づくステガノグラフィー技術を用いて不正なデータ漏洩を抑える。
本稿では,センシティブな会計データを漏洩するように設計された実世界の‘threatモデル’を紹介する。
さらに,3つのニューラルネットワークで構成された深層ステガノグラフィープロセスでは,これらのデータを非干渉的な「日々の」画像に隠すように訓練できることを示した。
最後に, 公開されている2つの実世界の支払いデータセットについて, 質的, 定量的評価を行う。
関連論文リスト
- Releasing Malevolence from Benevolence: The Menace of Benign Data on Machine Unlearning [28.35038726318893]
大量の実データや合成データに基づいてトレーニングされた機械学習モデルは、様々な領域で優れた予測性能を達成する。
プライバシの懸念に対処するため、モデルから特定のデータサンプルを削除するために、機械学習が提案されている。
本研究では,データ配信情報を少量の良質なデータ集合に抽出するために,Unlearning Usability Attackを導入する。
論文 参考訳(メタデータ) (2024-07-06T15:42:28Z) - A Customer Level Fraudulent Activity Detection Benchmark for Enhancing Machine Learning Model Research and Evaluation [0.4681661603096334]
本研究では,顧客レベルの不正検出に特化して設計された構造化データセットを含むベンチマークを提案する。
このベンチマークは、ユーザの機密性を確保するために厳格なプライバシーガイドラインに準拠しているだけでなく、顧客中心の機能をカプセル化することによって、豊富な情報ソースを提供する。
論文 参考訳(メタデータ) (2024-04-23T04:57:44Z) - Root causes, ongoing difficulties, proactive prevention techniques, and emerging trends of enterprise data breaches [0.0]
今や企業は、データが重要な資産であると考えており、このデータに侵入しても、ひどい影響が生じる可能性がある。
今や企業は、データ量の増加とデータ漏洩の頻度の増加によるデータ損失の検出と防止に高いプレミアムを課している。
このレビューは、興味深い見通しを強調し、企業がデータ漏洩から直面するリスクについて学ぶことに興味がある人に洞察力のある情報を提供しようとしている。
論文 参考訳(メタデータ) (2023-11-27T20:34:10Z) - Deep Semi-Supervised Anomaly Detection for Finding Fraud in the Futures
Market [0.0]
本稿では,高頻度金融データにおける不正検出のための深部半教師付き異常検出技術であるDeep SADの有効性を評価することを目的とする。
我々は、モンローのTMX交換所からの独占的なリミットオーダーの帳簿データと、偽造の小さなラベル付き事例を用いて、Deep SADを評価する。
本研究では,少数のラベル付きデータを教師なし異常検出フレームワークに組み込むことで,その精度を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2023-08-31T19:07:50Z) - Reducing Catastrophic Forgetting in Self Organizing Maps with
Internally-Induced Generative Replay [67.50637511633212]
生涯学習エージェントは、パターン知覚データの無限のストリームから継続的に学習することができる。
適応するエージェントを構築する上での歴史的難しさの1つは、ニューラルネットワークが新しいサンプルから学ぶ際に、以前取得した知識を維持するのに苦労していることである。
この問題は破滅的な忘れ(干渉)と呼ばれ、今日の機械学習の領域では未解決の問題のままである。
論文 参考訳(メタデータ) (2021-12-09T07:11:14Z) - LogLAB: Attention-Based Labeling of Log Data Anomalies via Weak
Supervision [63.08516384181491]
専門家の手作業を必要とせず,ログメッセージの自動ラベル付けのための新しいモデリング手法であるLogLABを提案する。
本手法は,監視システムが提供する推定故障時間ウィンドウを用いて,正確なラベル付きデータセットを振り返りに生成する。
我々の評価によると、LogLABは3つの異なるデータセットで9つのベンチマークアプローチを一貫して上回り、大規模な障害時ウィンドウでも0.98以上のF1スコアを維持している。
論文 参考訳(メタデータ) (2021-11-02T15:16:08Z) - Insights into Data through Model Behaviour: An Explainability-driven
Strategy for Data Auditing for Responsible Computer Vision Applications [70.92379567261304]
本研究では,データ監査に対する説明可能性駆動型戦略について検討する。
2つの人気のある医療ベンチマークデータセットを監査することで、この戦略を実証する。
私たちは、ディープラーニングモデルに誤った理由を予測させる隠れたデータ品質の問題を発見します。
論文 参考訳(メタデータ) (2021-06-16T23:46:39Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Dataset Security for Machine Learning: Data Poisoning, Backdoor Attacks,
and Defenses [150.64470864162556]
この作業は体系的に分類され、幅広いデータセット脆弱性とエクスプロイトを議論する。
様々な毒とバックドアの脅威モデルとそれらの関係を記述することに加えて,それらの統一分類法を展開する。
論文 参考訳(メタデータ) (2020-12-18T22:38:47Z) - Adversarial Attacks on Machine Learning Systems for High-Frequency
Trading [55.30403936506338]
逆機械学習の観点から,アルゴリズム取引のバリュエーションモデルについて検討する。
攻撃コストを最小限に抑えるサイズ制約で、このドメインに特有の新たな攻撃を導入する。
本稿では、金融モデルのロバスト性について研究・評価するための分析ツールとして、これらの攻撃がどのように利用できるかについて論じる。
論文 参考訳(メタデータ) (2020-02-21T22:04:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。