論文の概要: FraudTransformer: Time-Aware GPT for Transaction Fraud Detection
- arxiv url: http://arxiv.org/abs/2509.23712v1
- Date: Sun, 28 Sep 2025 07:53:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.391738
- Title: FraudTransformer: Time-Aware GPT for Transaction Fraud Detection
- Title(参考訳): FraudTransformer:トランザクション不正検出のための時間認識GPT
- Authors: Gholamali Aminian, Andrew Elliott, Tiger Li, Timothy Cheuk Hin Wong, Victor Claude Dehon, Lukasz Szpruch, Carsten Maple, Christopher Read, Martin Brown, Gesine Reinert, Mo Mamouei,
- Abstract要約: 我々は、専用のタイムエンコーダでバニラGPTスタイルのアーキテクチャを拡張するシーケンスモデルであるFraudTransformerを紹介する。
大規模な産業データセット(数千万のトランザクションと補助イベント)の実験は、FraudTransformerが4つの強力な古典的ベースラインを超えたことを示している。
- 参考スコア(独自算出の注目度): 15.972890332053318
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Detecting payment fraud in real-world banking streams requires models that can exploit both the order of events and the irregular time gaps between them. We introduce FraudTransformer, a sequence model that augments a vanilla GPT-style architecture with (i) a dedicated time encoder that embeds either absolute timestamps or inter-event values, and (ii) a learned positional encoder that preserves relative order. Experiments on a large industrial dataset -- tens of millions of transactions and auxiliary events -- show that FraudTransformer surpasses four strong classical baselines (Logistic Regression, XGBoost and LightGBM) as well as transformer ablations that omit either the time or positional component. On the held-out test set it delivers the highest AUROC and PRAUC.
- Abstract(参考訳): 現実の銀行ストリームにおける支払い詐欺の検出には、イベントの順序とそれらの間の不規則な時間ギャップの両方を活用できるモデルが必要である。
我々は、バニラGPTスタイルアーキテクチャを拡張したシーケンスモデルであるFraudTransformerを紹介する。
(i)絶対タイムスタンプまたはイベント間値を埋め込んだ専用タイムエンコーダ
(ii)相対的な順序を保つ学習された位置エンコーダ。
大規模な産業データセット(数千万のトランザクションと補助イベント)に関する実験は、FraudTransformerが4つの強力な古典的ベースライン(ロジスティック回帰、XGBoost、LightGBM)を越え、時間的または位置的コンポーネントを省略するトランスフォーマーのアブレーションを示している。
ホールドアウトテストセットでは、最高レベルのAUROCとPRAUCを提供する。
関連論文リスト
- Pi-Transformer: A Physics-informed Attention Mechanism for Time Series Anomaly Detection [3.8673630752805437]
2つの注意経路を持つ物理インフォーム変換器であるPi-Transformerを提案する。
このモデルは、アライメント重み付けされた再構成信号と、タイミングと位相破壊を強調するミスマッチ信号を組み合わせる。
Pi-Transformerは最先端または競争性の高いF1を実現し、特にタイミングと位相破壊異常に強い。
論文 参考訳(メタデータ) (2025-09-24T10:47:48Z) - Time-RA: Towards Time Series Reasoning for Anomaly with LLM Feedback [55.284574165467525]
Time-RA(Time-Series Reasoning for Anomaly)は、時系列異常検出を生成的、推論集約的なタスクに変換する。
また,実世界のマルチモーダルベンチマークデータセットであるRATs40Kを導入する。
論文 参考訳(メタデータ) (2025-07-20T18:02:50Z) - Decomposition-based multi-scale transformer framework for time series anomaly detection [0.9438207505148947]
時系列異常検出のための分解(TransDe)に基づくトランスフォーマーベースのフレームワークを提案する。
時系列の各分解成分の代表的な依存関係を利用するために,マルチスケールのパッチベースのトランスフォーマーアーキテクチャを提案する。
TransDeの性能を効果的に向上するために、停止段階の戦略を持つ新しい非同期損失関数を導入した。
論文 参考訳(メタデータ) (2025-04-19T06:47:38Z) - Take an Irregular Route: Enhance the Decoder of Time-Series Forecasting
Transformer [9.281993269355544]
本稿では,エンコーダとデコーダのボトムアップおよびトップダウンアーキテクチャを利用して,完全かつ合理的な階層を構築するためのFPPformerを提案する。
6つの最先端ベンチマークによる大規模な実験は、FPPformerの有望な性能を検証する。
論文 参考訳(メタデータ) (2023-12-10T06:50:56Z) - iTransformer: Inverted Transformers Are Effective for Time Series Forecasting [62.40166958002558]
iTransformerを提案する。これは、逆次元に注意とフィードフォワードのネットワークを単純に適用する。
iTransformerモデルは、挑戦的な現実世界のデータセットの最先端を実現する。
論文 参考訳(メタデータ) (2023-10-10T13:44:09Z) - Exploring the Advantages of Transformers for High-Frequency Trading [4.1531215150301035]
本稿では,高速Bitcoin-USDTログリターン予測のための新しいディープラーニングトランスフォーマーアーキテクチャについて検討する。
textbfHFformerと呼ばれるハイブリッドトランスフォーマーモデルは、Transformerエンコーダ、線形デコーダ、スパイクアクティベーション、量子損失関数を組み込んだ時系列予測のために導入された。
論文 参考訳(メタデータ) (2023-02-20T09:02:10Z) - FormerTime: Hierarchical Multi-Scale Representations for Multivariate
Time Series Classification [53.55504611255664]
formerTimeは、多変量時系列分類タスクの分類能力を改善する階層的表現モデルである。
1)時系列データから階層的なマルチスケール表現を学習し、(2)トランスフォーマーと畳み込みネットワークの強さを継承し、(3)自己維持メカニズムによって引き起こされる効率の課題に取り組む。
論文 参考訳(メタデータ) (2023-02-20T07:46:14Z) - Robust representations of oil wells' intervals via sparse attention
mechanism [2.604557228169423]
正規化変換器(Reguformers)と呼ばれる効率的な変換器のクラスを導入する。
私たちの実験の焦点は、石油とガスのデータ、すなわちウェルログにあります。
このような問題に対する我々のモデルを評価するために、20以上の井戸からなるウェルログからなる産業規模のオープンデータセットで作業する。
論文 参考訳(メタデータ) (2022-12-29T09:56:33Z) - Temporally Consistent Transformers for Video Generation [80.45230642225913]
正確なビデオを生成するには、アルゴリズムは世界の空間的および時間的依存関係を理解する必要がある。
時間依存性のあるビデオ生成を厳格に評価するために、複雑なデータに関する確立されたベンチマークは存在しない。
本稿では,長期間の一貫性を著しく向上し,サンプリング時間を短縮するTemporally Consistent Transformer(TECO)を提案する。
論文 参考訳(メタデータ) (2022-10-05T17:15:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。