論文の概要: Understanding Structured Financial Data with LLMs: A Case Study on Fraud Detection
- arxiv url: http://arxiv.org/abs/2512.13040v1
- Date: Mon, 15 Dec 2025 07:09:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.56429
- Title: Understanding Structured Financial Data with LLMs: A Case Study on Fraud Detection
- Title(参考訳): LLMを用いた構造的財務データの理解 : フラッド検出を事例として
- Authors: Xuwei Tan, Yao Ma, Xueru Zhang,
- Abstract要約: FinFRE-RAGは、数値・分類属性のコンパクトなサブセットを自然言語にシリアライズするために重要誘導特徴量削減を適用した2段階のアプローチである。
LLMは人間の読みやすい説明を作成し、特徴分析を促進することができるため、詐欺分析者の手作業の負担を軽減できる可能性がある。
- 参考スコア(独自算出の注目度): 17.04809129025246
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Detecting fraud in financial transactions typically relies on tabular models that demand heavy feature engineering to handle high-dimensional data and offer limited interpretability, making it difficult for humans to understand predictions. Large Language Models (LLMs), in contrast, can produce human-readable explanations and facilitate feature analysis, potentially reducing the manual workload of fraud analysts and informing system refinements. However, they perform poorly when applied directly to tabular fraud detection due to the difficulty of reasoning over many features, the extreme class imbalance, and the absence of contextual information. To bridge this gap, we introduce FinFRE-RAG, a two-stage approach that applies importance-guided feature reduction to serialize a compact subset of numeric/categorical attributes into natural language and performs retrieval-augmented in-context learning over label-aware, instance-level exemplars. Across four public fraud datasets and three families of open-weight LLMs, FinFRE-RAG substantially improves F1/MCC over direct prompting and is competitive with strong tabular baselines in several settings. Although these LLMs still lag behind specialized classifiers, they narrow the performance gap and provide interpretable rationales, highlighting their value as assistive tools in fraud analysis.
- Abstract(参考訳): 金融取引における不正の検出は、通常、高次元データを扱うために重い特徴工学を必要とし、限定的な解釈性を提供するような表形式のモデルに依存しているため、人間が予測を理解することは困難である。
対照的に、LLM(Large Language Models)は、人間の読みやすい説明を生成し、特徴分析を容易にする。
しかし,多くの特徴に対する推論が困難であったり,クラス不均衡が極端であったり,文脈情報の欠如が原因で,表型不正検出に直接適用すると,性能が低下する。
このギャップを埋めるために、FinFRE-RAGという2段階の手法を導入し、重要誘導特徴量削減を適用して、数値・カテゴリー属性のコンパクトなサブセットを自然言語にシリアライズし、ラベル認識のインスタンスレベルの例に比較して検索強化されたインコンテキスト学習を行う。
FinFRE-RAGは、4つの公開詐欺データセットと3つのオープンウェイトLDMのファミリーで、直接的プロンプトよりもF1/MCCを大幅に改善し、いくつかの設定において強力な表のベースラインと競合する。
これらのLSMは、まだ特殊分類器に遅れを取っているが、パフォーマンスギャップを狭め、解釈可能な合理性を提供し、詐欺分析における補助ツールとしての価値を強調している。
関連論文リスト
- FinAgentBench: A Benchmark Dataset for Agentic Retrieval in Financial Question Answering [57.18367828883773]
FinAgentBenchは、ファイナンスにおける多段階推論によるエージェント検索を評価するためのベンチマークである。
このベンチマークは、S&P-500上場企業に関する26Kのエキスパートアノテート例から成っている。
我々は,最先端モデルの集合を評価し,対象の微調整がエージェント検索性能を大幅に向上することを示す。
論文 参考訳(メタデータ) (2025-08-07T22:15:22Z) - Verifying the Verifiers: Unveiling Pitfalls and Potentials in Fact Verifiers [59.168391398830515]
我々は,14のファクトチェックベンチマークのサンプルを用いて,12の事前学習LDMと1つの特殊ファクト検証器を評価した。
データセットにおけるアノテーションエラーとあいまいさに対処することの重要性を強調します。
最上位のパフォーマンスを実現するために、前作でしばしば見落とされがちな、数ショットのインコンテキストの例を持つフロンティアLSM。
論文 参考訳(メタデータ) (2025-06-16T10:32:10Z) - Truth in the Few: High-Value Data Selection for Efficient Multi-Modal Reasoning [71.3533541927459]
アクティベーション推論ポテンシャル(RAP)と呼ばれる新しいデータ選択パラダイムを提案する。
RAPは、真のマルチモーダル推論を刺激する各サンプルのポテンシャルを推定することで、認知サンプルを識別する。
我々のRAP法は、トレーニングデータの9.3%しか使用せず、計算コストを43%以上削減しながら、常に優れた性能を実現している。
論文 参考訳(メタデータ) (2025-06-05T08:40:24Z) - SAE-FiRE: Enhancing Earnings Surprise Predictions Through Sparse Autoencoder Feature Selection [29.540850801930276]
SAE-FiRE (Sparse Autoencoder for Financial Representation Enhancement) フレームワークを提案する。
SAE-FiREはスパースオートエンコーダ(SAE)を使用して、大言語モデルから高密度なニューラル表現を解釈可能なスパースコンポーネントに分解する。
過度な適合につながる可能性のあるノイズを体系的にフィルタリングすることで、より堅牢で一般化可能な予測を可能にします。
論文 参考訳(メタデータ) (2025-05-20T14:31:23Z) - Detecting LLM Hallucination Through Layer-wise Information Deficiency: Analysis of Ambiguous Prompts and Unanswerable Questions [60.31496362993982]
大規模言語モデル(LLM)は、自信を持って不正確な応答を頻繁に生成する。
本稿では,情報フローの系統的解析を通じて,モデル幻覚を検出する新しいテストタイム手法を提案する。
論文 参考訳(メタデータ) (2024-12-13T16:14:49Z) - Advancing Anomaly Detection: Non-Semantic Financial Data Encoding with LLMs [49.57641083688934]
本稿では,Large Language Models (LLM) 埋め込みを用いた財務データにおける異常検出の新しい手法を提案する。
実験により,LLMが異常検出に有用な情報をもたらし,モデルがベースラインを上回っていることが確認された。
論文 参考訳(メタデータ) (2024-06-05T20:19:09Z) - Large Language Model Adaptation for Financial Sentiment Analysis [2.0499240875882]
一般言語モデルは、金融に特化されたタスクでは不足する傾向にある。
1.5B未満のパラメータを持つ2つの基礎モデルは、幅広い戦略を用いて適応されている。
小型LLMは大規模モデルに匹敵する性能を有しつつ,パラメータやデータの観点からも効率がよいことを示す。
論文 参考訳(メタデータ) (2024-01-26T11:04:01Z) - Enhancing Financial Sentiment Analysis via Retrieval Augmented Large
Language Models [11.154814189699735]
大規模な言語モデル (LLM) は様々なNLPタスクにおいて優れた性能を示した。
本稿では,金融感情分析のためのLLMフレームワークを提案する。
提案手法の精度は15%から48%向上し,F1得点を得た。
論文 参考訳(メタデータ) (2023-10-06T05:40:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。