論文の概要: CausalTAD: Injecting Causal Knowledge into Large Language Models for Tabular Anomaly Detection
- arxiv url: http://arxiv.org/abs/2602.07798v1
- Date: Sun, 08 Feb 2026 03:28:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.805762
- Title: CausalTAD: Injecting Causal Knowledge into Large Language Models for Tabular Anomaly Detection
- Title(参考訳): CausalTAD:大言語モデルに因果知識を注入して語彙異常を検出する
- Authors: Ruiqi Wang, Ruikang Liu, Runyu Chen, Haoxiang Suo, Zhiyi Peng, Zhuo Tang, Changjian Chen,
- Abstract要約: 異常検出のための大規模言語モデルに因果知識を注入するCausalTaDを提案する。
30以上のデータセットにまたがる実験により、我々の手法は現在の最先端の手法よりも一貫して優れていることが示された。
- 参考スコア(独自算出の注目度): 25.929344892682494
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Detecting anomalies in tabular data is critical for many real-world applications, such as credit card fraud detection. With the rapid advancements in large language models (LLMs), state-of-the-art performance in tabular anomaly detection has been achieved by converting tabular data into text and fine-tuning LLMs. However, these methods randomly order columns during conversion, without considering the causal relationships between them, which is crucial for accurately detecting anomalies. In this paper, we present CausalTaD, a method that injects causal knowledge into LLMs for tabular anomaly detection. We first identify the causal relationships between columns and reorder them to align with these causal relationships. This reordering can be modeled as a linear ordering problem. Since each column contributes differently to the causal relationships, we further propose a reweighting strategy to assign different weights to different columns to enhance this effect. Experiments across more than 30 datasets demonstrate that our method consistently outperforms the current state-of-the-art methods. The code for CausalTAD is available at https://github.com/350234/CausalTAD.
- Abstract(参考訳): 表データの異常を検出することは、クレジットカード不正検出など、現実世界の多くのアプリケーションにとって重要である。
大規模言語モデル (LLM) の急速な進歩により, 表の異常検出における最先端の性能は, 表のデータをテキストに変換し, 微調整のLLMに変換することによって達成されている。
しかし、これらの手法は、それらの間の因果関係を考慮せずに、変換中に列をランダムに順序付けする。
本稿では,LCMに因果知識を注入し,表層異常検出を行うCausalTaDを提案する。
まず、列間の因果関係を特定し、これらの因果関係に合わせるように並べ替える。
この再順序付けは線形順序付け問題としてモデル化することができる。
さらに,各列が因果関係に異なる寄与をするので,異なる列に異なる重みを割り当て,その効果を高めるための重み付け戦略を提案する。
30以上のデータセットにまたがる実験により、我々の手法は現在の最先端の手法よりも一貫して優れていることが示された。
CausalTADのコードはhttps://github.com/350234/CausalTADで公開されている。
関連論文リスト
- Federated Causal Discovery from Heterogeneous Data [70.31070224690399]
任意の因果モデルと異種データに対応する新しいFCD法を提案する。
これらのアプローチには、データのプライバシを保護するために、生データのプロキシとして要約統計を構築することが含まれる。
提案手法の有効性を示すために, 合成および実データを用いた広範囲な実験を行った。
論文 参考訳(メタデータ) (2024-02-20T18:53:53Z) - FACTS: First Amplify Correlations and Then Slice to Discover Bias [17.244153084361102]
コンピュータビジョンデータセットは、しばしばタスク関連ラベルと(学習しやすい)潜在タスク関連属性の間の急激な相関を含んでいる。
このようなデータセットでトレーニングされたモデルは、"ショートカット"を学び、相関が保たないデータのバイアス分散スライスを過小評価する。
本稿では,まず相関を増幅し,次にバイアスを識別し,下流のバイアス軽減戦略について報告する。
論文 参考訳(メタデータ) (2023-09-29T17:41:26Z) - Can Large Language Models Infer Causation from Correlation? [104.96351414570239]
大規模言語モデル(LLM)の純粋因果推論スキルをテストする。
相関文の集合を取り、変数間の因果関係を決定する新しいタスクCorr2Causeを定式化する。
これらのモデルがタスクのランダムな性能にほぼ近い結果が得られることを示す。
論文 参考訳(メタデータ) (2023-06-09T12:09:15Z) - CDANs: Temporal Causal Discovery from Autocorrelated and Non-Stationary
Time Series Data [5.130175508025212]
因果発見は、人間の健康に関する実用的な洞察を抽出する上で重要な役割を果たす可能性がある。
本稿では,制約に基づく新たな因果探索手法を提案する。
提案手法では,時間とともに変化するモジュールの変化とともに,タグ付き・即時/同時因果関係を同定する。
論文 参考訳(メタデータ) (2023-02-07T04:13:48Z) - TadGAN: Time Series Anomaly Detection Using Generative Adversarial
Networks [73.01104041298031]
TadGANは、GAN(Generative Adversarial Networks)上に構築された教師なしの異常検出手法である。
時系列の時間相関を捉えるために,ジェネレータと批評家のベースモデルとしてLSTMリカレントニューラルネットワークを用いる。
提案手法の性能と一般化性を示すため,いくつかの異常スコアリング手法を検証し,最も適した手法を報告する。
論文 参考訳(メタデータ) (2020-09-16T15:52:04Z) - Learning Causal Models Online [103.87959747047158]
予測モデルは、予測を行うためにデータの急激な相関に依存することができる。
強い一般化を達成するための一つの解決策は、モデルに因果構造を組み込むことである。
本稿では,突発的特徴を継続的に検出・除去するオンラインアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-12T20:49:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。