論文の概要: LLM as an Algorithmist: Enhancing Anomaly Detectors via Programmatic Synthesis
- arxiv url: http://arxiv.org/abs/2510.03904v1
- Date: Sat, 04 Oct 2025 19:00:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.333091
- Title: LLM as an Algorithmist: Enhancing Anomaly Detectors via Programmatic Synthesis
- Title(参考訳): アルゴリズム研究者としてのLLM:プログラム合成による異常検出の強化
- Authors: Hangting Ye, Jinmeng Li, He Zhao, Mingchen Zhuge, Dandan Guo, Yi Chang, Hongyuan Zha,
- Abstract要約: 大きな言語モデル(LLM)は驚くべき推論能力を示している。
我々のフレームワークは、LLMを「データプロセッサ」から「アルゴリズム」に再配置する。
- 参考スコア(独自算出の注目度): 40.82779720776548
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing anomaly detection (AD) methods for tabular data usually rely on some assumptions about anomaly patterns, leading to inconsistent performance in real-world scenarios. While Large Language Models (LLMs) show remarkable reasoning capabilities, their direct application to tabular AD is impeded by fundamental challenges, including difficulties in processing heterogeneous data and significant privacy risks. To address these limitations, we propose LLM-DAS, a novel framework that repositions the LLM from a ``data processor'' to an ``algorithmist''. Instead of being exposed to raw data, our framework leverages the LLM's ability to reason about algorithms. It analyzes a high-level description of a given detector to understand its intrinsic weaknesses and then generates detector-specific, data-agnostic Python code to synthesize ``hard-to-detect'' anomalies that exploit these vulnerabilities. This generated synthesis program, which is reusable across diverse datasets, is then instantiated to augment training data, systematically enhancing the detector's robustness by transforming the problem into a more discriminative two-class classification task. Extensive experiments on 36 TAD benchmarks show that LLM-DAS consistently boosts the performance of mainstream detectors. By bridging LLM reasoning with classic AD algorithms via programmatic synthesis, LLM-DAS offers a scalable, effective, and privacy-preserving approach to patching the logical blind spots of existing detectors.
- Abstract(参考訳): 表形式のデータに対する既存の異常検出(AD)メソッドは通常、異常パターンに関するいくつかの仮定に依存しており、現実のシナリオでは一貫性のないパフォーマンスをもたらす。
大きな言語モデル(LLM)は顕著な推論能力を示しているが、表表ADへの直接的な適用は、異種データ処理の困難や重大なプライバシーリスクなど、基本的な課題によって妨げられている。
これらの制約に対処するため,我々は,LLMを `data processor'' から `algorithmist' に再配置する新しいフレームワーク LLM-DAS を提案する。
我々のフレームワークは生のデータに晒される代わりに、アルゴリズムを推論するLLMの能力を活用しています。
それは、その固有の弱点を理解するために、与えられた検出器の高レベルな記述を分析し、次に検出器固有のデータに依存しないPythonコードを生成して、これらの脆弱性を悪用する ``hard-to-detect'' 異常を合成する。
この生成された合成プログラムは、様々なデータセットで再利用され、次にインスタンス化されてトレーニングデータを強化し、問題をより差別的な2クラス分類タスクに変換することで、検出器の堅牢性を体系的に強化する。
36のTADベンチマークによる大規模な実験により、LLM-DASは主流検出器の性能を一貫して向上させることが示された。
LLM-DASは、プログラム合成による古典的なADアルゴリズムによる推論をブリッジすることで、既存の検出器の論理的な盲点にパッチを当てる、スケーラブルで効果的でプライバシー保護のアプローチを提供する。
関連論文リスト
- Text-ADBench: Text Anomaly Detection Benchmark based on LLMs Embedding [27.02879006439693]
本研究は、総合的な実証的研究を行い、テキスト異常検出のためのベンチマークを導入する。
本研究は,埋め込み型テキスト異常検出の有効性を系統的に評価する。
ベンチマークツールキットをオープンソース化することで、この研究は、堅牢でスケーラブルなテキスト異常検出システムにおける将来の研究の基礎を提供する。
論文 参考訳(メタデータ) (2025-07-16T14:47:41Z) - Efficient Out-of-Scope Detection in Dialogue Systems via Uncertainty-Driven LLM Routing [6.579756339673344]
OOS(Out-of-scope)インテント検出は、タスク指向対話システム(TODS)において重要な課題である。
我々は,不確実性モデリングと細調整された大言語モデル(LLM)を組み合わせて,効率よく正確なOOS検出を行う,新しい単純なモジュラーフレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-02T09:51:41Z) - Large Language Models for Anomaly Detection in Computational Workflows: from Supervised Fine-Tuning to In-Context Learning [9.601067780210006]
本稿では,大規模言語モデル(LLM)を用いて,複雑なデータパターンの学習能力を活用することにより,ワークフローの異常検出を行う。
教師付き微調整 (SFT) では, 文分類のためのラベル付きデータに基づいて事前学習したLCMを微調整し, 異常を識別する。
論文 参考訳(メタデータ) (2024-07-24T16:33:04Z) - Exploring Automatic Cryptographic API Misuse Detection in the Era of LLMs [60.32717556756674]
本稿では,暗号誤用の検出において,大規模言語モデルを評価するための体系的評価フレームワークを提案する。
11,940個のLCM生成レポートを詳細に分析したところ、LSMに固有の不安定性は、報告の半数以上が偽陽性になる可能性があることがわかった。
最適化されたアプローチは、従来の手法を超え、確立されたベンチマークでこれまで知られていなかった誤用を明らかにすることで、90%近い顕著な検出率を達成する。
論文 参考訳(メタデータ) (2024-07-23T15:31:26Z) - Anomaly Detection of Tabular Data Using LLMs [54.470648484612866]
我々は,事前訓練された大規模言語モデル (LLM) がゼロショットバッチレベルの異常検出器であることを示す。
本稿では,実異常検出におけるLCMの潜在性を明らかにするために,エンドツーエンドの微調整手法を提案する。
論文 参考訳(メタデータ) (2024-06-24T04:17:03Z) - Security Vulnerability Detection with Multitask Self-Instructed Fine-Tuning of Large Language Models [8.167614500821223]
脆弱性検出のためのMSIVD, マルチタスクによる自己指示型微調整を, チェーン・オブ・シント・プロンプトとLDMによる自己指示にインスパイアした。
実験の結果,MSIVDは高い性能を示し,LineVul(LLMベースの脆弱性検出ベースライン)はBigVulデータセットでは0.92点,PreciseBugsデータセットでは0.48点であった。
論文 参考訳(メタデータ) (2024-06-09T19:18:05Z) - DALD: Improving Logits-based Detector without Logits from Black-box LLMs [56.234109491884126]
大規模言語モデル(LLM)はテキスト生成に革命をもたらし、人間の文章を忠実に模倣する出力を生成する。
我々は、ブラックボックステキスト検出における最先端性能を再定義する革新的なフレームワークであるDLD(Dis Distribution-Aligned LLMs Detection)を提案する。
DALDは、サロゲートモデルの分布を未知の目標LLMの分布と整合させ、高速モデルの反復に対する検出能力とレジリエンスを向上するように設計されている。
論文 参考訳(メタデータ) (2024-06-07T19:38:05Z) - Advancing Anomaly Detection: Non-Semantic Financial Data Encoding with LLMs [49.57641083688934]
本稿では,Large Language Models (LLM) 埋め込みを用いた財務データにおける異常検出の新しい手法を提案する。
実験により,LLMが異常検出に有用な情報をもたらし,モデルがベースラインを上回っていることが確認された。
論文 参考訳(メタデータ) (2024-06-05T20:19:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。