論文の概要: LLM-FS-Agent: A Deliberative Role-based Large Language Model Architecture for Transparent Feature Selection
- arxiv url: http://arxiv.org/abs/2510.05935v1
- Date: Tue, 07 Oct 2025 13:46:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 17:57:08.274644
- Title: LLM-FS-Agent: A Deliberative Role-based Large Language Model Architecture for Transparent Feature Selection
- Title(参考訳): LLM-FS-Agent: 透過的特徴選択のための対話型ロールベース大規模言語モデルアーキテクチャ
- Authors: Mohamed Bal-Ghaoui, Fayssal Sabri,
- Abstract要約: 本稿では,LLM-FS-Agentについて紹介する。
CIC-DIAD 2024 IoT 侵入検出データセットを用いて,サイバーセキュリティ領域における LLM-FS-Agent の評価を行った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: High-dimensional data remains a pervasive challenge in machine learning, often undermining model interpretability and computational efficiency. While Large Language Models (LLMs) have shown promise for dimensionality reduction through feature selection, existing LLM-based approaches frequently lack structured reasoning and transparent justification for their decisions. This paper introduces LLM-FS-Agent, a novel multi-agent architecture designed for interpretable and robust feature selection. The system orchestrates a deliberative "debate" among multiple LLM agents, each assigned a specific role, enabling collective evaluation of feature relevance and generation of detailed justifications. We evaluate LLM-FS-Agent in the cybersecurity domain using the CIC-DIAD 2024 IoT intrusion detection dataset and compare its performance against strong baselines, including LLM-Select and traditional methods such as PCA. Experimental results demonstrate that LLM-FS-Agent consistently achieves superior or comparable classification performance while reducing downstream training time by an average of 46% (statistically significant improvement, p = 0.028 for XGBoost). These findings highlight that the proposed deliberative architecture enhances both decision transparency and computational efficiency, establishing LLM-FS-Agent as a practical and reliable solution for real-world applications.
- Abstract(参考訳): 高次元データは、機械学習における広範にわたる課題であり、しばしばモデルの解釈可能性と計算効率を損なう。
LLM(Large Language Models)は特徴選択による次元の縮小を約束する一方で、既存のLLMベースのアプローチでは、その決定に対する構造的推論と透過的な正当化が欠如していることが多い。
本稿では,LLM-FS-Agentについて紹介する。
このシステムは複数のLLMエージェント間で議論的な「議論」を編成し、それぞれが特定の役割を割り当て、特徴的関連性の集合的評価と詳細な正当化の生成を可能にする。
CIC-DIAD 2024 IoT 侵入検出データセットを用いて,サイバーセキュリティ領域における LLM-FS-Agent の評価を行い,その性能を LLM-Select や PCA などの従来の手法を含む強力なベースラインと比較した。
実験の結果,LLM-FS-Agentは,平均46%のダウンストリームトレーニング時間(統計的に有意な改善,XGBoostは0.028)を低減しつつ,優れた分類性能と同等の分類性能を一貫して達成していることがわかった。
これらの結果から,提案手法によって意思決定の透明性と計算効率が向上し,LLM-FS-Agentが現実のアプリケーションにおいて実用的で信頼性の高いソリューションとして確立された。
関連論文リスト
- Feature Engineering for Agents: An Adaptive Cognitive Architecture for Interpretable ML Monitoring [2.1205272468688574]
大規模言語モデルに基づくエージェントに特徴工学の原則を適用したMLモニタリングのための認知アーキテクチャを提案する。
決定手順モジュールは、リファクタリング、ブレークダウン、コンパイルという3つの重要なステップを通じて、機能エンジニアリングをシミュレートする。
複数のLCMを用いた実験により, 各種ベースラインと比較して精度が有意に向上し, 提案手法の有効性が示された。
論文 参考訳(メタデータ) (2025-06-11T13:48:25Z) - Boosting LLM-based Relevance Modeling with Distribution-Aware Robust Learning [14.224921308101624]
本稿では,関係モデリングのための新しい分布認識ロバスト学習フレームワーク(DaRL)を提案する。
DaRLはAlipayの保険商品検索のためにオンラインで展開されている。
論文 参考訳(メタデータ) (2024-12-17T03:10:47Z) - Embodied Agent Interface: Benchmarking LLMs for Embodied Decision Making [85.24399869971236]
我々は,大規模言語モデル(LLM)を具体的意思決定のために評価することを目指している。
既存の評価は最終的な成功率にのみ依存する傾向がある。
本稿では,様々なタスクの形式化を支援する汎用インタフェース (Embodied Agent Interface) を提案する。
論文 参考訳(メタデータ) (2024-10-09T17:59:00Z) - SelectLLM: Query-Aware Efficient Selection Algorithm for Large Language Models [8.558834738072363]
大規模言語モデル(LLM)は、様々なアプリケーションにまたがる顕著な性能のために広く採用されている。
これらの個々のLCMは、固有のトレーニングバイアス、モデルサイズ制約、トレーニング前のデータセットの品質や多様性による、複雑なタスクの一般化とパフォーマンスの制限を示す。
本稿では,入力クエリをLLMの最も適切なサブセットに効率的に誘導するSelectLLMを紹介する。
論文 参考訳(メタデータ) (2024-08-16T06:11:21Z) - FactorLLM: Factorizing Knowledge via Mixture of Experts for Large Language Models [50.331708897857574]
本稿では,高度に訓練された高密度FFNを余分なサブネットワークに分解する新しいアプローチであるFacterLLMを紹介する。
FactorLLMは、最大85%のモデル性能を確保しながら、推論速度を30%以上増加させながら、ソースモデルに匹敵するパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-08-15T16:45:16Z) - From Quantity to Quality: Boosting LLM Performance with Self-Guided Data Selection for Instruction Tuning [52.257422715393574]
本稿では,Large Language Models (LLMs) の自己誘導手法を導入し,オープンソースデータセットからサクラサンプルを自動識別し,選択する。
我々の重要な革新である命令追従困難度(IFD)メトリックは、モデルが期待する応答と本質的な生成能力の相違を識別するための重要な指標として現れます。
論文 参考訳(メタデータ) (2023-08-23T09:45:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。