論文の概要: The Semantic Architect: How FEAML Bridges Structured Data and LLMs for Multi-Label Tasks
- arxiv url: http://arxiv.org/abs/2512.15082v1
- Date: Wed, 17 Dec 2025 04:58:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:26.857756
- Title: The Semantic Architect: How FEAML Bridges Structured Data and LLMs for Multi-Label Tasks
- Title(参考訳): セマンティックアーキテクト: FEAMLがマルチラベルタスクのための構造化データとLLMをどのようにブリッジするか
- Authors: Wanfu Gao, Zebin He, Jun Gao,
- Abstract要約: 大規模言語モデル(LLM)に基づく既存の特徴工学手法はまだマルチラベル学習には適用されていない。
複数ラベル分類のための自動特徴工学手法であるFEAMLを提案する。
- 参考スコア(独自算出の注目度): 12.329156266251838
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing feature engineering methods based on large language models (LLMs) have not yet been applied to multi-label learning tasks. They lack the ability to model complex label dependencies and are not specifically adapted to the characteristics of multi-label tasks. To address the above issues, we propose Feature Engineering Automation for Multi-Label Learning (FEAML), an automated feature engineering method for multi-label classification which leverages the code generation capabilities of LLMs. By utilizing metadata and label co-occurrence matrices, LLMs are guided to understand the relationships between data features and task objectives, based on which high-quality features are generated. The newly generated features are evaluated in terms of model accuracy to assess their effectiveness, while Pearson correlation coefficients are used to detect redundancy. FEAML further incorporates the evaluation results as feedback to drive LLMs to continuously optimize code generation in subsequent iterations. By integrating LLMs with a feedback mechanism, FEAML realizes an efficient, interpretable and self-improving feature engineering paradigm. Empirical results on various multi-label datasets demonstrate that our FEAML outperforms other feature engineering methods.
- Abstract(参考訳): 大規模言語モデル(LLM)に基づく既存の特徴工学手法はまだマルチラベル学習には適用されていない。
複雑なラベル依存をモデル化する能力がなく、マルチラベルタスクの特徴に特化していない。
上記の課題に対処するため,LLMのコード生成機能を活用した多ラベル分類のための自動機能工学手法であるFEAMLを提案する。
メタデータとラベル共起行列を利用することで、LLMは、高品質な特徴が生成されるデータ特徴とタスク目標の関係を理解するためにガイドされる。
新たに生成された特徴をモデル精度で評価し,その有効性を評価するとともに,ピアソン相関係数を用いて冗長性を検出する。
FEAMLはさらに、評価結果をフィードバックとして組み込んで、LCMを駆動し、その後のイテレーションでコード生成を継続的に最適化する。
LLMをフィードバック機構に統合することにより、FEAMLは効率的で解釈可能で自己改善可能な機能エンジニアリングパラダイムを実現する。
様々なマルチラベルデータセットに対する実証的な結果は、私たちのFAAMLが他の機能エンジニアリング手法よりも優れていることを示している。
関連論文リスト
- LLMs as Data Annotators: How Close Are We to Human Performance [47.61698665650761]
データのマニュアルアノテーションは、労働集約的で、時間がかかり、コストがかかる。
In-context Learning (ICL) では、タスクに関連するいくつかの例がプロンプトで与えられると、非効率性や準最適モデルの性能につながる可能性がある。
本稿では,NERタスクの様々なデータセットに対して,異なる埋め込みモデルを考慮した複数のLLMの比較実験を行う。
論文 参考訳(メタデータ) (2025-04-21T11:11:07Z) - LLM-FE: Automated Feature Engineering for Tabular Data with LLMs as Evolutionary Optimizers [10.282327560070202]
大規模言語モデル(LLM)は、機能エンジニアリングプロセスにドメイン知識を統合することを可能にする。
進化的探索とドメイン知識とLLMの推論能力を組み合わせた新しいフレームワーク LLM-FE を提案する。
以上の結果から,LLM-FEは最先端のベースラインを一貫して上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2025-03-18T17:11:24Z) - SELF-GUIDE: Better Task-Specific Instruction Following via Self-Synthetic Finetuning [70.21358720599821]
大規模言語モデル(LLM)は、適切な自然言語プロンプトを提供する際に、多様なタスクを解決するという約束を持っている。
学生LLMからタスク固有の入出力ペアを合成する多段階メカニズムであるSELF-GUIDEを提案する。
ベンチマークの指標から,分類タスクに約15%,生成タスクに18%の絶対的な改善を報告した。
論文 参考訳(メタデータ) (2024-07-16T04:41:58Z) - Small LLMs Are Weak Tool Learners: A Multi-LLM Agent [73.54562551341454]
大規模言語モデル(LLM)エージェントはスタンドアロンのLLMの機能を大幅に拡張する。
本稿では、上記の機能をプランナー、呼び出し元、要約器に分解する新しい手法を提案する。
このモジュール化されたフレームワークは、個々の更新と、それぞれの機能を構築するための小さなLLMの潜在的な使用を容易にする。
論文 参考訳(メタデータ) (2024-01-14T16:17:07Z) - From Quantity to Quality: Boosting LLM Performance with Self-Guided Data Selection for Instruction Tuning [52.257422715393574]
本稿では,Large Language Models (LLMs) の自己誘導手法を導入し,オープンソースデータセットからサクラサンプルを自動識別し,選択する。
我々の重要な革新である命令追従困難度(IFD)メトリックは、モデルが期待する応答と本質的な生成能力の相違を識別するための重要な指標として現れます。
論文 参考訳(メタデータ) (2023-08-23T09:45:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。