論文の概要: MEL: Efficient Multi-Task Evolutionary Learning for High-Dimensional
Feature Selection
- arxiv url: http://arxiv.org/abs/2402.08982v1
- Date: Wed, 14 Feb 2024 06:51:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-15 16:30:02.835339
- Title: MEL: Efficient Multi-Task Evolutionary Learning for High-Dimensional
Feature Selection
- Title(参考訳): MEL:高次元特徴選択のための効率的なマルチタスク進化学習
- Authors: Xubin Wang, Haojiong Shangguan, Fengyi Huang, Shangrui Wu and Weijia
Jia
- Abstract要約: PSOに基づくマルチタスク進化学習(MEL)という新しい手法を提案する。
異なる特徴選択タスク間での情報共有を組み込むことで、MELは学習能力と効率を向上させる。
我々は、22個の高次元データセットに対する広範囲な実験を通して、MELの有効性を評価する。
- 参考スコア(独自算出の注目度): 11.934379476825551
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Feature selection is a crucial step in data mining to enhance model
performance by reducing data dimensionality. However, the increasing
dimensionality of collected data exacerbates the challenge known as the "curse
of dimensionality", where computation grows exponentially with the number of
dimensions. To tackle this issue, evolutionary computational (EC) approaches
have gained popularity due to their simplicity and applicability.
Unfortunately, the diverse designs of EC methods result in varying abilities to
handle different data, often underutilizing and not sharing information
effectively. In this paper, we propose a novel approach called PSO-based
Multi-task Evolutionary Learning (MEL) that leverages multi-task learning to
address these challenges. By incorporating information sharing between
different feature selection tasks, MEL achieves enhanced learning ability and
efficiency. We evaluate the effectiveness of MEL through extensive experiments
on 22 high-dimensional datasets. Comparing against 24 EC approaches, our method
exhibits strong competitiveness. Additionally, we have open-sourced our code on
GitHub at https://github.com/wangxb96/MEL.
- Abstract(参考訳): 特徴の選択はデータマイニングにおいて重要なステップであり、データ次元を減らすことでモデルの性能を向上させる。
しかし、収集データの次元の増大は「次元の曲線」として知られる課題を悪化させ、計算量は次元の数とともに指数関数的に増加する。
この問題に対処するため、進化計算(EC)アプローチは、その単純さと適用性から人気を集めている。
残念ながら、ECメソッドの多様な設計は、様々なデータを扱う様々な能力をもたらし、しばしば情報を効果的に共有しない。
本稿では,マルチタスク学習を活用したpso-based multi-task evolutionary learning (mel) と呼ばれる新しいアプローチを提案する。
異なる特徴選択タスク間での情報共有を組み込むことで、MELは学習能力と効率を向上させる。
我々は、22個の高次元データセットに対する広範囲な実験により、MELの有効性を評価する。
本手法は,24のECアプローチと比較して,強い競争力を示す。
さらに、GitHubでコードをhttps://github.com/wangxb96/MELでオープンソース化しました。
関連論文リスト
- SGW-based Multi-Task Learning in Vision Tasks [8.459976488960269]
データセットの規模が拡大し、タスクの複雑さが増すにつれ、知識の共有はますます困難になってきている。
情報ボトルネック知識抽出モジュール(KEM)を提案する。
このモジュールは,情報の流れを制約することでタスク間干渉を減らすことを目的としており,計算複雑性を低減する。
論文 参考訳(メタデータ) (2024-10-03T13:56:50Z) - MMEvol: Empowering Multimodal Large Language Models with Evol-Instruct [148.39859547619156]
我々は,新しいマルチモーダル命令データ進化フレームワークであるMMEvolを提案する。
MMEvolは、きめ細かい知覚、認知的推論、相互作用の進化の洗練された組み合わせによって、データ品質を反復的に改善する。
提案手法は,9つのタスクにおいて,最先端モデルに比べて有意に少ない精度でSOTA(State-of-the-art)性能を実現する。
論文 参考訳(メタデータ) (2024-09-09T17:44:00Z) - Urban-Focused Multi-Task Offline Reinforcement Learning with Contrastive Data Sharing [19.139077084857487]
コントラストデータ共有アプローチを用いたマルチタスクオフライン強化学習であるMODAを紹介する。
我々は,新しいモデルベースマルチタスクオフラインRLアルゴリズムを開発した。
実世界のマルチタスク都市環境における実験により,MODAの有効性が検証された。
論文 参考訳(メタデータ) (2024-06-20T07:24:24Z) - Intuition-aware Mixture-of-Rank-1-Experts for Parameter Efficient Finetuning [50.73666458313015]
大規模言語モデル(LLM)はマルチメディアアプリケーションで複数のタスクを実行する上で大きな可能性を証明している。
MoEは、効率的なタスクデカップリングのためのスパースアーキテクチャによる有望なソリューションとして登場した。
Intuition-MoR1Eは14のパブリックデータセットで優れた効率と2.15%の全体的な精度向上を実現している。
論文 参考訳(メタデータ) (2024-04-13T12:14:58Z) - Exploring the Mystery of Influential Data for Mathematical Reasoning [127.61978092016228]
数学的推論のためのQaDS(Quality-Aware Diverse Selection)戦略を提案する。
他の選択戦略との比較は、QaDSの優位性を検証する。
OpenMathMixでは、7Bベースモデルを用いたMATHで最先端の48.8%の精度を実現している。
論文 参考訳(メタデータ) (2024-04-01T12:01:06Z) - Reinforcement Learning Based Multi-modal Feature Fusion Network for
Novel Class Discovery [47.28191501836041]
本稿では,人間の認知過程をシミュレートするために強化学習フレームワークを用いる。
また,マルチモーダル情報から特徴を抽出・融合するマルチエージェントフレームワークをデプロイした。
我々は、OS-MN40、OS-MN40-Miss、Cifar10データセットを用いて、3Dドメインと2Dドメインの両方でのアプローチの性能を示す。
論文 参考訳(メタデータ) (2023-08-26T07:55:32Z) - A Dimensional Structure based Knowledge Distillation Method for
Cross-Modal Learning [15.544134849816528]
簡単な作業から抽出した特徴を解析・観察することで特徴識別性と次元構造(DS)の相関を見いだす。
クロスモーダル・ナレッジ・蒸留法 (CMKD) を提案し, 教師付きクロスモーダル・ラーニング (CML) の性能向上を図る。
提案手法は, チャネル的に独立して, 中間的な特徴を均一に分散させることで, その精度を高めるために, 難易度から意味的に無関係な特徴を学習する。
論文 参考訳(メタデータ) (2023-06-28T07:29:26Z) - Automatic Data Augmentation via Invariance-Constrained Learning [94.27081585149836]
下位のデータ構造は、しばしば学習タスクのソリューションを改善するために利用される。
データ拡張は、入力データに複数の変換を適用することで、トレーニング中にこれらの対称性を誘導する。
この作業は、学習タスクを解決しながらデータ拡張を自動的に適応することで、これらの問題に対処する。
論文 参考訳(メタデータ) (2022-09-29T18:11:01Z) - An Evolutionary Approach to Dynamic Introduction of Tasks in Large-scale
Multitask Learning Systems [4.675744559395732]
マルチタスク学習は、複数のタスクから学習できるモデルが知識伝達によってより良い品質と効率を達成すると仮定する。
最先端のMLモデルは、タスクごとに高いカスタマイズに依存し、タスクの数をスケールするのではなく、サイズとデータスケールを活用する。
本稿では,大規模マルチタスクモデルを生成でき,新しいタスクの動的かつ連続的な追加を支援する進化的手法を提案する。
論文 参考訳(メタデータ) (2022-05-25T13:10:47Z) - Self-Supervised Graph Neural Network for Multi-Source Domain Adaptation [51.21190751266442]
ドメイン適応(DA)は、テストデータがトレーニングデータの同じ分布に完全に従わない場合に、シナリオに取り組む。
大規模未ラベルサンプルから学習することで、自己教師型学習がディープラーニングの新しいトレンドとなっている。
我々は,より効果的なタスク間情報交換と知識共有を実現するために,新しい textbfSelf-textbf Supervised textbfGraph Neural Network (SSG) を提案する。
論文 参考訳(メタデータ) (2022-04-08T03:37:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。