論文の概要: Open Continual Feature Selection via Granular-Ball Knowledge Transfer
- arxiv url: http://arxiv.org/abs/2403.10253v1
- Date: Fri, 15 Mar 2024 12:43:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-18 17:11:11.136213
- Title: Open Continual Feature Selection via Granular-Ball Knowledge Transfer
- Title(参考訳): 粒界知識伝達による開連続特徴選択
- Authors: Xuemei Cao, Xin Yang, Shuyin Xia, Guoyin Wang, Tianrui Li,
- Abstract要約: データ前処理における連続的特徴選択(CFS)のための新しいフレームワークを提案する。
提案手法は,連続学習(CL)とグラニュラーボールコンピューティング(GBC)の強みを組み合わせたものである。
提案手法は,最先端の特徴選択法と比較して,有効性と効率の両面で優れていることを示す。
- 参考スコア(独自算出の注目度): 16.48797678104989
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a novel framework for continual feature selection (CFS) in data preprocessing, particularly in the context of an open and dynamic environment where unknown classes may emerge. CFS encounters two primary challenges: the discovery of unknown knowledge and the transfer of known knowledge. To this end, the proposed CFS method combines the strengths of continual learning (CL) with granular-ball computing (GBC), which focuses on constructing a granular-ball knowledge base to detect unknown classes and facilitate the transfer of previously learned knowledge for further feature selection. CFS consists of two stages: initial learning and open learning. The former aims to establish an initial knowledge base through multi-granularity representation using granular-balls. The latter utilizes prior granular-ball knowledge to identify unknowns, updates the knowledge base for granular-ball knowledge transfer, reinforces old knowledge, and integrates new knowledge. Subsequently, we devise an optimal feature subset mechanism that incorporates minimal new features into the existing optimal subset, often yielding superior results during each period. Extensive experimental results on public benchmark datasets demonstrate our method's superiority in terms of both effectiveness and efficiency compared to state-of-the-art feature selection methods.
- Abstract(参考訳): 本稿では,データ前処理における連続的特徴選択(CFS)の枠組みについて述べる。
CFSは、未知の知識の発見と既知の知識の伝達という、2つの主要な課題に直面している。
この目的のために提案したCFS法は,未知のクラスを検知し,事前学習した知識の伝達を容易にするグラニュラーボール知識ベースを構築することを目的とした,連続学習(CL)とグラニュラーボールコンピューティング(GBC)の強みを組み合わせたものである。
CFSは、初期学習とオープン学習の2つのステージで構成されている。
前者は,グラニュラーボールを用いた多粒度表現により,初期知識基盤を確立することを目的としている。
後者は、事前の粒界知識を利用して未知を識別し、粒界知識伝達のための知識基盤を更新し、古い知識を強化し、新しい知識を統合する。
その後、最小限の新機能を既存の最適サブセットに組み込んだ最適な機能サブセット機構を考案し、各期間に優れた結果が得られるようにした。
提案手法の有効性と効率の両面から,提案手法の優位性を示す。
関連論文リスト
- Evidential Federated Learning for Skin Lesion Image Classification [9.112380151690862]
FedEvPromptは、明らかなディープラーニング、迅速なチューニング、知識蒸留の原則を統合する、連合学習アプローチである。
ラウンドベースの学習パラダイムで最適化されており、各ラウンドではローカルモデルをトレーニングし、次にすべてのフェデレーションクライアントとアテンションマップを共有する。
結論としてFedEvPromptは、データ不均一性、不均衡、プライバシー保護、知識共有といった課題に効果的に対処する、連邦学習に有望なアプローチを提供する。
論文 参考訳(メタデータ) (2024-11-15T09:34:28Z) - Self-Cooperation Knowledge Distillation for Novel Class Discovery [8.984031974257274]
新たなクラス発見(NCD)は、既知のクラスについて既に学んだ知識を活用することで、ラベルのないセットで未知のクラスと新しいクラスを発見することを目的としている。
本研究では, 自己協調的知識蒸留法 (SCKD) を提案し, 各トレーニングサンプル(既知の, 新規, ラベル付, ラベル付, 未ラベル) を, レビューと発見の両方に活用する。
論文 参考訳(メタデータ) (2024-07-02T03:49:48Z) - FedProK: Trustworthy Federated Class-Incremental Learning via Prototypical Feature Knowledge Transfer [22.713451501707908]
フェデレーション・クラス・インクリメンタル・ラーニング(FCIL)は、動的フェデレーション・ラーニング(FL)における新しいクラスを学ぶために、以前の知識を継続的に移行することに焦点を当てている。
本稿では,空間的時間的知識伝達を行うための新しい知識表現として,FedProK(Federated Prototypeal Feature Knowledge Transfer)を提案する。
論文 参考訳(メタデータ) (2024-05-04T14:57:09Z) - A Unified and General Framework for Continual Learning [58.72671755989431]
継続学習(CL)は、以前取得した知識を維持しながら、動的かつ変化するデータ分布から学ぶことに焦点を当てている。
正規化ベース、ベイズベース、メモリ再生ベースなど、破滅的な忘れ込みの課題に対処する様々な手法が開発されている。
本研究の目的は,既存の方法論を包含し,整理する包括的かつ包括的な枠組みを導入することで,このギャップを埋めることである。
論文 参考訳(メタデータ) (2024-03-20T02:21:44Z) - Learning to Prompt Knowledge Transfer for Open-World Continual Learning [13.604171414847531]
Pro-KTは,オープンワールド連続学習のための新しい知識伝達モデルである。
Pro-KTは、(1)タスクジェネリックな知識とタスク固有の知識の両方をエンコードし、転送するプロンプトバンク、(2)タスクアウェアなオープンセット境界により、新しいタスクの未知を識別する。
論文 参考訳(メタデータ) (2023-12-22T11:53:31Z) - Recognizing Unseen Objects via Multimodal Intensive Knowledge Graph
Propagation [68.13453771001522]
画像の領域と対応するセマンティック埋め込みとをマッチングする多モード集中型ZSLフレームワークを提案する。
我々は、大規模な実世界のデータに基づいて、広範囲な実験を行い、そのモデルを評価する。
論文 参考訳(メタデータ) (2023-06-14T13:07:48Z) - Evolving Knowledge Mining for Class Incremental Segmentation [113.59611699693092]
クラスインクリメンタルセマンティック(CISS)は、最近、現実世界のアプリケーションにおいて大きな重要性があるため、トレンドとなっている。
冷凍バックボーンを用いた新規なkNowleDgeマイニング法を提案する。
提案手法を2つの広く使用されているベンチマークで評価し,新しい最先端性能を一貫して示す。
論文 参考訳(メタデータ) (2023-06-03T07:03:15Z) - Towards a Universal Continuous Knowledge Base [49.95342223987143]
複数のニューラルネットワークからインポートされた知識を格納できる継続的知識基盤を構築する方法を提案する。
テキスト分類実験は有望な結果を示す。
我々は複数のモデルから知識ベースに知識をインポートし、そこから融合した知識を単一のモデルにエクスポートする。
論文 参考訳(メタデータ) (2020-12-25T12:27:44Z) - Sequential Latent Knowledge Selection for Knowledge-Grounded Dialogue [51.513276162736844]
この問題に対する最初のアプローチとして,逐次潜在変数モデルを提案する。
シーケンシャル・ナレッジ・トランスフォーマー (SKT) という名前のモデルは、知識よりも先行と後続の分布を追跡することができる。
論文 参考訳(メタデータ) (2020-02-18T11:59:59Z) - Learning From Multiple Experts: Self-paced Knowledge Distillation for
Long-tailed Classification [106.08067870620218]
我々は,LFME(Learning From Multiple Experts)と呼ばれる自己評価型知識蒸留フレームワークを提案する。
提案するLFMEフレームワークは,複数の'Experts'からの知識を集約して,統一された学生モデルを学ぶ。
提案手法は,最先端の手法に比べて優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-01-06T12:57:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。