論文の概要: An Efficient and Accurate Rough Set for Feature Selection,
Classification and Knowledge Representation
- arxiv url: http://arxiv.org/abs/2201.00436v1
- Date: Wed, 29 Dec 2021 12:45:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-09 12:41:31.722267
- Title: An Efficient and Accurate Rough Set for Feature Selection,
Classification and Knowledge Representation
- Title(参考訳): 特徴選択・分類・知識表現のための効率的かつ正確なラフセット
- Authors: Shuyin Xia, Xinyu Bai, Guoyin Wang, Deyu Meng, Xinbo Gao, Zizhong
Chen, Elisabeth Giem
- Abstract要約: 本稿では, 特徴選択, 分類, 知識表現を同時に実現する, 粗集合に基づく強力なデータマイニング手法を提案する。
まず, ノイズ特性の処理において, 粗集合の非効率性について検討し, 相対的重要度と呼ばれる特性のロバストな測定法を提案する。
公開ベンチマークデータセットによる実験結果から,提案フレームワークは7つの人気や最先端の機能選択手法よりも精度が高いことがわかった。
- 参考スコア(独自算出の注目度): 89.5951484413208
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper present a strong data mining method based on rough set, which can
realize feature selection, classification and knowledge representation at the
same time. Rough set has good interpretability, and is a popular method for
feature selections. But low efficiency and low accuracy are its main drawbacks
that limits its application ability. In this paper,corresponding to the
accuracy, we first find the ineffectiveness of rough set because of
overfitting, especially in processing noise attribute, and propose a robust
measurement for an attribute, called relative importance.we proposed the
concept of "rough concept tree" for knowledge representation and
classification. Experimental results on public benchmark data sets show that
the proposed framework achieves higher accurcy than seven popular or the
state-of-the-art feature selection methods.
- Abstract(参考訳): 本稿では, 特徴選択, 分類, 知識表現を同時に実現する, 粗集合に基づく強力なデータマイニング手法を提案する。
ラフ集合は高い解釈性を持ち、特徴選択の一般的な方法である。
しかし、効率の低さと精度の低さが、アプリケーションの能力を制限する主な欠点である。
本稿では, ノイズ属性の処理において, 過フィッティングによる粗集合の非効率性を見いだし, 相対的重要性と呼ばれる属性の頑健な測定法を提案し, 知識表現と分類のための「粗概念木」の概念を提案した。
公開ベンチマークデータセットによる実験結果から,提案フレームワークは7つの人気や最先端の機能選択手法よりも精度が高いことがわかった。
関連論文リスト
- Classification Tree-based Active Learning: A Wrapper Approach [4.706932040794696]
本稿では,木構造にサンプリングプロセスを整理し,分類のためのラッパー能動的学習法を提案する。
ラベル付き標本の初期集合上に構築された分類木は、空間を低エントロピー領域に分解すると考えられる。
この適応は、既存のアクティブラーニング手法よりも大幅に向上することが証明されている。
論文 参考訳(メタデータ) (2024-04-15T17:27:00Z) - IDEAL: Influence-Driven Selective Annotations Empower In-Context
Learners in Large Language Models [66.32043210237768]
本稿では,影響駆動型選択的アノテーション手法を提案する。
アノテーションのコストを最小限に抑えつつ、コンテキスト内サンプルの品質を向上させることを目的としている。
様々なベンチマークで提案手法の優位性を確認する実験を行った。
論文 参考訳(メタデータ) (2023-10-16T22:53:54Z) - XAL: EXplainable Active Learning Makes Classifiers Better Low-resource Learners [71.8257151788923]
低リソーステキスト分類のための新しい説明可能なアクティブラーニングフレームワーク(XAL)を提案する。
XALは分類器に対して、推論を正当化し、合理的な説明ができないラベルのないデータを掘り下げることを推奨している。
6つのデータセットの実験では、XALは9つの強いベースラインに対して一貫した改善を達成している。
論文 参考訳(メタデータ) (2023-10-09T08:07:04Z) - dugMatting: Decomposed-Uncertainty-Guided Matting [83.71273621169404]
そこで本稿では, 明確に分解された不確かさを探索し, 効率よく効率よく改善する, 分解不確実性誘導型マッチングアルゴリズムを提案する。
提案したマッチングフレームワークは,シンプルで効率的なラベリングを用いて対話領域を決定する必要性を緩和する。
論文 参考訳(メタデータ) (2023-06-02T11:19:50Z) - Face: Fast, Accurate and Context-Aware Audio Annotation and
Classification [1.4610038284393165]
本稿では,特徴選択と分類のための文脈認識フレームワークを提案し,高速かつ正確な音声イベントアノテーションと分類を実現する。
特徴選択のための探索は、音声テンポ表現の調査も取り入れている。
提案手法は,UrbanSound8Kデータセット上で98.05%の平均予測精度を得た。
論文 参考訳(メタデータ) (2023-03-07T06:04:58Z) - Compactness Score: A Fast Filter Method for Unsupervised Feature
Selection [66.84571085643928]
本稿では,CSUFS (Compactness Score) と呼ばれる高速な教師なし特徴選択手法を提案する。
提案アルゴリズムは既存のアルゴリズムよりも正確で効率的である。
論文 参考訳(メタデータ) (2022-01-31T13:01:37Z) - A concise method for feature selection via normalized frequencies [0.0]
本稿では,普遍的特徴選択のための簡潔な手法を提案する。
提案手法は, フィルタ法とラッパー法を融合して行う。
評価結果から,提案手法は,精度,精度,リコール,Fスコア,AUCの点で,いくつかの最先端技術に優れた性能を示した。
論文 参考訳(メタデータ) (2021-06-10T15:29:54Z) - Deep Learning feature selection to unhide demographic recommender
systems factors [63.732639864601914]
行列分解モデルは意味的知識を含まない因子を生成する。
DeepUnHideは、協調フィルタリングレコメンデータシステムにおいて、ユーザとアイテムファクタから、人口統計情報を抽出することができる。
論文 参考訳(メタデータ) (2020-06-17T17:36:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。