論文の概要: Meta-Instance Selection. Instance Selection as a Classification Problem with Meta-Features
- arxiv url: http://arxiv.org/abs/2501.11526v1
- Date: Mon, 20 Jan 2025 15:08:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:24:47.297084
- Title: Meta-Instance Selection. Instance Selection as a Classification Problem with Meta-Features
- Title(参考訳): メタ機能を用いた分類問題としてのメタインスタンス選択
- Authors: Marcin Blachnik, Piotr Ciepliński,
- Abstract要約: 本研究は,インスタンス選択過程を統一されたメタ機能空間で行われる分類タスクに変換するアプローチを提案する。
提案手法は,計算複雑性を著しく低減しつつ,参照インスタンス選択法に匹敵する結果が得られる。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Data pruning, or instance selection, is an important problem in machine learning especially in terms of nearest neighbour classifier. However, in data pruning which speeds up the prediction phase, there is an issue related to the speed and efficiency of the process itself. In response, the study proposes an approach involving transforming the instance selection process into a classification task conducted in a unified meta-feature space where each instance can be classified and assigned to either the "to keep" or "to remove" class. This approach requires training an appropriate meta-classifier, which can be developed based on historical instance selection results from other datasets using reference instance selection methods as a labeling tool. This work proposes constructing the meta-feature space based on properties extracted from the nearest neighbor graph. Experiments conducted on 17 datasets of varying sizes and five reference instance selection methods (ENN, Drop3, ICF, HMN-EI, and CCIS) demonstrate that the proposed solution achieves results comparable to reference instance selection methods while significantly reducing computational complexity. In the proposed approach, the computational complexity of the system depends only on identifying the k-nearest neighbors for each data sample and running the meta-classifier. Additionally, the study discusses the choice of meta-classifier, recommending the use of Balanced Random Forest.
- Abstract(参考訳): データプルーニング(英: data pruning)またはインスタンス選択(英: instance selection)は、機械学習において特に近隣の分類器において重要な問題である。
しかし、予測フェーズを高速化するデータプルーニングでは、プロセス自体の速度と効率に関する問題がある。
そこで本研究では,インスタンス選択過程を,各インスタンスを分類し,"保存"クラスと"削除"クラスのいずれかに割り当てる,統一されたメタ機能空間で行われる分類タスクに変換するアプローチを提案する。
このアプローチでは、ラベル付けツールとして参照インスタンス選択方法を使用して、他のデータセットからの履歴インスタンス選択結果に基づいて、適切なメタ分類器をトレーニングする必要がある。
本研究は, 近接グラフから抽出した特性に基づいて, メタ機能空間を構築することを提案する。
異なるサイズの17のデータセットと5つの参照インスタンス選択法(ENN, Drop3, ICF, HMN-EI, CCIS)を用いて行った実験により,提案手法が参照インスタンス選択法に匹敵する結果を得るとともに,計算複雑性を大幅に低減することを示した。
提案手法では,各データサンプルのk-アネレスト近傍の同定とメタ分類器の動作にのみ依存する。
さらに、メタ分類器の選択について論じ、バランスドランダムフォレストの使用を推奨している。
関連論文リスト
- FastGAS: Fast Graph-based Annotation Selection for In-Context Learning [53.17606395275021]
インコンテキスト学習(ICL)は、大規模言語モデル(LLM)に対して、一連のトレーニングインスタンスをプロンプトとして使用することにより、新しいタスクに対処する権限を与える。
既存の手法では、アノテーションのラベルなし例のサブセットを選択する方法が提案されている。
本稿では,高品質なインスタンスを効率的に識別するグラフベースの選択手法であるFastGASを提案する。
論文 参考訳(メタデータ) (2024-06-06T04:05:54Z) - Retrieval-Augmented Classification with Decoupled Representation [31.662843145399044]
そこで本研究では,KNN(Kk$-nearest-neighbor)に基づく拡張分類検索手法を提案する。
分類と検索の共有表現がパフォーマンスを損なうことや,トレーニングの不安定化につながることが判明した。
本手法は,幅広い分類データセットを用いて評価する。
論文 参考訳(メタデータ) (2023-03-23T06:33:06Z) - Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning [99.14132861655223]
深層学習のためのクラス内適応拡張(IAA)フレームワークを提案する。
クラスごとのクラス内変動を合理的に推定し, 適応型合成試料を生成し, 硬質試料の採掘を支援する。
本手法は,検索性能の最先端手法を3%~6%向上させる。
論文 参考訳(メタデータ) (2022-11-29T14:52:38Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - PointInst3D: Segmenting 3D Instances by Points [136.7261709896713]
本稿では,ポイント単位の予測方式で機能する,完全畳み込み型3Dポイントクラウドインスタンスセグメンテーション手法を提案する。
その成功の鍵は、各サンプルポイントに適切なターゲットを割り当てることにある。
提案手法はScanNetとS3DISのベンチマークで有望な結果が得られる。
論文 参考訳(メタデータ) (2022-04-25T02:41:46Z) - Parallel feature selection based on the trace ratio criterion [4.30274561163157]
本研究は,PFSTを用いた並列特徴選択という,新しい並列特徴選択手法を提案する。
提案手法は,Fisher's Discriminant Analysisで用いられるクラス分離性の尺度であるトレース基準を用いて特徴的有用性を評価する。
実験により,本手法は,比較対象の他の手法による時間的差のごく一部で,少数の特徴セットを生成できることが確認された。
論文 参考訳(メタデータ) (2022-03-03T10:50:33Z) - Compactness Score: A Fast Filter Method for Unsupervised Feature
Selection [66.84571085643928]
本稿では,CSUFS (Compactness Score) と呼ばれる高速な教師なし特徴選択手法を提案する。
提案アルゴリズムは既存のアルゴリズムよりも正確で効率的である。
論文 参考訳(メタデータ) (2022-01-31T13:01:37Z) - Dynamic Instance-Wise Classification in Correlated Feature Spaces [15.351282873821935]
典型的な機械学習環境では、すべてのテストインスタンスの予測は、モデルトレーニング中に発見された機能の共通サブセットに基づいている。
それぞれのテストインスタンスに対して個別に評価する最適な特徴を順次選択し、分類精度に関して更なる改善が得られないことを判断すると、選択プロセスが終了して予測を行う新しい手法を提案する。
提案手法の有効性, 一般化性, 拡張性について, 多様なアプリケーション領域の様々な実世界のデータセットで説明する。
論文 参考訳(メタデータ) (2021-06-08T20:20:36Z) - Probabilistic Value Selection for Space Efficient Model [10.109875612945658]
情報理論の計量に基づく2つの確率的手法が提案されている: PVS と P + VS。
実験結果から,値選択は精度とモデルサイズ削減のバランスがとれることがわかった。
論文 参考訳(メタデータ) (2020-07-09T08:45:13Z) - Optimal Clustering from Noisy Binary Feedback [75.17453757892152]
本稿では,二元的ユーザフィードバックから一組のアイテムをクラスタリングする問題について検討する。
最小クラスタ回復誤差率のアルゴリズムを考案する。
適応選択のために,情報理論的誤差下界の導出にインスパイアされたアルゴリズムを開発する。
論文 参考訳(メタデータ) (2019-10-14T09:18:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。