論文の概要: Balancing Efficiency vs. Effectiveness and Providing Missing Label
Robustness in Multi-Label Stream Classification
- arxiv url: http://arxiv.org/abs/2310.00665v1
- Date: Sun, 1 Oct 2023 13:23:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 02:36:49.607265
- Title: Balancing Efficiency vs. Effectiveness and Providing Missing Label
Robustness in Multi-Label Stream Classification
- Title(参考訳): マルチラベルストリーム分類におけるバランシング効率と有効性と欠落ラベルロバスト性
- Authors: Sepehr Bakhshi and Fazli Can
- Abstract要約: ニューラルネットワークを用いた高次元多ラベル分類手法を提案する。
本モデルは,非定常環境に適した選択的なドリフト適応機構を用いる。
我々は,単純で効果的な計算手法を用いて,ラベルを欠いた環境に適応する。
- 参考スコア(独自算出の注目度): 3.97048491084787
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Available works addressing multi-label classification in a data stream
environment focus on proposing accurate models; however, these models often
exhibit inefficiency and cannot balance effectiveness and efficiency. In this
work, we propose a neural network-based approach that tackles this issue and is
suitable for high-dimensional multi-label classification. Our model uses a
selective concept drift adaptation mechanism that makes it suitable for a
non-stationary environment. Additionally, we adapt our model to an environment
with missing labels using a simple yet effective imputation strategy and
demonstrate that it outperforms a vast majority of the state-of-the-art
supervised models. To achieve our purposes, we introduce a weighted binary
relevance-based approach named ML-BELS using the Broad Ensemble Learning System
(BELS) as its base classifier. Instead of a chain of stacked classifiers, our
model employs independent weighted ensembles, with the weights generated by the
predictions of a BELS classifier. We show that using the weighting strategy on
datasets with low label cardinality negatively impacts the accuracy of the
model; with this in mind, we use the label cardinality as a trigger for
applying the weights. We present an extensive assessment of our model using 11
state-of-the-art baselines, five synthetics, and 13 real-world datasets, all
with different characteristics. Our results demonstrate that the proposed
approach ML-BELS is successful in balancing effectiveness and efficiency, and
is robust to missing labels and concept drift.
- Abstract(参考訳): データストリーム環境におけるマルチラベル分類に対処する作業は、正確なモデルの提案に重点を置いているが、これらのモデルは効率が悪く、効率と効率のバランスが取れないことが多い。
本研究では,この問題に対処し,高次元多ラベル分類に適したニューラルネットワークに基づくアプローチを提案する。
本モデルは,非定常環境に適した選択的概念ドリフト適応機構を用いる。
さらに、単純な効果的な計算手法を用いてラベルの欠如した環境に適応し、最先端の教師付きモデルの大部分を上回り、その性能を実証する。
そこで本稿では,Broad Ensemble Learning System (BELS) をベース分類器として,ML-BELSという重み付きバイナリ関連性に基づくアプローチを提案する。
重み付き分類器の連鎖の代わりに、我々のモデルは独立重み付きアンサンブルを用いており、重みはBELS分類器の予測によって生成される。
ラベルの濃度が低いデータセットの重み付け戦略を用いることはモデルの精度に悪影響を及ぼすことを示し、このことを念頭において、重み付けのトリガとしてラベルの濃度を用いる。
我々は,11の最先端ベースライン,5つの合成データ,13の現実世界のデータセットを用いて,それぞれ異なる特徴を持つモデルを評価する。
提案手法は,有効性と効率のバランスをとる上で有効であり,ラベルやコンセプトドリフトの欠如に対して堅牢であることを示す。
関連論文リスト
- An Embedding is Worth a Thousand Noisy Labels [0.11999555634662634]
本稿では,重み付けされたアダプティブNearest Neighborアプローチを用いてラベルノイズに対処するWANNを提案する。
WANNの参照手法は、様々な大きさの多様なデータセットや、様々なノイズタイプや重大さで優れていることを示す。
私たちのアプローチは、効率性と説明可能性を強調し、ディープニューラルネットワークトレーニングの固有の制限を克服するための、シンプルで堅牢なソリューションとして現れます。
論文 参考訳(メタデータ) (2024-08-26T15:32:31Z) - Exploring Beyond Logits: Hierarchical Dynamic Labeling Based on Embeddings for Semi-Supervised Classification [49.09505771145326]
モデル予測に依存しない階層型動的ラベル付け(HDL)アルゴリズムを提案し,画像埋め込みを用いてサンプルラベルを生成する。
本手法は,半教師付き学習における擬似ラベル生成のパラダイムを変える可能性がある。
論文 参考訳(メタデータ) (2024-04-26T06:00:27Z) - Graph Embedded Intuitionistic Fuzzy Random Vector Functional Link Neural
Network for Class Imbalance Learning [4.069144210024564]
クラス不均衡学習(GE-IFRVFL-CIL)モデルのためのグラフ埋め込み直観的ファジィRVFLを提案する。
提案したGE-IFRVFL-CILモデルは、クラス不均衡問題に対処し、ノイズとアウトレーヤの有害な効果を軽減し、データセットの固有の幾何学的構造を保存するための有望な解決策を提供する。
論文 参考訳(メタデータ) (2023-07-15T20:45:45Z) - Leveraging Instance Features for Label Aggregation in Programmatic Weak
Supervision [75.1860418333995]
Programmatic Weak Supervision (PWS) は、トレーニングラベルを効率的に合成するための広く普及したパラダイムとして登場した。
PWSのコアコンポーネントはラベルモデルであり、複数のノイズ管理ソースの出力をラベル関数として集約することで、真のラベルを推論する。
既存の統計ラベルモデルは一般的にLFの出力のみに依存し、基礎となる生成過程をモデル化する際のインスタンスの特徴を無視している。
論文 参考訳(メタデータ) (2022-10-06T07:28:53Z) - L2B: Learning to Bootstrap Robust Models for Combating Label Noise [52.02335367411447]
本稿では,Learning to Bootstrap (L2B) という,シンプルで効果的な手法を提案する。
モデルは、誤った擬似ラベルの影響を受けずに、自身の予測を使ってブートストラップを行うことができる。
これは、実際の観測されたラベルと生成されたラベル間の重みを動的に調整し、メタラーニングを通じて異なるサンプル間の重みを動的に調整することで実現される。
論文 参考訳(メタデータ) (2022-02-09T05:57:08Z) - Cross-Model Pseudo-Labeling for Semi-Supervised Action Recognition [98.25592165484737]
CMPL(Cross-Model Pseudo-Labeling)と呼ばれる,より効果的な擬似ラベル方式を提案する。
CMPLは、それぞれRGBモダリティとラベル付きデータのみを使用して、Kinetics-400とUCF-101のTop-1の精度を17.6%と25.1%で達成している。
論文 参考訳(メタデータ) (2021-12-17T18:59:41Z) - Active Learning at the ImageNet Scale [43.595076693347835]
本研究では,画像ネット上でのアクティブラーニング(AL)と事前学習(SSP)の組み合わせについて検討する。
学習者が選択したクラス不均衡なサンプルから,小型の玩具データセットのパフォーマンスがImageNetのパフォーマンスを表すものではないことが判明した。
本稿では、ランダムサンプリングを一貫して上回る、単純でスケーラブルなALアルゴリズムであるBa balanced Selection (BASE)を提案する。
論文 参考訳(メタデータ) (2021-11-25T02:48:51Z) - Momentum Pseudo-Labeling for Semi-Supervised Speech Recognition [55.362258027878966]
本稿では,半教師付き音声認識のための簡易かつ効果的な手法として,モーメント擬似ラベル(MPL)を提案する。
MPLは、平均的な教師メソッドにインスパイアされて、相互に相互作用し、学習するオンラインとオフラインの2つのモデルで構成されている。
実験の結果,MPLはベースモデルよりも効果的に改善され,様々な半教師付きシナリオに拡張可能であることが示された。
論文 参考訳(メタデータ) (2021-06-16T16:24:55Z) - Delving Deep into Label Smoothing [112.24527926373084]
ディープニューラルネットワーク(DNN)の効果的な正規化ツールとしてのラベル平滑化
対象カテゴリのモデル予測の統計に基づいてソフトラベルを生成するオンラインラベル平滑化(OLS)戦略を提案する。
論文 参考訳(メタデータ) (2020-11-25T08:03:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。