論文の概要: Auxiliary Class Based Multiple Choice Learning
- arxiv url: http://arxiv.org/abs/2108.02949v1
- Date: Fri, 6 Aug 2021 05:55:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-09 21:32:40.626379
- Title: Auxiliary Class Based Multiple Choice Learning
- Title(参考訳): 補助クラスに基づく複数選択学習
- Authors: Sihwan Kim, Dae Yon Jung, Taejang Park
- Abstract要約: 本稿では,Auxiliary class based Multiple Choice Learning (AMCL) と呼ばれる高度なアンサンブル手法を提案する。
AMCLのパフォーマンスは、アンサンブルのメンバーとしてさまざまなネットワークでトレーニングされた公開データセットのほとんどで、他のすべてのものよりも優れています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The merit of ensemble learning lies in having different outputs from many
individual models on a single input, i.e., the diversity of the base models.
The high quality of diversity can be achieved when each model is specialized to
different subsets of the whole dataset. Moreover, when each model explicitly
knows to which subsets it is specialized, more opportunities arise to improve
diversity. In this paper, we propose an advanced ensemble method, called
Auxiliary class based Multiple Choice Learning (AMCL), to ultimately specialize
each model under the framework of multiple choice learning (MCL). The
advancement of AMCL is originated from three novel techniques which control the
framework from different directions: 1) the concept of auxiliary class to
provide more distinct information through the labels, 2) the strategy, named
memory-based assignment, to determine the association between the inputs and
the models, and 3) the feature fusion module to achieve generalized features.
To demonstrate the performance of our method compared to all variants of MCL
methods, we conduct extensive experiments on the image classification and
segmentation tasks. Overall, the performance of AMCL exceeds all others in most
of the public datasets trained with various networks as members of the
ensembles.
- Abstract(参考訳): アンサンブル学習の利点は、単一の入力で多くの個々のモデルから異なる出力、すなわちベースモデルの多様性を持つことにある。
各モデルがデータセット全体の異なるサブセットに特化されている場合、高い品質の多様性が達成できる。
さらに、各モデルがどのサブセットであるかを明示的に知ると、多様性を改善する機会が増える。
本稿では,マルチチョイス学習(mcl)の枠組みの下で各モデルを最終的に特殊化するための,補助クラスベースマルチチョイス学習(amcl)と呼ばれる高度なアンサンブル手法を提案する。
AMCLの進展は,(1)ラベルを通してより明確な情報を提供する補助クラスの概念,2)入力とモデル間の関連性を決定するためのメモリベースの割り当て,3)特徴融合モジュールを一般化した特徴として,フレームワークを異なる方向から制御する3つの新しい技術に起因している。
MCL法の全変種と比較して,本手法の性能を実証するため,画像分類と分割タスクについて広範な実験を行った。
全体として、AMCLのパフォーマンスは、アンサンブルのメンバーとしてさまざまなネットワークでトレーニングされた公開データセットのほとんどで、他のすべてのものを上回る。
関連論文リスト
- Closed-form merging of parameter-efficient modules for Federated Continual Learning [9.940242741914748]
一度に1つのLoRA行列をトレーニングする交代最適化戦略であるLoRMを導入する。
これにより、未知の変数を個別に解くことができ、ユニークな解を見つけることができる。
本手法は,さまざまなFCILシナリオにおける最先端性能を示す。
論文 参考訳(メタデータ) (2024-10-23T15:30:13Z) - Multi-Teacher Multi-Objective Meta-Learning for Zero-Shot Hyperspectral Band Selection [50.30291173608449]
ゼロショットハイパースペクトル帯選択のための新しい多目的メタラーニングネットワーク(M$3$BS)を提案する。
M$3$BSでは、データセットに依存しないベースを生成するために、一般化可能なグラフ畳み込みネットワーク(GCN)を構築している。
取得したメタ知識は、トレーニングや微調整なしに、直接見えないデータセットに転送することができる。
論文 参考訳(メタデータ) (2024-06-12T07:13:31Z) - U3M: Unbiased Multiscale Modal Fusion Model for Multimodal Semantic Segmentation [63.31007867379312]
U3M: An Unbiased Multiscale Modal Fusion Model for Multimodal Semanticsを紹介する。
我々は,グローバルな特徴とローカルな特徴の効果的な抽出と統合を保証するために,複数のスケールで機能融合を採用している。
実験により,本手法は複数のデータセットにまたがって優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-05-24T08:58:48Z) - VANER: Leveraging Large Language Model for Versatile and Adaptive Biomedical Named Entity Recognition [3.4923338594757674]
大型言語モデル(LLM)は、様々な種類のエンティティを抽出できるモデルを訓練するために使用することができる。
本稿では,オープンソースのLLM LLaMA2をバックボーンモデルとして利用し,異なるタイプのエンティティとデータセットを区別するための具体的な命令を設計する。
我々のモデルVANERは、パラメータの小さな分割で訓練され、従来のLLMモデルよりも大幅に優れており、LLMをベースとしたモデルとして初めて、従来の最先端のBioNERシステムの大部分を上回りました。
論文 参考訳(メタデータ) (2024-04-27T09:00:39Z) - Semantic-SAM: Segment and Recognize Anything at Any Granularity [83.64686655044765]
本稿では,任意の粒度でセグメンテーションと認識を可能にする汎用画像セグメンテーションモデルであるSemantic-SAMを紹介する。
複数のデータセットを3つの粒度に集約し、オブジェクトとパーツの分離した分類を導入する。
マルチグラニュラリティ機能を実現するために,各クリックで複数のレベルのマスクを生成できるマルチ選択学習方式を提案する。
論文 参考訳(メタデータ) (2023-07-10T17:59:40Z) - Multi-View Class Incremental Learning [57.14644913531313]
マルチビュー学習(MVL)は、下流タスクのパフォーマンスを改善するためにデータセットの複数の視点から情報を統合することで大きな成功を収めている。
本稿では,複数視点クラスインクリメンタルラーニング(MVCIL)と呼ばれる新しいパラダイムについて考察する。
論文 参考訳(メタデータ) (2023-06-16T08:13:41Z) - Multi-Objective Genetic Algorithm for Multi-View Feature Selection [0.23343923880060582]
多視点データに対する従来の特徴選択手法の限界を克服する新しい遺伝的アルゴリズム戦略を提案する。
提案手法は多視点多目的特徴選択遺伝的アルゴリズム (MMFS-GA) と呼ばれ、ビュー内およびビュー間における特徴の最適なサブセットを同時に選択する。
合成データと実データを含む3つのベンチマークデータセットに対する評価結果から,最良基準法よりも優れた結果が得られた。
論文 参考訳(メタデータ) (2023-05-26T13:25:20Z) - Differentiable Model Selection for Ensemble Learning [37.99501959301896]
本稿では、機械学習と最適化を統合した微分可能なモデル選択のための新しいフレームワークを提案する。
このフレームワークは、個々の事前学習されたモデルの出力を組み合わせて、特定の入力サンプルに対して適切なアンサンブルメンバーを選択する戦略であるアンサンブル学習用に調整されている。
論文 参考訳(メタデータ) (2022-11-01T03:37:49Z) - Multi-view Multi-behavior Contrastive Learning in Recommendation [52.42597422620091]
マルチビヘイビアレコメンデーション(MBR)は、目標行動のパフォーマンスを改善するために、複数の振る舞いを共同で検討することを目的としている。
本稿では,新しいマルチビヘイビア・マルチビュー・コントラスト学習勧告フレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-20T15:13:28Z) - Contrastive Multi-Modal Clustering [22.117014300127423]
コントラッシブ・マルチモーダル・クラスタリング(CMMC)を提案する。
CMMCはスケーラビリティに優れ、最先端のマルチモーダルクラスタリング手法よりも優れています。
論文 参考訳(メタデータ) (2021-06-21T15:32:34Z) - Unsupervised Person Re-Identification with Multi-Label Learning Guided
Self-Paced Clustering [48.31017226618255]
近年、未監修者再確認(Re-ID)が注目されています。
本論文では,教師なしのRe-IDを,MLC(Multi-label Learning Guide Self-paced Clustering)と呼ばれる概念的に斬新かつ単純なフレームワークで対処する。
MLCは主に3つの重要なモジュール(マルチスケールネットワーク、マルチラベル学習モジュール、セルフペースクラスタリングモジュール)で識別的特徴を学習する。
論文 参考訳(メタデータ) (2021-03-08T07:30:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。