論文の概要: Semi-supervised NMF Models for Topic Modeling in Learning Tasks
- arxiv url: http://arxiv.org/abs/2010.07956v1
- Date: Thu, 15 Oct 2020 18:03:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 05:29:59.154995
- Title: Semi-supervised NMF Models for Topic Modeling in Learning Tasks
- Title(参考訳): 学習課題におけるトピックモデリングのための半教師付きNMFモデル
- Authors: Jamie Haddock, Lara Kassab, Sixian Li, Alona Kryshchenko, Rachel
Grotheer, Elena Sizikova, Chuntian Wang, Thomas Merkh, R. W. M. A. Madushani,
Miju Ahn, Deanna Needell, Kathryn Leonard
- Abstract要約: 半教師付き非負行列分解(SSNMF)のための新しいモデルを提案する。
本稿では,各新モデルに対する乗算的更新学習手法を提案し,これらのモデルの分類への応用を実証する。
- 参考スコア(独自算出の注目度): 6.577559557980527
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose several new models for semi-supervised nonnegative matrix
factorization (SSNMF) and provide motivation for SSNMF models as maximum
likelihood estimators given specific distributions of uncertainty. We present
multiplicative updates training methods for each new model, and demonstrate the
application of these models to classification, although they are flexible to
other supervised learning tasks. We illustrate the promise of these models and
training methods on both synthetic and real data, and achieve high
classification accuracy on the 20 Newsgroups dataset.
- Abstract(参考訳): 半教師付き非負行列因子分解 (ssnmf) のモデルをいくつか提案し, 不確かさの特定の分布が与えられた場合, ssnmfモデルに対するモチベーションを与える。
本稿では,新しいモデル毎の乗法的更新学習法を示し,他の教師付き学習タスクに対して柔軟ではあるが,これらのモデルの分類への応用を実証する。
合成データと実データの両方において、これらのモデルとトレーニング手法の約束を述べ、20のニュースグループデータセット上で高い分類精度を実現する。
関連論文リスト
- Has Your Pretrained Model Improved? A Multi-head Posterior Based
Approach [25.927323251675386]
我々は、世界的知識の源として各エンティティに関連するメタ機能を活用し、モデルからエンティティ表現を採用する。
本稿では,これらの表現とメタ機能との整合性を,事前学習モデルの評価指標として用いることを提案する。
提案手法の有効性は,関係データセットを用いたモデル,大規模言語モデル,画像モデルなど,様々な領域で実証されている。
論文 参考訳(メタデータ) (2024-01-02T17:08:26Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - A Framework for Monitoring and Retraining Language Models in Real-World
Applications [3.566775910781198]
多くの現実世界のアプリケーションでは、継続的モデル監視とモデル再トレーニングが必要になります。
データやコンセプトドリフトなどの再トレーニングにはさまざまな理由があり、適切なメトリックによって監視されるモデルのパフォーマンスに反映される可能性がある。
マルチラベル分類モデルを用いて, モデル性能や資源利用などの重要な要因に対する各種リトレーニング決定点の影響について検討する。
論文 参考訳(メタデータ) (2023-11-16T14:32:18Z) - Building a Winning Team: Selecting Source Model Ensembles using a
Submodular Transferability Estimation Approach [20.86345962679122]
公開されている事前訓練されたモデルの目標タスクへの転送可能性の推定は、伝達学習タスクにとって重要な場所となっている。
本稿では, モデルアンサンブルの下流タスクへの転送可能性を評価するために, 最適なtranSportベースのsuBmOdular tRaNsferability Metrics(OSBORN)を提案する。
論文 参考訳(メタデータ) (2023-09-05T17:57:31Z) - Representer Point Selection for Explaining Regularized High-dimensional
Models [105.75758452952357]
本稿では,高次元表現器と呼ぶサンプルベース説明のクラスを紹介する。
私たちのワークホースは、一般化された高次元モデルに対する新しい代表者定理である。
提案手法の実証的性能について,実世界の2進分類データセットと2つの推薦システムデータセットを用いて検討した。
論文 参考訳(メタデータ) (2023-05-31T16:23:58Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [51.8162883997512]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - Federated Learning Aggregation: New Robust Algorithms with Guarantees [63.96013144017572]
エッジでの分散モデルトレーニングのために、フェデレートラーニングが最近提案されている。
本稿では,連合学習フレームワークにおける集約戦略を評価するために,完全な数学的収束解析を提案する。
損失の値に応じてクライアントのコントリビューションを差別化することで、モデルアーキテクチャを変更できる新しい集約アルゴリズムを導出する。
論文 参考訳(メタデータ) (2022-05-22T16:37:53Z) - Semi-supervised Nonnegative Matrix Factorization for Document
Classification [6.577559557980527]
文書分類のための半教師付き非負行列分解(SSNMF)モデルを提案する。
我々は,各新モデルに対して乗算的更新を用いたトレーニング手法を導出し,これらのモデルの単一ラベルおよび多ラベル文書分類への応用を実証する。
論文 参考訳(メタデータ) (2022-02-28T19:00:49Z) - Robust Finite Mixture Regression for Heterogeneous Targets [70.19798470463378]
本稿では,サンプルクラスタの探索と,複数の不完全な混合型ターゲットを同時にモデル化するFMRモデルを提案する。
我々は、高次元の学習フレームワークの下で、無症状のオラクルのパフォーマンス境界をモデルに提供します。
その結果,我々のモデルは最先端の性能を達成できることがわかった。
論文 参考訳(メタデータ) (2020-10-12T03:27:07Z) - Model Embedding Model-Based Reinforcement Learning [4.566180616886624]
モデルベース強化学習(MBRL)は、モデルフリー強化学習(MFRL)よりもサンプル効率が優れていることを示す。
しかし、データ生成の容易さとモデルのバイアスとの間には、依然としてトレードオフがある。
本稿では,確率的強化学習の枠組みとして,シンプルでエレガントなモデル埋め込み型強化学習(MEMB)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-16T15:10:28Z) - Model Reuse with Reduced Kernel Mean Embedding Specification [70.044322798187]
現在のアプリケーションで有用なモデルを見つけるための2段階のフレームワークを提案する。
アップロードフェーズでは、モデルがプールにアップロードされている場合、モデルの仕様としてカーネル平均埋め込み(RKME)を縮小する。
デプロイフェーズでは、RKME仕様の値に基づいて、現在のタスクと事前訓練されたモデルの関連性を測定する。
論文 参考訳(メタデータ) (2020-01-20T15:15:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。