論文の概要: Fine-tuning Encoders for Improved Monolingual and Zero-shot Polylingual
Neural Topic Modeling
- arxiv url: http://arxiv.org/abs/2104.05064v1
- Date: Sun, 11 Apr 2021 18:03:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-13 14:22:11.438273
- Title: Fine-tuning Encoders for Improved Monolingual and Zero-shot Polylingual
Neural Topic Modeling
- Title(参考訳): 改良された単言語およびゼロショット多言語ニューラルトピックモデリングのための微調整エンコーダ
- Authors: Aaron Mueller, Mark Dredze
- Abstract要約: ニューラル・トピック・モデルは、事前学習されたトランスフォーマーに基づく単語予測モデルの学習表現で単語の入力を増強または置換することができる。
多言語モデルからの表現を使用する際の利点の1つは、ゼロショットの多言語トピックモデリングを促進することである。
単言語とゼロショットの多言語ニューラル・トピック・モデリングの両方を改善するための微調整エンコーダを提案する。
- 参考スコア(独自算出の注目度): 17.302974379977123
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural topic models can augment or replace bag-of-words inputs with the
learned representations of deep pre-trained transformer-based word prediction
models. One added benefit when using representations from multilingual models
is that they facilitate zero-shot polylingual topic modeling. However, while it
has been widely observed that pre-trained embeddings should be fine-tuned to a
given task, it is not immediately clear what supervision should look like for
an unsupervised task such as topic modeling. Thus, we propose several methods
for fine-tuning encoders to improve both monolingual and zero-shot polylingual
neural topic modeling. We consider fine-tuning on auxiliary tasks, constructing
a new topic classification task, integrating the topic classification objective
directly into topic model training, and continued pre-training. We find that
fine-tuning encoder representations on topic classification and integrating the
topic classification task directly into topic modeling improves topic quality,
and that fine-tuning encoder representations on any task is the most important
factor for facilitating cross-lingual transfer.
- Abstract(参考訳): ニューラル・トピック・モデルは、事前学習されたトランスフォーマーに基づく単語予測モデルの学習表現で単語の入力を増強または置換することができる。
多言語モデルの表現を使用する際の利点の一つは、ゼロショット多言語トピックモデリングを容易にすることである。
しかしながら、事前学習した埋め込みは特定のタスクに微調整されるべきであると広く見られているが、トピックモデリングのような教師なしタスクに対して、監督がどのようなものになるかはすぐには明らかではない。
そこで本研究では,単舌およびゼロショットの多舌神経話題モデルを改善するために,エンコーダの微調整手法を提案する。
補助タスクの微調整,新しいトピック分類タスクの構築,トピック分類目標をトピックモデルのトレーニングに直接統合し,事前トレーニングを継続する。
トピック分類における微調整エンコーダ表現やトピック分類タスクをトピックモデリングに直接統合することでトピックの品質が向上し,任意のタスクにおける微調整エンコーダ表現が言語間移動を促進する上で最も重要な要素であることが判明した。
関連論文リスト
- Using Machine Translation to Augment Multilingual Classification [0.0]
複数の言語にまたがる分類課題に対して,機械翻訳を用いて多言語モデルを微調整する効果について検討する。
翻訳されたデータは、多言語分類器をチューニングするのに十分な品質であり、この新規な損失技術は、それなしでチューニングされたモデルよりも幾らか改善できることを示す。
論文 参考訳(メタデータ) (2024-05-09T00:31:59Z) - Enhanced Short Text Modeling: Leveraging Large Language Models for Topic Refinement [7.6115889231452964]
トピックリファインメント(Topic Refinement)と呼ばれる新しいアプローチを導入する。
このアプローチは、トピックの初期のモデリングに直接関係せず、採掘後にトピックを改善することに重点を置いています。
素早いエンジニアリングを駆使して、所与のトピック内での話題外単語を排除し、文脈的に関係のある単語だけが、よりセマンティックに適合した単語で保存または置換されることを保証する。
論文 参考訳(メタデータ) (2024-03-26T13:50:34Z) - On the Analysis of Cross-Lingual Prompt Tuning for Decoder-based
Multilingual Model [49.81429697921861]
多言語自己回帰モデルにおけるパラメータ効率細調整(PEFT)と言語間タスクの相互作用について検討する。
高速チューニングは、微調整よりも低リソース言語の性能向上に有効であることを示す。
論文 参考訳(メタデータ) (2023-11-14T00:43:33Z) - POUF: Prompt-oriented unsupervised fine-tuning for large pre-trained
models [62.23255433487586]
モデルに微調整を施したり、ラベルのないターゲットデータにプロンプトを施したりするための教師なしの微調整フレームワークを提案する。
本稿では,プロンプトとターゲットデータから抽出した離散分布を整列させて,言語拡張視覚とマスキング言語モデルの両方に適用する方法を示す。
論文 参考訳(メタデータ) (2023-04-29T22:05:22Z) - Pre-Training a Graph Recurrent Network for Language Representation [34.4554387894105]
本稿では,言語モデルの事前学習のためのグラフリカレントネットワークについて考察し,各シーケンスのグラフ構造を局所的なトークンレベルの通信で構築する。
我々のモデルは、既存の注意に基づくモデルよりもコンテキスト化された特徴冗長性が少なく、より多様な出力を生成することができる。
論文 参考訳(メタデータ) (2022-09-08T14:12:15Z) - Language Models are General-Purpose Interfaces [109.45478241369655]
本稿では,様々な基礎モデルに対する汎用インタフェースとして言語モデルを提案する。
事前訓練されたエンコーダのコレクションは、様々なモダリティ(ビジョンや言語など)を知覚する
インタフェースとモジュールエンコーダを協調的に事前学習するための半因果言語モデリング手法を提案する。
論文 参考訳(メタデータ) (2022-06-13T17:34:22Z) - What Language Model Architecture and Pretraining Objective Work Best for
Zero-Shot Generalization? [50.84738303888189]
本稿では,モデル選択の大規模評価とそのゼロショット一般化への影響について述べる。
私たちは、70億以上のトークンに対して、50億以上のパラメータを持つモデルをトレーニングします。
事前学習した因果デコーダモデルを非因果デコーダモデルに効率的に適用できることが判明した。
論文 参考訳(メタデータ) (2022-04-12T14:19:49Z) - Topic Discovery via Latent Space Clustering of Pretrained Language Model
Representations [35.74225306947918]
本研究では, PLM 埋め込みを基盤とした空間学習とクラスタリングの連携フレームワークを提案する。
提案モデルでは,トピック発見のためにPLMがもたらす強力な表現力と言語的特徴を効果的に活用する。
論文 参考訳(メタデータ) (2022-02-09T17:26:08Z) - Lightweight Cross-Lingual Sentence Representation Learning [57.9365829513914]
メモリ効率のよい言語間文表現を生成するために,2層のみの軽量なデュアルトランスフォーマーアーキテクチャを導入する。
本稿では,既存のシングルワードマスキング言語モデルと,新たに提案されたクロスランガルトークンレベルの再構築タスクを組み合わせた,新しい言語間言語モデルを提案する。
論文 参考訳(メタデータ) (2021-05-28T14:10:48Z) - Topic Adaptation and Prototype Encoding for Few-Shot Visual Storytelling [81.33107307509718]
トピック間一般化の能力をモデル化するためのトピック適応型ストーリーテラを提案する。
また,アトピー内導出能力のモデル化を目的とした符号化手法の試作も提案する。
実験結果から,トピック適応とプロトタイプ符号化構造が相互に利益をもたらすことが明らかとなった。
論文 参考訳(メタデータ) (2020-08-11T03:55:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。