論文の概要: Multilevel Sentence Embeddings for Personality Prediction
- arxiv url: http://arxiv.org/abs/2305.05748v1
- Date: Tue, 9 May 2023 20:02:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-11 15:22:03.696456
- Title: Multilevel Sentence Embeddings for Personality Prediction
- Title(参考訳): パーソナリティ予測のための多レベル文埋め込み
- Authors: Paolo Tirotta, Akira Yuasa, Masashi Morita
- Abstract要約: 文の階層構造と極性に応じて,文をマッピングする2段階のアプローチを提案する。
我々の単一モデルアプローチは、複数のクラス固有の分類モデルよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Representing text into a multidimensional space can be done with sentence
embedding models such as Sentence-BERT (SBERT). However, training these models
when the data has a complex multilevel structure requires individually trained
class-specific models, which increases time and computing costs. We propose a
two step approach which enables us to map sentences according to their
hierarchical memberships and polarity. At first we teach the upper level
sentence space through an AdaCos loss function and then finetune with a novel
loss function mainly based on the cosine similarity of intra-level pairs. We
apply this method to three different datasets: two weakly supervised Big Five
personality dataset obtained from English and Japanese Twitter data and the
benchmark MNLI dataset. We show that our single model approach performs better
than multiple class-specific classification models.
- Abstract(参考訳): 多次元空間へのテキスト表現は、SBERT(Sentence-BERT)のような文埋め込みモデルで行うことができる。
しかしながら、データが複雑なマルチレベル構造を持つ場合にこれらのモデルをトレーニングするには、個別に訓練されたクラス固有のモデルが必要であるため、時間と計算コストが増加する。
階層的メンバーシップと極性に応じて文をマップできる2段階のアプローチを提案する。
まず,アダコス損失関数を通じて上階文空間を指導し,その後,主にレベル内ペアのコサイン類似性に基づいて,新たな損失関数を微調整する。
本手法を英語と日本語のTwitterデータから得られた2つの弱教師付きビッグファイブパーソナリティデータセットとベンチマークMNLIデータセットの3つの異なるデータセットに適用する。
単一のモデルアプローチが複数のクラス固有の分類モデルよりも優れた性能を示す。
関連論文リスト
- D2 Pruning: Message Passing for Balancing Diversity and Difficulty in
Data Pruning [70.98091101459421]
コアセット選択は、トレーニングデータのサブセットを選択して、このサブセット(コアセットとも呼ばれる)でトレーニングされたモデルのパフォーマンスを最大化する。
コアセット選択のために,このデータセットグラフ上で前後のメッセージパッシングを利用する新しいプルーニングアルゴリズムD2プルーニングを提案する。
その結果、D2プルーニングは従来の最先端手法よりもコアセット選択を向上し、最大70%のプルーニングレートが得られた。
論文 参考訳(メタデータ) (2023-10-11T23:01:29Z) - Sieve: Multimodal Dataset Pruning Using Image Captioning Models [11.362835828985494]
Vision-Language Models (VLM) は、大規模で多様でノイズの多いWebcrawledデータセットで事前トレーニングされている。
提案手法は,CLIPがノイズラベルを事前学習しているため,偽陽性や陰性などの複数の制約を伴っていると論じる。
そこで我々は,小,多様,整列した画像テキストペア上で事前訓練された画像キャプションモデルによって生成された合成キャプションを用いたプルーニング信号Sieveを提案する。
論文 参考訳(メタデータ) (2023-10-03T14:53:53Z) - Towards Large-scale 3D Representation Learning with Multi-dataset Point Prompt Training [44.790636524264]
ポイント・プロンプト・トレーニング(Point Prompt Training)は、3D表現学習の文脈におけるマルチデータセットのシナジスティック学習のための新しいフレームワークである。
シナジスティック学習に関連する負の移動を克服し、一般化可能な表現を生成する。
教師付きマルチデータセットトレーニングを備えた1つの重み付きモデルを用いて、各データセットの最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-08-18T17:59:57Z) - Learning to Paraphrase Sentences to Different Complexity Levels [3.0273878903284275]
文の単純化はNLPにおいて活発な研究課題であるが,その隣接する文の複雑化や同レベルのパラフレーズ化の課題はそうではない。
3つのタスクすべてでモデルをトレーニングするために、教師なしデータセットを2つ提示する。
論文 参考訳(メタデータ) (2023-08-04T09:43:37Z) - Ensemble Transfer Learning for Multilingual Coreference Resolution [60.409789753164944]
非英語で作業する場合に頻繁に発生する問題は、注釈付きトレーニングデータの不足である。
我々は,様々なトランスファー学習技術を組み合わせた,シンプルだが効果的なアンサンブルベースのフレームワークを設計する。
また、ウィキペディアアンカーテキストを利用して、コア参照解決モデルをブートストラップする低コストのTL手法を提案する。
論文 参考訳(メタデータ) (2023-01-22T18:22:55Z) - Artificial Interrogation for Attributing Language Models [0.0]
この課題は、人気言語モデルの12のオープンソースベースバージョンと、テキスト生成のための12の微調整言語モデルを提供する。
コンテストの目標は、どのモデルがどのベースモデルに由来するかを特定することである。
両集合のモデルから生成された応答の類似性を測定するために4つの異なるアプローチを採用した。
論文 参考訳(メタデータ) (2022-11-20T05:46:29Z) - ASDOT: Any-Shot Data-to-Text Generation with Pretrained Language Models [82.63962107729994]
Any-Shot Data-to-Text (ASDOT)は、多様な設定に柔軟に適用可能な新しいアプローチである。
データ曖昧化と文の融合という2つのステップから構成される。
実験の結果, ASDOT はベースラインよりも顕著な改善が得られた。
論文 参考訳(メタデータ) (2022-10-09T19:17:43Z) - Revisiting Self-Training for Few-Shot Learning of Language Model [61.173976954360334]
ラベル付きデータにはタスク関連情報が豊富に含まれており、言語モデルの素早い学習に有用であることが証明されている。
本研究では,言語モデルファインチューニングのための自己学習手法を再検討し,最先端のプロンプトベースの少ショット学習者,SFLMを提案する。
論文 参考訳(メタデータ) (2021-10-04T08:51:36Z) - Syntax-Enhanced Pre-trained Model [49.1659635460369]
BERTやRoBERTaなどの学習済みモデルを強化するために、テキストの構文構造を活用するという問題を研究する。
既存の手法では、事前学習段階または微調整段階のいずれかでテキストの構文を利用しており、両者の区別に苦しむ。
事前学習と微調整の両方の段階でテキストのシンタックスを利用するモデルを提示する。
論文 参考訳(メタデータ) (2020-12-28T06:48:04Z) - Unsupervised Paraphrasing with Pretrained Language Models [85.03373221588707]
教師なし環境で,事前学習した言語モデルを用いて高品質なパラフレーズを生成する訓練パイプラインを提案する。
提案手法は,タスク適応,自己スーパービジョン,動的ブロッキング(Dynamic Blocking)という新しい復号アルゴリズムから構成される。
提案手法は,Quora Question PairとParaNMTの両方のデータセット上で,最先端の性能を達成できることを示す。
論文 参考訳(メタデータ) (2020-10-24T11:55:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。