論文の概要: Understanding RoBERTa's Mood: The Role of Contextual-Embeddings as
User-Representations for Depression Prediction
- arxiv url: http://arxiv.org/abs/2112.13795v1
- Date: Mon, 27 Dec 2021 17:20:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-28 14:45:37.022088
- Title: Understanding RoBERTa's Mood: The Role of Contextual-Embeddings as
User-Representations for Depression Prediction
- Title(参考訳): RoBERTaのムードを理解する: 抑うつ予測のためのユーザ表現としてのコンテキスト埋め込みの役割
- Authors: Matthew Matero, Albert Hung, H. Andrew Schwartz
- Abstract要約: 我々は、人間レベルのNLPタスクに適用した場合、どの言語モデル、個々の層、およびレイヤの組み合わせが最も有望か、という経験的分析を行う。
19層(最後の6層)が最も理想的であるのに対して、複数のレイヤを使用する場合、24層の後半層(すなわち、12+層)に分散するのが最善である。
- 参考スコア(独自算出の注目度): 7.095536975618886
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many works in natural language processing have shown connections between a
person's personal discourse and their personality, demographics, and mental
health states. However, many of the machine learning models that predict such
human traits have yet to fully consider the role of pre-trained language models
and contextual embeddings. Using a person's degree of depression as a case
study, we do an empirical analysis on which off-the-shelf language model,
individual layers, and combinations of layers seem most promising when applied
to human-level NLP tasks. Notably, despite the standard in past work of
suggesting use of either the second-to-last or the last 4 layers, we find layer
19 (sixth-to last) is the most ideal by itself, while when using multiple
layers, distributing them across the second half(i.e. Layers 12+) of the 24
layers is best.
- Abstract(参考訳): 自然言語処理に関する多くの研究は、個人の談話と個性、人口統計、精神保健状態との関係を示している。
しかしながら、そのような人間の特性を予測する機械学習モデルの多くは、事前訓練された言語モデルと文脈埋め込みの役割を十分に考慮していない。
人の抑うつの程度をケーススタディとして使用し,人間レベルのnlpタスクに適用した場合,オフ・ザ・セット言語モデル,個々のレイヤ,レイヤの組み合わせが最も有望であることを示す経験的分析を行った。
注目すべきは、過去の2層目と最後の4層の両方の使用を推奨する作業の標準にもかかわらず、19層(最後は6層目)はそれ自体が最も理想的なものであるのに対して、複数の層を使用する場合、24層の後半(つまり12層以上)に分散するのが最善である、ということです。
関連論文リスト
- Entropy Guided Extrapolative Decoding to Improve Factuality in Large Language Models [55.45444773200529]
大きな言語モデル(LLM)は印象的な自然言語能力を示すが、幻覚に苦しむ。
最近の研究は推論時の事実性を改善するための復号化技術に焦点を当てている。
論文 参考訳(メタデータ) (2024-04-14T19:45:35Z) - Decoding Probing: Revealing Internal Linguistic Structures in Neural Language Models using Minimal Pairs [0.873811641236639]
本稿では,ニューラルネットワークモデル層の内部言語特性を層単位で探索する新しい復号探索手法を提案する。
言語モデルを脳として扱い、その表現をニューラルアクティベーションとして扱うことにより、中間層の表現から最小対の文法ラベルをデコードする。
論文 参考訳(メタデータ) (2024-03-26T00:56:06Z) - Causal Graph in Language Model Rediscovers Cortical Hierarchy in Human
Narrative Processing [0.0]
これまでの研究では、言語モデルの特徴がfMRI脳活動にマッピングできることが示されている。
これは、言語モデルにおける情報処理と人間の脳の間に共通点があるのだろうか?
言語モデルにおける情報フローパターンを推定するために,異なる層間の因果関係について検討した。
論文 参考訳(メタデータ) (2023-11-17T10:09:12Z) - Cloning Ideology and Style using Deep Learning [0.0]
研究は、特定の著者のイデオロギーとスタイルに基づくテキスト生成と、過去に同じ著者が書いたものではないトピックに関するテキスト生成に焦点を当てている。
Bi-LSTMモデルを用いて文字レベルでの予測を行う。
事前学習モデルを用いて、著者のコーパスと矛盾する真実の文を識別し、言語モデルを傾斜させる。
論文 参考訳(メタデータ) (2022-10-25T11:37:19Z) - Language Model Pre-Training with Sparse Latent Typing [66.75786739499604]
そこで本研究では,多種多様な潜在型を持つ文レベルのキーワードを疎に抽出することのできる,事前学習対象Sparse Latent Typingを提案する。
実験結果から,本モデルは外部知識を使わずに,自己教師型で解釈可能な潜在型カテゴリを学習できることが示唆された。
論文 参考訳(メタデータ) (2022-10-23T00:37:08Z) - Masked Part-Of-Speech Model: Does Modeling Long Context Help
Unsupervised POS-tagging? [94.68962249604749]
フレキシブルな依存性モデリングを容易にするために,MPoSM(Masked Part-of-Speech Model)を提案する。
MPoSMは任意のタグ依存をモデル化し、マスクされたPOS再構成の目的を通じてPOS誘導を行うことができる。
英語のPenn WSJデータセットと10の多様な言語を含むユニバーサルツリーバンクの競合的な結果を得た。
論文 参考訳(メタデータ) (2022-06-30T01:43:05Z) - Naturalistic Causal Probing for Morpho-Syntax [76.83735391276547]
スペインにおける実世界のデータに対する入力レベルの介入に対する自然主義的戦略を提案する。
提案手法を用いて,共同設立者から文章中の形態・症状の特徴を抽出する。
本研究では,事前学習したモデルから抽出した文脈化表現に対する性別と数字の因果効果を解析するために,本手法を適用した。
論文 参考訳(メタデータ) (2022-05-14T11:47:58Z) - Same Neurons, Different Languages: Probing Morphosyntax in Multilingual
Pre-trained Models [84.86942006830772]
多言語事前学習モデルは文法に関する言語・ユニバーサルの抽象化を導出できると推測する。
43の言語と14のモルフォシンタクティックなカテゴリーで、最先端のニューロンレベルのプローブを用いて、初めて大規模な実験を行った。
論文 参考訳(メタデータ) (2022-05-04T12:22:31Z) - Schr\"odinger's Tree -- On Syntax and Neural Language Models [10.296219074343785]
言語モデルは、NLPのワークホースとして登場し、ますます流動的な生成能力を示している。
我々は、多くの次元にまたがる明瞭さの欠如を観察し、研究者が形成する仮説に影響を及ぼす。
本稿では,構文研究における様々な研究課題の意義について概説する。
論文 参考訳(メタデータ) (2021-10-17T18:25:23Z) - Mechanisms for Handling Nested Dependencies in Neural-Network Language
Models and Humans [75.15855405318855]
我々は,「深層学習」手法で訓練された現代人工ニューラルネットワークが,人間の文処理の中心的な側面を模倣するかどうかを検討した。
ネットワークは、大きなコーパスで次の単語を予測するためにのみ訓練されたが、分析の結果、局所的および長距離の構文合意をうまく処理する特別なユニットが出現した。
我々は,複数の名詞の単数/複数状態における体系的な変化を伴う文中の数一致の違反を人間が検出する行動実験において,モデルの予測を検証した。
論文 参考訳(メタデータ) (2020-06-19T12:00:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。