論文の概要: Cross-Platform Difference in Facebook and Text Messages Language Use:
Illustrated by Depression Diagnosis
- arxiv url: http://arxiv.org/abs/2202.01802v1
- Date: Thu, 3 Feb 2022 19:18:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-08 03:19:18.383519
- Title: Cross-Platform Difference in Facebook and Text Messages Language Use:
Illustrated by Depression Diagnosis
- Title(参考訳): Facebookとテキストメッセージ言語におけるクロスプラットフォームの差異:抑うつ診断による画像化
- Authors: Tingting Liu, Salvatore Giorgi, Xiangyu Tao, Douglas Bellew, Brenda
Curtis, Lyle Ungar
- Abstract要約: 我々は、FacebookとSMSの使い方が精神言語学的特徴にどのように異なるかを示す。
心理的に駆動された語彙法による領域差の定量化を行う。
両テキスト領域からの抑うつを推定し、Facebookデータに基づいてトレーニングされた抑うつモデルを用いて、SMSベースの抑うつ推定から自己報告型抑うつ評価を予測する際に、精度の低下を見出した。
- 参考スコア(独自算出の注目度): 10.818953200697905
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: How does language differ across one's Facebook status updates vs. one's text
messages (SMS)? In this study, we show how Facebook and SMS use differs in
psycho-linguistic characteristics and how these differences drive downstream
analyses with an illustration of depression diagnosis. We use a sample of
consenting participants who shared Facebook status updates, SMS data, and
answered a standard psychological depression screener. We quantify domain
differences using psychologically driven lexical methods and find that language
on Facebook involves more personal concerns, experiences, and content features
while the language in SMS contains more informal and style features. Next, we
estimate depression from both text domains, using a depression model trained on
Facebook data, and find a drop in accuracy when predicting self-reported
depression assessments from the SMS-based depression estimates. Finally, we
evaluate a simple domain adaption correction based on words driving the
cross-platform differences and applied it to the SMS-derived depression
estimates, resulting in significant improvement in prediction. Our work shows
the Facebook vs. SMS difference in language use and suggests the necessity of
cross-domain adaption for text-based predictions.
- Abstract(参考訳): FacebookのステータスアップデートとSMS(SMS)では、言語はどのような違いがありますか?
本研究では,facebook と sms の使用が心理言語学的特性にどのように異なるか,およびこれらの差異がうつ病診断の例を用いて下流解析をいかに促進しているかを示す。
私たちは、facebookのステータスアップデートやsmsデータを共有し、標準の心理的うつ病スクリーニングに回答した参加者のサンプルを使っています。
我々は、心理的に駆動された語彙的手法を用いてドメインの差異を定量化し、Facebook上の言語はより個人的な関心事、経験、コンテンツ機能を含むのに対して、SMSの言語はより非公式でスタイル的な特徴を含んでいることを発見した。
次に,両テキストドメインから抑うつを推定し,facebookデータに基づいてトレーニングした抑うつモデルを用いて,smsに基づく抑うつ推定から自己報告した抑うつ評価を予測する際の精度の低下を求める。
最後に,クロスプラットフォーム差を駆動する単語に基づく単純なドメイン適応補正を評価し,sms由来の抑うつ推定に適用することで,予測精度が大幅に向上した。
我々の研究は、言語使用におけるFacebookとSMSの違いを示し、テキストベースの予測にクロスドメイン適応の必要性を示唆している。
関連論文リスト
- We're Calling an Intervention: Exploring the Fundamental Hurdles in Adapting Language Models to Nonstandard Text [8.956635443376527]
非標準テキストへの言語モデル適応の根底にある課題を理解するための一連の実験を提示する。
我々は、言語モデルの既存バイアスとの相互作用と、いくつかの種類の言語的変動を近似する介入を設計する。
学習データのサイズや性質の異なる言語モデル適応時の介入を適用することで、知識伝達がいつ成功するかについて重要な洞察を得ることができる。
論文 参考訳(メタデータ) (2024-04-10T18:56:53Z) - Toward Joint Language Modeling for Speech Units and Text [89.32163954508489]
音声単位とテキストの共用言語モデリングについて検討する。
音声とテキストの混在度を評価するための自動計測手法を提案する。
提案手法を用いて音声単位とテキストを混合することにより,SLUタスクにおける音声のみのベースラインを改良することを示す。
論文 参考訳(メタデータ) (2023-10-12T20:53:39Z) - M-SpeechCLIP: Leveraging Large-Scale, Pre-Trained Models for
Multilingual Speech to Image Retrieval [56.49878599920353]
本研究は,多言語画像音声検索におけるCLIPとHuBERTの大規模,英語のみの事前学習モデル(CLIPとHuBERT)の利用について検討する。
非英語画像音声検索では、各言語毎に個別のモデルを訓練する場合と、3言語すべてで音声を処理する1つのモデルの両方において、最先端のパフォーマンスを幅広いマージンで上回ります。
論文 参考訳(メタデータ) (2022-11-02T14:54:45Z) - Catch Me If You Can: Deceiving Stance Detection and Geotagging Models to
Protect Privacy of Individuals on Twitter [3.928604516640069]
調査は2つの露光リスキーなタスク、姿勢検出とジオタグ付けに基礎を置いている。
そこで本研究では,テキスト修正のための多種多様なテクニックを探求する。例えば,テキストに接頭辞を挿入したり,言い換えたり,ダミーなソーシャルメディア投稿を追加したりすることなどである。
タイプミスは、ソーシャルネットワークに依存しているため、最先端のジオタグモデルに最小限の影響があることがわかった。
論文 参考訳(メタデータ) (2022-07-23T11:55:18Z) - Improved Multilingual Language Model Pretraining for Social Media Text
via Translation Pair Prediction [1.14219428942199]
ソーシャルメディアコーパス上でmBERTのゼロショット多言語移動を改善するための簡単なアプローチを評価する。
提案手法は,ソースターゲット言語間の翻訳へのアクセスを前提としている。
英語からヒンディー語,アラビア語,日本語へのゼロショット移行において,mBERT単独でのTPP事前訓練の改善を示す。
論文 参考訳(メタデータ) (2021-10-20T00:06:26Z) - Paraphrastic Representations at Scale [134.41025103489224]
私たちは、英語、アラビア語、ドイツ語、フランス語、スペイン語、ロシア語、トルコ語、中国語の訓練されたモデルをリリースします。
我々はこれらのモデルを大量のデータでトレーニングし、元の論文から大幅に性能を向上した。
論文 参考訳(メタデータ) (2021-04-30T16:55:28Z) - Few-shot learning through contextual data augmentation [74.20290390065475]
機械翻訳モデルは、時間とともに性能を維持するために新しいデータに適応する必要がある。
一つの例から5つの例への適応が可能であることを示す。
本モデルでは,平均313個の並列例でトレーニングした基準システムよりも精度がよいことを示す。
論文 参考訳(メタデータ) (2021-03-31T09:05:43Z) - An Online Multilingual Hate speech Recognition System [13.87667165678441]
6つのデータセットを1つの同質なデータセットに組み合わせて分析し、3つのクラスに分類します。
ほぼリアルタイムで有効なメトリックでページを識別し、スコア付けするツールを作成し、フィードバックでモデルを再トレーニングします。
英語とヒンディー語という2つの言語モデル上での多言語モデルの競合性能を証明し、ほとんどの単言語モデルに匹敵するあるいは優れた性能をもたらす。
論文 参考訳(メタデータ) (2020-11-23T16:33:48Z) - Comparison of Interactive Knowledge Base Spelling Correction Models for
Low-Resource Languages [81.90356787324481]
低リソース言語に対する正規化の推進は、パターンの予測が難しいため、難しい作業である。
この研究は、ターゲット言語データに様々な量を持つニューラルモデルとキャラクタ言語モデルの比較を示す。
我々の利用シナリオは、ほぼゼロのトレーニング例によるインタラクティブな修正であり、より多くのデータが収集されるにつれてモデルを改善する。
論文 参考訳(メタデータ) (2020-10-20T17:31:07Z) - SPLAT: Speech-Language Joint Pre-Training for Spoken Language
Understanding [61.02342238771685]
音声理解には、入力音響信号を解析してその言語内容を理解し、予測するモデルが必要である。
大規模無注釈音声やテキストからリッチな表現を学習するために,様々な事前学習手法が提案されている。
音声と言語モジュールを協調的に事前学習するための,新しい半教師付き学習フレームワークであるSPLATを提案する。
論文 参考訳(メタデータ) (2020-10-05T19:29:49Z) - Comparison Between Traditional Machine Learning Models And Neural
Network Models For Vietnamese Hate Speech Detection [2.7528170226206443]
近年,ソーシャルネットワークにおけるHate-Speech検出が主要な研究分野の1つとなっている。
ベトナムでは、攻撃やハラスメントの脅威がオンラインユーザーに悪影響を及ぼす。
ベトナムのソーシャルネットワークにおけるユーザのコメントに関する大規模なデータセットにおいて、従来の機械学習とディープラーニングを比較した。
論文 参考訳(メタデータ) (2020-01-31T09:28:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。