論文の概要、ライセンス

# (参考訳) 縦長ユーザテキストから変化のモーメントを識別する [全文訳有]

Identifying Moments of Change from Longitudinal User Text ( http://arxiv.org/abs/2205.05593v1 )

ライセンス: CC BY 4.0
Adam Tsakalidis, Federico Nanni, Anthony Hills, Jenny Chim, Jiayu Song, Maria Liakata(参考訳) オンラインプラットフォームで共有されているコンテンツを通じて観察される個人の行動やムードの変化の特定がますます重要になっている。 この話題に関する最新の研究は、どちらにも焦点を当てている。 (a)リスクのある個人、又は複数の役職が与えられた特定の精神状態のある個人を識別すること (b)ポストレベルで同等のラベルを提供する。 そのような作業の欠点は、強い時間的要素の欠如と、個人の軌道に沿って縦断的な評価を行えず、タイムリーな介入を可能にすることである。 ここでは、オンラインで共有されたコンテンツに基づいて個人の変化の瞬間を特定する新しいタスクを定義する。 私たちが考える変化は、突然の気分の変化(スイッチ)または段階的な気分の進行(エスカレーション)です。 変更の瞬間をキャプチャするための詳細なガイドラインと、手動で注釈付きユーザタイムライン(18.7Kの投稿)500のコーパスを作成しました。 我々は、関連するタスクからインスピレーションを得た様々なベースラインモデルを開発し、文脈を考慮した逐次モデリングによって最高のパフォーマンスが得られることを示す。 また,時間窓のレアイベントをキャプチャする新たなメトリクスも導入する。

Identifying changes in individuals' behaviour and mood, as observed via content shared on online platforms, is increasingly gaining importance. Most research to-date on this topic focuses on either: (a) identifying individuals at risk or with a certain mental health condition given a batch of posts or (b) providing equivalent labels at the post level. A disadvantage of such work is the lack of a strong temporal component and the inability to make longitudinal assessments following an individual's trajectory and allowing timely interventions. Here we define a new task, that of identifying moments of change in individuals on the basis of their shared content online. The changes we consider are sudden shifts in mood (switches) or gradual mood progression (escalations). We have created detailed guidelines for capturing moments of change and a corpus of 500 manually annotated user timelines (18.7K posts). We have developed a variety of baseline models drawing inspiration from related tasks and show that the best performance is obtained through context aware sequential modelling. We also introduce new metrics for capturing rare events in temporal windows.
公開日: Wed, 11 May 2022 16:03:47 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
Identifying Moments of Change from Longitudinal User Text 縦長ユーザテキストから変化のモーメントを識別する 0.74
Adam Tsakalidis1,2, Federico Nanni2, Anthony Hills1, アダム・ツァカリディス1,2 フェデリコ・ナンニ2 アンソニー・ヒルズ1 0.52
Jenny Chim1, Jiayu Song1, Maria Liakata1,2,3 Jenny Chim1,Jiayu Song1,Maria Liakata1,2,3 0.32
1 Queen Mary University of London, London, United Kingdom クイーン・メアリー大学(英: queen mary university of london)は、イギリスのロンドンにある大学。 0.43
2 The Alan Turing Institute, London, United Kingdom 3 University of Warwick, Coventry, United Kingdom 2 アラン・チューリング・インスティテュート (alan turing institute, london, united kingdom 3 university of warwick, coventry, united kingdom)。 0.63
a.tsakalidis;m.liakata@qmul.ac.uk a.tsakalidis;m.liakata@qmul.ac.uk 0.25
2 2 0 2 y a M 1 1 2 2 0 2 y a m 1 1 である。 0.54
] L C . s c [ 1 v 3 9 5 5 0 ]LC。 sc [ 1 v 3 9 5 5 0 0.30
. 5 0 2 2 : v i X r a . 5 0 2 2 : v i X r a 0.42
Abstract Identifying changes in individuals’ behaviour and mood, as observed via content shared on online platforms, is increasingly gaining importance. 概要 オンラインプラットフォームで共有されたコンテンツを通じて観察される個人の行動やムードの変化の特定がますます重要になっている。 0.53
Most research to-date on this topic focuses on either: この話題に関する最新の研究は、どちらにも焦点を当てている。 0.48
(a) identifying individuals at risk or with a certain mental health condition given a batch of posts or (a)リスクのある個人、又は複数の役職が与えられた特定の精神状態のある個人を識別すること 0.63
(b) providing equivalent labels at the post level. (b)ポストレベルで同等のラベルを提供する。 0.78
A disadvantage of such work is the lack of a strong temporal component and the inability to make longitudinal assessments following an individual’s trajectory and allowing timely interventions. このような作業の欠点は、強い時間的要素の欠如と、個人の軌道に沿って縦断的な評価を行えず、タイムリーな介入を可能にすることだ。 0.63
Here we define a new task, that of identifying moments of change in individuals on the basis of their shared content online. ここでは、オンラインで共有されたコンテンツに基づいて個人の変化の瞬間を特定する新しいタスクを定義する。 0.83
The changes we consider are sudden shifts in mood (switches) or gradual mood progression (escalations). 私たちが考える変化は、突然の気分の変化(スイッチ)または段階的な気分の進行(エスカレーション)です。 0.65
We have created detailed guidelines for capturing moments of change and a corpus of 500 manually annotated user timelines (18.7K posts). 変更の瞬間をキャプチャするための詳細なガイドラインと、手動で注釈付きユーザタイムライン(18.7Kの投稿)500のコーパスを作成しました。 0.58
We have developed a variety of baseline models drawing inspiration from related tasks and show that the best performance is obtained through context aware sequential modelling. 我々は、関連するタスクからインスピレーションを得た様々なベースラインモデルを開発し、文脈を考慮した逐次モデリングによって最高のパフォーマンスが得られることを示す。 0.70
We also introduce new metrics for capturing rare events in temporal windows. また,時間窓のレアイベントをキャプチャする新たなメトリクスも導入する。 0.61
1 Introduction Linguistic and other content from social media data has been used in a number of different studies to obtain biomarkers for mental health. 1 はじめに ソーシャルメディアのデータから得られる言語やその他の内容は、メンタルヘルスのためのバイオマーカーを得るために多くの異なる研究で使われている。
訳抜け防止モード: 1 はじめに ソーシャルメディアデータからの言語および他のコンテンツは、多くの異なる研究で使用されている。 メンタルヘルスのバイオマーカーを入手しました
0.54
This is gaining importance given the global increase in mental health disorders, the limited access to support services and the prioritisation of mental health as an area by the World Health Organization (2019). 世界保健機関(2019年)による世界規模のメンタルヘルス障害の増加、サポートサービスへのアクセスの制限、メンタルヘルスの優先化などにより、これは重要性を増している。 0.67
Studies using linguistic data for mental health focus on recognising specific conditions related to mental health (e g , depression, bipolar disorder) (Husseini Orabi et al , 2018), or identifying self-harm ideation in user posts (Yates et al , 2017; Zirikly et al , 2019). メンタルヘルスのための言語データを用いた研究は、メンタルヘルス(husseini orabi et al , 2018)に関連する特定の条件の認識や、ユーザポストにおける自己調和イデオロギーの特定に焦点を当てている(yates et al , 2017; zirikly et al , 2019)。 0.76
However, none of these works, even when incorporating a notion of time (Lynn et al , しかし、これらのいずれも、時間の概念(lynn et al , )を組み込んだとしても機能しない。 0.57
Figure 1: Example of an Escalation (with a darker “peak”) and a Switch within a user’s timeline. 図1:エスカレーション(より暗い“ピーク”を持つ)と、ユーザのタイムライン内のスイッチの例。 0.67
2018; Losada et al , 2020), identify how an individual’s mental health changes over time. 2018; Losada et al , 2020)は、個人のメンタルヘルスが経時的にどのように変化するかを特定する。 0.74
Yet being able to make assessments on a longitudinal level from linguistic and other digital content is important for clinical outcomes, and especially in mental health (Velupillai et al , 2018). しかし、言語学的および他のデジタルコンテンツから縦断的な評価をすることができることは、臨床結果、特にメンタルヘルスにおいて重要である(Velupillai et al , 2018)。 0.75
The ability to detect changes in individual’s mental health over time is also important in enabling platform moderators to prioritise interventions for vulnerable individuals (Wadden et al , 2021). 個人のメンタルヘルスの変化を時間とともに検出する能力は、プラットフォームモデレーターが脆弱な個人(wadden et al, 2021)の介入を優先的に行うためにも重要である。 0.68
Users who currently engage with platforms and apps for mental health support (Neary and Schueller, 2018) would also benefit from being able to monitor their well-being in a longitudinal manner. 現在メンタルヘルスサポートのためのプラットフォームやアプリ(Neary and Schueller, 2018)を使っているユーザーは、長手な方法で健康状態を監視することの恩恵を受けるだろう。 0.72
Motivated by the lack of longitudinal approaches we introduce the task of identifying ‘Moments of Change’ (MoC) from individuals’ shared online content. 縦断的アプローチの欠如により、個人が共有するオンラインコンテンツから‘Moments of Change’(MoC)を識別するタスクを導入しました。 0.74
We focus in particular on two types of changes: Switches – mood shifts from positive to negative, or vice versa – and Escalations – gradual mood progression (see Fig 1, detailed in § 3). スイッチ – ムードシフトを正から負にするか、逆にエスカレーション(エスカレーション) – 段階的なムードの進行に特化します(図1参照)。
訳抜け防止モード: 特に2つのタイプの変化に焦点をあてる: スイッチ – ポジティブからネガティブへのムードシフト。 あるいは、その逆 — そして、エスカレーション – 徐々に気分が進行する。 図 1 を参照のこと。
0.66
Specifically we make the following contributions: • We present the novel task of identifying moments of change in an individual’s mood by analysing linguistic content shared online over time, along with a longitudinal dataset of 500 user timelines (18.7K posts, English language) from 500 users of an online platform. 特に、次のような貢献をする。 • オンラインプラットフォームの500ユーザから500ユーザタイムライン(1.7k投稿、英語)の縦断データセットと共に、オンラインで共有される言語コンテンツを分析して個人の気分の変化のモーメントを識別する斬新なタスクを提示する。 0.84
• We propose a number of baseline models for • ベースラインモデルをいくつか提案する。 0.73
英語(論文から抽出)日本語訳スコア
automatically capturing Switches/Escalations , inspired by sentence- and sequence-level stateof-the-art NLP approaches in related tasks. 関連するタスクにおける文とシーケンスレベルのnlpアプローチにインスパイアされたスイッチ/エスカレーションの自動キャプチャ。 0.57
• We introduce a range of temporally sensitive evaluation metrics for longitudinal NLP tasks adapted from the fields of change point detection (van den Burg and Williams, 2020) and image segmentation (Arbelaez et al , 2010). • 変化点検出(Van den Burg and Williams, 2020)と画像分割(Arbelaez et al , 2010)の分野から適応した長手NLPタスクに対する時間的評価指標について紹介する。 0.72
• We provide a thorough qualitative linguistic •徹底した質的言語を提供する 0.74
analysis of model performance. 2 Related Work Social Media and Mental Health Online usergenerated content provides a rich resource for computational modelling of wellbeing at both population and individual levels. モデル性能の解析。 2 関連ワークソーシャルメディアとメンタルヘルスオンラインのユーザ生成コンテンツは、人口と個人レベルの幸福の計算モデルに豊富なリソースを提供する。 0.75
Research has examined mental health conditions by analysing data from platforms such as Twitter and Reddit (De Choudhury et al , 2013; Coppersmith et al , 2014; Cohan et al , 2018) as well as peer-support networks such as TalkLife (Pruksachatkun et al , 2019). 研究は、TwitterやRedditなどのプラットフォーム(De Choudhury et al , 2013; Coppersmith et al , 2014; Cohan et al , 2018)やTalkLife (Pruksachatkun et al , 2019)のようなピアサポートネットワークからのデータを分析し、メンタルヘルスの状態を調査してきた。 0.81
Most such work relies on proxy signals for annotations (e g , self-disclosure of diagnoses, posts on support networks) and is characterised by a lack of standardisation in terms of annotation and reporting practices (Chancellor and De Choudhury, 2020). そのような作業のほとんどは、アノテーションのプロキシシグナル(例えば、診断の自己開示、サポートネットワークへの投稿)に依存しており、アノテーションとレポートのプラクティス(chancellor and de choudhury, 2020)の標準化の欠如によって特徴づけられている。 0.67
We have provided thorough annotation guidelines for Moments of Change that can aid mental health monitoring over time irrespective of the underlying condition. 我々は、基礎的な状況に関係なく、時間とともにメンタルヘルスモニタリングを支援する、変化の瞬間に対する詳細なアノテーションガイドラインを提供しました。 0.50
Moments of Change (MoC) Little work has specifically focused on automatically capturing changes in user behaviour based on their social media posts. Moments of Change (MoC) ソーシャルメディアの投稿に基づいてユーザー行動の変化を自動的に捉えることに焦点を当てた研究は少ない。
訳抜け防止モード: Moments of Change (MoC ) 焦点を絞った小さな仕事 ソーシャルメディアの投稿に基づいて ユーザー行動の変化を自動的に捉えます
0.85
Within the health domain, Guntuku et al (2020) showed that a user’s language on Facebook becomes more depressed and less informal prior to their visit to an emergency department. 健康領域内では、Guntuku et al (2020) は、Facebook上のユーザーの言語が、救急部門の訪問前に、より落ち込んで、非公式になることを示した。 0.69
With respect to mental health, De Choudhury et al (2016) proposed to identify shifts to suicide ideation by predicting (or not) a transition from posting on a regular forum to a forum for suicide support. メンタルヘルスに関して、de choudhury et al (2016) は、通常のフォーラム投稿から自殺支援フォーラムへの移行を予測(あるいは予測しない)することで、自殺思想への転換を特定することを提案した。 0.69
Pruksachatkun et al (2019) examined moments of affective change in TalkLife users by identifying positive changes in sentiment at post-level with respect to a distressing topic earlier in a user’s thread. pruksachatkun et al (2019)は、ユーザーのスレッドの初期の苦しい話題に関して、ポストレベルでの感情のポジティブな変化を識別することで、talklifeユーザの感情変化の瞬間を調査した。 0.70
In both cases MoC are overly specific and modelled through binary classification without any notion of temporal modelling. どちらの場合も MoC は極端に特異であり、時間的モデリングの概念なしで二項分類によってモデル化される。 0.63
NLP for Mental Health More advanced NLP methods have been used for predicting psychiatric 精神保健のためのNLP法は、より高度なNLP法が精神医学の予測に用いられている 0.57
conditions from textual data, including self-harm, suicide ideation, eating disorders, and depression (Benton et al , 2017; Kshirsagar et al , 2017; Yates et al , 2017; Husseini Orabi et al , 2018; Jiang et al , 2020; Shing et al , 2020). 自傷、自殺観念、摂食障害、抑うつなどのテキストデータからの条件(Benton et al , 2017; Kshirsagar et al , 2017; Yates et al , 2017; Husseini Orabi et al , 2018; Jiang et al , 2020; Shing et al , 2020)。 0.78
Researchers are increasingly adopting sequential modelling to capture temporal dynamics of language use and mental health. 研究者たちは、言語の使用とメンタルヘルスの時間的ダイナミクスを捉えるために、シーケンシャルモデリングを採用するようになっている。
訳抜け防止モード: 研究者たちはシーケンシャルなモデリングを 言語使用とメンタルヘルスの時間的ダイナミクスを捉える。
0.76
For example, Cao et al (2019) encode microblog posts using suicide-oriented embeddings fed to an LSTM network to assess the suicidality risk at post level. 例えば、Cao et al (2019)はLSTMネットワークに供給された自殺指向の埋め込みを用いてマイクロブログポストをエンコードし、ポストレベルで自殺リスクを評価する。
訳抜け防止モード: 例えば、Cao et al (2019 )はマイクロブログポストをエンコードする 自殺で LSTMネットワークへの指向性埋め込み 自殺リスクをポストレベルで評価します
0.73
Sawhney et al (2020b, 2021) improves further on predicting suicidality at postlevel by jointly considering an emotion-oriented post representation and the user’s emotional state as reflected through their posting history with temporally aware models. Sawhney et al (2020b, 2021) は、時間的に意識されたモデルによる投稿履歴を通して、感情指向のポスト表現とユーザの感情状態を共同で検討することにより、ポストレベルにおける自殺予測をさらに改善する。
訳抜け防止モード: sawhney et al (2020b, 2021) は感情指向のポスト表現を共同で考慮することで、ポストレベルでのスーシダリティの予測をさらに改善する ユーザーの感情状態は 時間的認識モデルによる投稿履歴を反映する。
0.74
The recent shared tasks in eRisk also consider sequences of user posts in order to classify a user as a “positive” (wrt self-harm or pathological gambling) or “control” case (Losada et al , 2020; Parapar et al , 2021). eriskの最近の共有タスクでは、ユーザを“ポジティブ”(自己傷や病的ギャンブル)または“コントロール”ケース(losada et al , 2020; parapar et al , 2021)に分類するために、ユーザ投稿のシーケンスも検討されている。 0.74
While such work still operates at the post- or user-level it highlights the importance of temporally aware modelling. このような作業はポストレベルやユーザレベルでも動作しますが、時間的に意識されたモデリングの重要性を強調します。
訳抜け防止モード: このような作業はポストまたはユーザレベルでも動作する。 時間的に意識されたモデリングの重要性を強調します
0.54
Related Temporal NLP Tasks Semantic change detection (SCD) aims to identify words whose meaning has changed over time. 時間的NLPタスク 意味変化検出(SCD)は、時間とともに意味が変化した単語を特定することを目的としている。
訳抜け防止モード: 時間的NLPタスクのセマンティックチェンジ検出(SCD) 時間とともに意味が変わった言葉を 特定することです
0.82
Given a set of word representations in two time periods, the dominant approach is to learn the optimal transformation using Orthogonal Procrustes (Schönemann, 1966) and measure the level of semantic change of each word via the cosine distance of the resulting vectors (Hamilton et al , 2016). 2つの期間における単語表現のセットが与えられた場合、支配的なアプローチはオルソゴン・プロクリスト(Schönemann, 1966)を用いて最適な変換を学び、結果のベクトルの余弦距離(Hamilton et al , 2016)を通して各単語の意味変化のレベルを測定することである。 0.76
A drawback of this is the lack of connection between consecutive windows. これの欠点は、連続するウィンドウ間の接続の欠如である。 0.77
Tsakalidis and Liakata (2020) addressed this through sequential modeling by encoding word embeddings in consecutive time windows and taking the cosine distance between future predicted and actual word vectors. tsakalidis and liakata (2020) は、連続時間窓に単語埋め込みをエンコードし、将来の予測と実際の単語ベクトルの間のコサイン距離を取ることによって、シーケンシャルなモデリングを通じてこの問題に対処した。 0.61
Both approaches are considered as baselines for our task. どちらのアプローチも私たちのタスクのベースラインとみなされます。 0.56
First story detection (FSD) aims to detect new events reported in streams of textual data. first story detection (fsd) は、テキストデータのストリームで報告される新しいイベントを検出することを目的としている。
訳抜け防止モード: first story detection (fsd) の目標 テキストデータのストリームに報告される新たなイベントを検出する。
0.79
Having emerged in the Information Retrieval community (Allan et al , 1998), FSD has been applied to streams of social media posts (Petrovi´c et al , 2010). 情報検索コミュニティ(Allan et al , 1998)に登場したFSDは、ソーシャルメディア投稿のストリームに適用されている(Petrovi ́c et al , 2010)。 0.70
FSD methods assume that a drastic change in the textual content of a document compared to previous documents signals the appearance of a new story. FSD法は、文書のテクスト内容が以前の文書と比べて劇的な変化が新しい物語の出現を示していると仮定する。 0.79
A baseline from FSD is considered in §4.2. FSDのベースラインは4.2である。 0.65
3 Dataset creation We describe the creation of a dataset of individuals’ timelines annotated with Moments of Change. 3 データセットの作成 変更のモーメントで注釈付けされた個人のタイムラインのデータセットの作成について説明する。 0.68
A A 0.42
英語(論文から抽出)日本語訳スコア
user’s timeline P (u) s:e is a subset of their history, a series of posts [p0, ..., pn] shared by user u between dates s and e. user’s timeline p (u) s:e はその歴史の一部であり、日付 s と e の間にユーザ u で共有される一連の投稿 [p0, ..., pn] である。 0.86
A “Moment of Change” (MoC) is a particular point or period (range of time points) within [s, e] where the behaviour or mental health status of an individual changes. モーメント・オブ・チェンジ(moment of change, moc)は、個々の行動や精神状態が変化する[s, e]内の特定のポイントや期間(時間の範囲)である。 0.73
While MoC can have different definitions in various settings, in this paper we are particularly interested in capturing MoC pertaining to an individual’s mood. MoCは様々な設定で異なる定義を持つことができるが、本論文では、個人の気分に関連するMoCを捉えることに特に関心がある。 0.72
Other types of MoC can include life events, the onset of symptoms or turning points (e g , moments of improvement, difficult moments or moments of intervention within therapy sessions).1 その他の種類のMoCには、ライフイベント、症状の発症、転換点(例えば、改善の瞬間、治療セッション内での介入の瞬間など)が含まれる。
訳抜け防止モード: その他の種類のMoCには、生命現象、症状の発症が含まれる。 転換点(例えば 改善の瞬間 困難な瞬間) またはセラピーセッション内の介入の瞬間)1
0.74
We address two types of Moments of Change: Switches (sudden mood shifts from positive to negative, or vice versa) and Escalations (gradual mood progression from neutral or positive to more positive or neutral or negative to more negative). 変化のモーメント(sudden mood shifts to positive)とエスカレーション(gradual mood progressation to more positive or positive to more positive or neutral or negative to more negative)の2つのタイプに対処する。 0.70
Capturing both sudden and gradual changes in individuals’ mood over time is recognised as important for monitoring mental health conditions (Lutz et al , 2013; Shalom and Aderka, 2020) and is one of the dimensions to measure in psychotherapy (Barkham et al , 2021). 突然の気分の変化を時間とともに捉えることは、精神状態を監視するために重要であると認識されており(Lutz et al , 2013; Shalom and Aderka, 2020)、精神療法において測定すべき次元の1つである(Barkham et al , 2021)。
訳抜け防止モード: 時間とともに個人の気分の急激な変化と段階的な変化を捉える 精神状態のモニタリングに重要であると認識されている(Lultz et al, 2013 ; Shalom) Aderka, 2020)は次元の一つで 心理療法(Barkham et al, 2021)で測定する。
0.83
3.1 Data Acquisition Individual’s timelines are extracted from Talklife2, a peer-to-peer network for mental health support. 3.1 データ取得 個人のタイムラインは、メンタルヘルスをサポートするピアツーピアネットワークであるTalklife2から抽出される。 0.73
Talklife incorporates all the common features of social networks – post sharing, reacting, commenting, etc. Talklifeは、ポスト共有、反応、コメントなど、ソーシャルネットワークの一般的な機能をすべて取り入れている。 0.75
Importantly, it provides a rich resource for computational analysis of mental health (Pruksachatkun et al , 2019; Sharma et al , 2020; Saha and Sharma, 2020) given that content posted by its users focuses on their daily lives and well-being. 重要なのは、ユーザーが投稿したコンテンツが日々の生活と幸福に焦点を当てていることを考えると、メンタルヘルスの計算分析のための豊富なリソース(Pruksachatkun et al , 2019; Sharma et al , 2020; Saha and Sharma, 2020)を提供することだ。 0.76
A complete collection between Aug’11–Aug’20 (12.3M posts, 1.1M users) was anonymised and provided to our research team in a secure environment upon signing a License Agreement. aug’11–aug’20(投稿12.3m、ユーザ1.1m)の完全なコレクションが匿名化され、ライセンス契約書に署名してセキュアな環境で研究チームに提供されました。 0.55
In this environment, 500 user timelines were extracted (§3.2) and an additional anonymisation step was performed to ensure that usernames were properly hashed when present in the text. この環境では500のユーザタイムラインが抽出され(3.2)、テキスト中に存在するユーザ名が適切にハッシュされるように、さらに匿名化のステップが実行された。 0.64
The 500 timelines were subsequently annotated using our bespoke annotation tool (§3.3) to derive the resulting longitudinal dataset (§3.4). その後、500のタイムラインを私たちのbespokeアノテーションツールを使ってアノテートし、その結果の長手データセットを導出しました(3.4)。 0.55
1A limitation of our work stems from the fact that MoC are revealed to us by the user’s shared content (i.e., we cannot identify changes in a user’s well-being unless these are expressed online). 1 作業の制限は、MoCがユーザの共有コンテンツによって明らかにされるという事実に起因している(つまり、オンラインで表現されない限り、ユーザの幸福度の変化を識別できない)。 0.77
We provide details on the limitations of our work in the Ethics Statement (§7). 当社の作業の制限については,倫理声明(7)で詳細に述べています。 0.73
2https://www.talklif e.com/ 2https://www.talklif e.com/ 0.20
3.2 Timeline Extraction Existing work extracts user timelines either based on a pre-determined set of timestamps (e g , considering the most recent posts by a user) (Sawhney et al , 2020b) or by selecting a window of posts around mentions of specific phrases (e g , around self-harm) (Mishra et al , 2019). 3.2 タイムライン抽出 既存の作業は、事前決定されたタイムスタンプ(例えば、ユーザによる最新の投稿を考慮すれば)に基づいて、または特定のフレーズ(例えば、セルフハーム周辺)の言及に関する投稿のウィンドウを選択することで、ユーザのタイムラインを抽出する(mishra et al, 2019)。 0.77
The latter introduces potential bias into subsequent linguistic analysis (Olteanu et al , 2019), while the former could result into selecting timelines from a particular time period – hence potentially introducing temporallydependent linguistic or topical bias (e g , a focus on the COVID-19 pandemic). 後者は後続の言語分析(olteanu et al, 2019)に潜在的なバイアスを導入し、前者は特定の期間からタイムラインを選択することができる。
訳抜け防止モード: 後者は後続の言語学的分析に潜在的なバイアスをもたらす(Olteanu et al, 2019)。 前者は特定の期間からタイムラインを選択することができ、それゆえ、時間依存的な言語的または話題的バイアス(例えば、)を導入する可能性がある。 新型コロナウイルスのパンデミックに焦点を当てている。
0.53
Here we instead extract timelines around points in time where a user’s posting behaviour has changed. ここでは、ユーザの投稿行動が変わった時点でのポイントに関するタイムラインを抽出する。 0.68
Our hypothesis is that such changes in a user’s posting frequency could be indicative of changes in their lives and/or mental health. 我々の仮説では、ユーザーの投稿頻度の変化は、自分の生活やメンタルヘルスの変化を示す可能性がある。 0.74
Such association between changes in posting behaviour on mental health fora and changes in mental health has been assumed in prior literature (De Choudhury et al , 2016). メンタルヘルスフォーラムにおける投稿行動の変化とメンタルヘルスの変化との関係は、以前の文献(De Choudhury et al , 2016)で推測されている。 0.67
Identifying changes in posting frequency We create a time series of each user’s daily posting frequency based on their entire history. 投稿頻度の変化を特定する 履歴全体に基づいて、各ユーザの毎日の投稿頻度の時系列を作成する。 0.79
We then employ a change-point detection model to predict the intensity of daily post frequency by the given user. 次に,変更点検出モデルを用いて,利用者の毎日のポスト周波数の強度を推定する。 0.80
Bayesian Online Change-point Detection (Adams and MacKay, 2007) with a Poisson-Gamma underlying predictive model (Zachos, 2018) was chosen as our model, due to its highly competitive performance (van den Burg and Williams, 2020) and the fact that extracted timelines using this method had the highest density of MoC compared to a number of different timeline extraction (anomaly detection and keyword-based) methods for the same dataset. ベイジアンオンライン変化点検出 (Adams and MacKay, 2007) とポアソン・ガンマに基づく予測モデル (Zachos, 2018) が, 高い競争性能 (van den Burg and Williams, 2020) と, 抽出した時系列が同一データセットの多くの異なる時系列抽出法(異常検出法とキーワードベース法)と比較してMoCの密度が最も高かったという事実から, モデルとして選択された。 0.80
Extracting timelines around change-points Upon detecting candidate MoC as change-points in posting frequency, we generated candidate timelines for annotation by extracting all of the user’s posts within a seven-day window around each change-point. 変更点周辺のタイムラインの抽出 投稿頻度の変化点として候補MoCを検出すると、各変更点周辺の7日間のウィンドウ内でユーザの投稿をすべて抽出し、アノテーションの候補タイムラインを生成する。 0.64
We controlled for timeline length (between 10 and 150 posts, set empirically) so that they were long enough to enable annotators to notice a change but not so long as to hinder effective annotation. 時間軸長(経験的に設定した10~150記事)を調整し,アノテーションが有効なアノテーションを妨げるほどでは,アノテーションが変更に気付くほど長くなるようにした。 0.65
This control for timeline length means that our subsequent analysis is performed (and models are trained and evaluated) on time periods during which the users under study are quite active; however, the upper bound of 150 posts in 15 days set for each timeline also ensures that we この時間軸長の制御は、学習中のユーザが非常に活発な期間に、その後の分析(およびモデルを訓練し、評価する)が行われることを意味するが、各タイムラインに設定された15日間に150本の投稿の上限は、同時に保証される。 0.69
英語(論文から抽出)日本語訳スコア
(a) Posts per Timeline (a)タイムラインごとの投稿 0.78
(b) Posts per MoC Area (b)MoCエリアあたりの投稿 0.78
Figure 2: Distributions in our dataset. 図2: データセット内の分散。 0.74
Figure 3: Annotating a ‘Switch’ on our interface (§3.3). 図3: インターフェースに ‘Switch’ をアノテーションします (3.3)。 0.82
do not bias (or limit) our analysis on extremely active users. 非常にアクティブなユーザーの分析をバイアス(または制限)しないでください。 0.69
Finally, to ensure linguistic diversity in our dataset, 500 timelines extracted in this way were chosen for annotation at random, each corresponding to a different individual. 最後に、データセットにおける言語多様性を確保するために、ランダムに抽出された500のタイムラインが、それぞれ異なる個人に対応するアノテーションとして選ばれました。 0.66
The resulting dataset consists of 18,702 posts (µ=35, SD=22 per timeline; range of timeline length=[10,124], see Fig. 2(a)). 得られたデータセットは18,702ポスト(μ=35, SD=22, タイムラインの長さ=[10,124], 図2(a))で構成されている。 0.74
3.3 Annotations of MoC 3.3 MoC のアノテーション 0.75
Annotation Interface An annotation interface was developed to allow efficient viewing and annotation of a timeline (see snippet in Fig 3). アノテーションインターフェース タイムラインの効率的な表示とアノテーションを可能にするアノテーションインターフェースが開発された(図3のスニペット参照)。 0.73
Each post in a timeline was accompanied by its timestamp, the user’s self-assigned emotion and any associated comments (color-coded, to highlight recurrent users involved within the same timeline). タイムライン上の各投稿には、タイムスタンプ、ユーザーの自己アサインされた感情、関連するコメント(カラーコードで、同じタイムラインに含まれるリカレントなユーザーをハイライトする)が添付されている。 0.62
Given the context of the entire timeline, annotations for MoC are performed at post level: if an annotator marks a post as a MoC, then they specify whether it is タイムライン全体のコンテキストを考えると、MoCのアノテーションはポストレベルで実行される。
訳抜け防止モード: タイムライン全体のコンテキストを考慮すれば、MoCのアノテーションはポストレベルで実行される。 すると彼らはそれが
0.51
(a) the beginning of a Switch or (a)スイッチの開始、または 0.79
(b) the peak of an Escalation (i.e., the most positive/negative post of the Escalation). (b)エスカレーションのピーク(すなわちエスカレーションの最も肯定的かつ否定的なポスト)。 0.45
Finally, the range of posts pertaining to a MoC (i.e., all posts in the Switch/Escalation) need to be specified. 最後に、MoCに関連するポスト(すなわち、スイッチ/エスカレーションの全てのポスト)の範囲を指定する必要がある。 0.78
Label None (O) Switch (IS) Escalation (IE) no(o)スイッチ(is)エスカレーション(ie)をラベルする 0.66
Perfect Agreement Majority 0.69 0.08 0.19 完全合意多数 0.69 0.08 0.19 0.33
0.89 0.30 0.50 0.89 0.30 0.50 0.24
Table 1: Inter Annotator Agreement (IAA). 表1:IAA(Inter Annotator Agreement)。 0.69
Data annotation After a round of annotations for guideline development with PhD students within the research group (co-authors of the paper), we recruited three external annotators to manually label the 500 timelines. データアノテーション 研究グループ内の博士課程生(論文の共著者)を対象に,500のタイムラインを手作業でラベル付けする外部アノテーションを3つ採用した。 0.74
They all have University degrees in humanities disciplines and come from three different countries; one of them is an English native speaker. いずれも人文科学の学位を持ち、3つの異なる国から来ており、そのうちの1つは英語話者である。 0.77
Annotators were provided with a set of annotation guidelines containing specific examples, which were enriched and extended during iterative rounds of annotation.3 アノテーションには、アノテーションの反復ラウンド中に拡張された特定の例を含む一連のアノテーションガイドラインが提供されている。 0.62
Annotators completed 2 hands-on training sessions with a separate set of 10 timelines, where they were able to ask questions and discuss opinions to address cases of disagreement. アノテータは、2つのハンズオントレーニングセッションを10のタイムラインに分けて完了し、そこで質問をしたり、意見を議論したりして、意見の相違のケースに対処することができた。
訳抜け防止モード: アノテーションは2つの手 - 10のタイムラインを別々にセットしたトレーニングセッションで完了した。 意見の相違に対処するために 質問をしたり 意見を議論したりしました
0.56
Following the initial training phase, we performed spot checks to provide feedback and answer any questions while they labelled the full dataset (n=500 timelines). 最初のトレーニングフェーズに続いて、全データセット(n=500タイムライン)をラベル付けしながら、フィードバックの提供と質問に答えるためにスポットチェックを行いました。 0.59
Annotators were encouraged to take breaks whenever needed, due to the nature of the content. アノテーションは、コンテンツの性質のため、必要に応じて休憩することを奨励された。 0.54
On average, each annotator spent about 5 minutes on annotating a single timeline. 平均して、各アノテータは1つのタイムラインにアノテートするのに約5分を費やした。 0.48
3.4 Deriving the final gold standard The annotation of MoC is akin to assessment of anomaly detection methods since MoC (Switches and Escalations) are rare, with the majority of posts not being annotated (label ‘None’). 3.4 最終金本位制を導出する moc の注釈は、moc (switches and escalation) が稀であり、ほとんどの投稿に注釈が付かない(label 'none')ため、異常検出法の評価に似ている。 0.63
Measuring the agreement in such settings is therefore complex, as established metrics such as Krippendorff’s Alpha and Fleiss’ Kappa would generally yield a low score. このような環境での合意の測定は複雑であり、KrippendorffのAlphaやFleissのKappaのような確立されたメトリクスは一般に低いスコアを得る。 0.69
This is due to the unrealistically high expected chance agreement (Feinstein and Cicchetti, 1990), which cannot be mitigated by the fact that annotators do agree on the majority of the annotations (especially on the ‘None’ class). これは非現実的に高い確率の合意(Feinstein and Cicchetti, 1990)のためであり、アノテーターがほとんどのアノテーション(特に「非」クラス)に同意するという事実によって緩和できない。 0.70
For this reason, we have used as the main indicator the per label positive agreement computed as the ratio of the number of universally agreed-upon instances (the intersection of posts associated with that label) over the total number of instances (the union of posts associated with that label). このため,本研究では,各ラベルの正の一致を,総インスタンス数(ラベルに関連する投稿の交点)に対する普遍的に合意されたアップオンインスタンス数(ラベルに関連する投稿の交点)の比率として算出した。 0.76
As highlighted in Table 1, 表1で強調されているように 0.64
3Guidelines are available 3ガイドライン は 利用可能 0.66
github.com/Maria-Lia kata-NLP-Group/ Annotation-guideline s. github.com/Maria-Lia kata-NLP-Group/アノテーションガイド。 0.27
at https:// に https:// 0.61
英語(論文から抽出)日本語訳スコア
while perfect agreement for ‘None’ is at 69%, perfect agreement on Escalations and Switches is at 19% and 8%, respectively. none’に対する完全な合意は69%だが、エスカレーションとスイッチに関する完全な合意はそれぞれ19%と8%である。 0.69
However, if instead of perfect agreement we consider majority agreement (where two out of three annotators agree), these numbers drastically increase (30% for Switches and 50% for Escalations). しかし、完全な合意ではなく、多数決(アノテータ3人のうち2人が同意する)を考えると、これらの数は大幅に増加する(スイッチは30%、エスカレーションは50%)。 0.67
Moreover, by examining the systematic annotation preferences of our annotators we have observed that the native speaker marked almost double the amount of Switches compared to the other two annotators, in particular by spotting very subtle cases of mood change. さらに、アノテータの体系的なアノテーションの嗜好を調べることで、母語話者が他の2つのアノテータと比較してスイッチの量をほぼ2倍にし、特に気分変化の非常に微妙な事例を見いだすことが観察された。 0.59
We have thus decided to generate a gold standard based on majority decisions, comprising only cases where at least two out of three annotators agree with the presence of a MoC. そこで我々は,3人のうち少なくとも2人がMoCの存在に同意するケースのみを含む,多数決に基づいて金本位制を作成することを決定した。 0.73
The rare cases of complete disagreement have been labelled as ‘None’. 完全な不一致のまれなケースは‘none’とラベル付けされている。 0.58
We thus have 2,018 Escalations and 885 Switches from an overall of 18,702 posts (see Fig 2(b) for the associated lengths in #posts). したがって、2,018エスカレーションと885スイッチは18,702ポスト全体のものである(#postsの関連する長さについては図2(b)を参照)。 0.71
In future work we plan to consider aggregation methods based on all annotations or approaches for learning from multiple noisy annotations (Paun and Simpson, 2021). 今後の作業では、複数の騒がしいアノテーション(paun and simpson, 2021)から学ぶための、すべてのアノテーションやアプローチに基づいた集約メソッドを検討する予定です。 0.68
4 Models & Experiment Design Our aim is to detect and characterise the types of MoC based on a user’s posting activity. 4モデルと実験設計 本研究の目的は,ユーザの投稿行動に基づいてMoCの種類を検出し,特徴付けることである。 0.76
We therefore treat this problem as a supervised classification task (both at post level and in a sequential/timelines ensitive manner, as presented in §4.2) rather than an unsupervised task, even though we also consider effectively baselines with unsupervised components (FSD, SCD in §4.2). そこで本稿では,非教師付きコンポーネント (FSD, SCD in >4.2) を効果的にベースラインとして検討しながらも,非教師付きタスクではなく,教師付き分類タスク (ポストレベル,シーケンシャル/タイムラインセンシティブな方法で) として扱う。 0.67
Contrary to traditional sentence or document-level NLP tasks, we incorporate timeline-sensitive evaluation metrics that account for the sequential nature of our model predictions (§4.1). 従来の文や文書レベルのNLPタスクとは対照的に,我々のモデル予測の逐次的性質を考慮に入れた時系列感性評価指標(4.1)を取り入れた。 0.64
Given a user’s timeline, the aim is to classify each post within it as belonging to a “Switch” (IS), an “Escalation” (IE), or “None” (O). ユーザのタイムラインを考えると、その中の各投稿を“switch”(is)、”escalation”(ie)、あるいは“none”(o)に分類することが目的だ。
訳抜け防止モード: ユーザのタイムラインを考えると、その中の各投稿を“スイッチ”(IS)に属するものとして分類することが目的だ。 Escalation ” (IE ) あるいは “None ” (O ) です。
0.71
At this point we don’t distinguish between beginnings of switches/peaks of escalations and other posts in the respective ranges. 現時点では、エスカレーションのスイッチ/ピークの開始と、それぞれの範囲における他の投稿を区別しません。
訳抜け防止モード: この時点では、スイッチの開始とエスカレーションのピークを区別しません。 および各範囲の他の投稿。
0.64
While the task is sequential by definition, we train models operating both at the post level in isolation and sequential models at the timeline-level (i.e., accounting for user’s posts over time), as detailed in §4.2. タスクは定義によって逐次的に行われるが、我々は、時間が経つにつれてユーザの投稿を勘定する)タイムラインレベルで、分離されたポストレベルとシーケンシャルモデルの両方で操作するモデルを訓練する。 0.67
We contrast model performance using common post-level classification metrics as well as novel timeline-level evaluation approaches (§4.1). 一般的なポストレベル分類指標と新しい時系列レベル評価手法(4.1)を用いたモデル性能の対比を行った。 0.69
This allows us to investigate the impact of (a) accounting for severe class imbalance 重度クラス不均衡に対する(a)会計の影響を調査できる 0.64
and (b) longitudinal modelling. および (b) 縦モデリング。 0.69
We have randomly divided the annotated dataset into 5 folds (each containing posts from 100 timelines) to allow reporting results on all of the data through cross-validation. 我々は、注釈付きデータセットを5つの折り畳み(それぞれ100のタイムラインの投稿を含む)にランダムに分割し、クロスバリデーションによって全データのレポート結果を可能にする。 0.64
4.1 Evaluation Settings Post-level We first assess model performance on the basis of standard evaluation metrics at the post level (Precision, Recall, F1 score). 4.1 評価設定 ポストレベルの標準評価基準(精度、リコール、F1スコア)に基づいて、まずモデルの性能を評価する。 0.73
These are obtained per class and macro-averaged, to better emphasize performance in the two minority class labels (IS & IE). これらはクラスごとに得られ、マクロ平均化され、2つのマイノリティクラスラベル(is & ie)のパフォーマンスをより強調する。 0.65
However, post-level metrics are unable to show: しかし、ポストレベルのメトリクスは示せません。 0.54
(a) the expected accuracy at the timeline level (see example in Fig 4) and (a)タイムラインレベルでの予測精度(図4の例)、 0.66
(b) model suitability in predicting regions of change. (b)変化領域の予測におけるモデル適合性。 0.86
These aspects are particularly important since we aim to build models capturing MoC over time. これらの側面は、時間とともにMoCをキャプチャするモデルを構築することを目的としているため、特に重要です。 0.51
Timeline-level Our first set of timeline-level evaluation metrics are inspired from work in change-point detection (van den Burg and Williams, 2020) and mirror the post-level ones, albeit operating on a window and timeline basis. タイムラインレベル 最初のタイムラインレベルの評価指標は、変更点検出(van den Burg and Williams, 2020)の作業から着想を得たもので、ウィンドウとタイムラインベースで運用されているにもかかわらず、ポストレベルのメトリクスを反映しています。 0.57
Specifically, working on each timeline and label type independently, we calculate Recall R(l) w (Precision P (l) w ) by counting as “correct” a model prediction for label l if the prediction falls within a window of w posts around post labelled l in the gold standard. 具体的には、各タイムラインとラベルタイプを独立に処理し、ゴールド標準におけるラベル付きlの周りのwポストのウィンドウに該当する場合、ラベルlのモデル予測を「正しい」とカウントすることで、リコールR(l) w (Precision P (l) w ) を計算する。 0.76
Formally: |T Pw(M (l),GS(l))| 形式的には |T Pw(M (l),GS(l))| 0.39
|T Pw(M (l),GS(l))| |T Pw(M (l),GS(l))| 0.42
R(l) w = r(l) である。 w = 0.49
|GS(l)| , P (l) |GS(l)| ,p(l) 0.62
w = |M (l)| w = |M (l)| 0.46
, where T Pw denotes the true positives that fall within a range of w posts and M (l)/GS(l) are the predicted/actual labels for l, respectively. , ここで T Pw は w のポストの範囲内にある正の正の値を表し、M (l) とGS(l) はそれぞれ l の予測・実ラベルである。 0.58
Note that each prediction can only be counted once as “correct”. 各予測は1回だけ“正しい”とカウントできる点に注意が必要だ。 0.64
R(l) w are calculated on every timeline and are then macro-averaged. r(l) w は各タイムラインで計算され、マクロ平均化される。 0.74
w and P (l) The second set of our timeline-level evaluation metrics is adapted from the field of image segmentation (Arbelaez et al , 2010). w と p (l) タイムラインレベルの評価指標の第2セットは、画像セグメンテーション(arbelaez et al , 2010)の分野から適応しています。 0.76
Here we aim at evaluating model performance based on its ability to capture regions of change (e g , in Fig 4, ‘GS’ shows a timeline with three (two) such regions of Escalations (Switches)). ここでは,変化領域をキャプチャする能力に基づいてモデル性能を評価することを目的としている(図4,‘gs’では,エスカレーション領域(スイッチ)が3(2)あるタイムラインを示す)。 0.75
For each such true region R(l) GS, we define its overlap O(R(l) M ) with each predicted region R(l) M as the intersection over union between the two sets. そのような真の領域 R(l) GS に対して、予測領域 R(l) M との重なり合う O(R(l) M ) を、2つの集合間の結合の交叉として定義する。 0.84
This way, we can get recall and precision oriented coverage metrics as follows: このように、リコールと精度指向のカバレッジメトリクスを次のように取得できます。 0.54
GS, R(l) r (M → GS) = C(l) GS, R(l) r(M → GS) = C(l) 0.42
1(cid:80) R 1(cid:80) R 0.42
(l) GS (cid:80) (l)GS (cid:80) 0.38
R(l) GS |R(l) GS| R(l)GS |R(l)GS| 0.40
|R(l) GS| · max |R(l) GS| ·max 0.72
R(l) M {O(R(l) R(l)M o(r(l)) である。 0.45
GS, R(l) M )}, GS, R(l) M)。 0.48
英語(論文から抽出)日本語訳スコア
Figure 4: Actual (GS, shown twice) vs Predicted labels for each post (square) of a single timeline, by two models (M1, M2). 図4: 実際の (gs, shown twice) と予測された2つのモデル (m1, m2) による1つのタイムラインの各ポスト (square) のラベル。 0.76
Although M2 provides a more faithful ‘reconstruction’ of the user’s mood over time (the predictions are identical but shifted slightly in time), all post-level evaluation metrics for M1 are greater or equal to those obtained by M2 for the two minority classes (IE and IS). m2は、ユーザのムードをより忠実に再構築する(予測は同一だが、わずかに時間的に変化する)が、m1のポストレベル評価指標はすべて、2つのマイノリティクラス(ieとis)でm2が取得したものよりも大きいか等しい。 0.79
p (M → GS) = C(l) p(M → GS) = C(l) 0.42
1(cid:80) R 1(cid:80) R 0.42
(l) M (cid:80) (l)M (cid:80) 0.40
R(l) M |R(l) M | R(l)M |R(l) M | 0.45
|R(l) M| · max |R(l) M| ·max 0.71
R(l) GS {O(R(l) R(l)GS o(r(l)) である。 0.43
GS, R(l) M )}. GS, R(l) M)。 0.48
The coverage metrics are calculated on the timeline basis and macro-averaged similarly to R(l) w and P (l) w . カバレッジメトリクスは、タイムラインベースで計算され、R(l)wおよびP(l)wと同様、マクロ平均化される。 0.67
Using a set of evaluation metrics, each capturing a different aspect of the task, ensures assess to model performance from many different angles. 評価メトリクスのセットを使用することで、それぞれがタスクの異なる側面を捉え、さまざまな角度からパフォーマンスをモデル化することを保証する。 0.74
4.2 Baseline Models We have considered different approaches to addressing our task: 4.2 ベースラインモデル 私たちは、タスクに対処するための異なるアプローチを検討しました。 0.51
(i) Naïve methods, specifically a Majority classifier (predicting always “None”) and a “Random” predictor, picking a label based on the overall label distribution in the dataset. (i)ナイーブ法、特にマジョリティ分類器(常に“None”と予測される)と“Random”予測器で、データセットのラベル全体の分布に基づいてラベルを選択する。 0.80
It has been shown that comparisons against such simple baselines is essential to assess performance in computational approaches to mental health (Tsakalidis et al , 2018). このような単純なベースラインとの比較は、メンタルヘルスに対する計算手法のパフォーマンスを評価する上で不可欠であることが示されている(Tsakalidis et al , 2018)。 0.68
(ii) Post-level supervised models operating on posts in isolation (i.e., ignoring post sequence in a user’s timeline): (ii)ポストを別々に運用するポストレベル監視モデル(例えば、ユーザのタイムラインにおけるポストシーケンスを無視する) 0.78
(a) Random Forest (Breiman, 2001) on tfidf post representations (RF-tfidf); (a)ランダムフォレスト(breiman, 2001) on tfidf post representations(rf-t fidf) 0.76
(b) BiLSTM (Huang et al , 2015) operating on sequences of word embeddings (BiLSTM-we); (b)BiLSTM(Huang et al , 2015)は、単語埋め込み(BiLSTM-we)のシーケンスで動作する。 0.83
(c) BERT(ce) (Devlin et al , 2019) using the crossentropy loss; and (c)クロスエントロピー損失を用いたBERT(ce)(Devlin et al , 2019)及び 0.68
(d) BERT(f) trained using the alpha-weighted focal loss (Lin et al , 2017), which is more appropriate for imbalanced datasets. (d)BERT(f)は、アルファ重み付き焦点損失(Lin et al , 2017)を用いてトレーニングされた。
訳抜け防止モード: (d ) bert(f ) training using the alpha - weighted focal loss (lin et al, 2017) これは不均衡データセットにもっと適しています。
0.76
(iii) Emotion Classification We used DeepMoji (EM-DM) (Felbo et al , 2017) and Twitter-roBERTabase (EM-TR) from TweetEval ’20 (Barbieri et al , 2020) operating on the post-level, to generate softmax probabilities for each emotion (64 for EM-DM, 4 for EM-TR). (iii)deepmoji (em-dm) (felbo et al , 2017) と twitter-robertabase (em-tr) を、tweeteval ′20 (barbieri et al , 2020) からポストレベルに運用し、各感情(em-dmでは64、em-trでは4)に対してソフトマックス確率を生成する。 0.66
These provide meta-features to a BiLSTM to obtain timeline-sensitive models for identifying MoC. これらは、BiLSTMにメタ機能を提供し、MoCを識別するためのタイムライン感受性モデルを得る。 0.47
(iv) First Story Detection (FSD). (4)ファーストストーリー検出(FSD)。 0.63
We have used two common approaches for comparing a post to the n previous ones: representing the previous posts as 我々は、投稿をnの前の投稿と比較するために2つの一般的なアプローチを使った。 0.65
(i) a single centroid or (i)一セントロイド、又は 0.72
(ii) the nearest neighbour to the current post among them (Allan et al , 1998; Petrovi´c et al , 2010). (二)現職に最も近い隣人(Allan et al , 1998; Petrovi ́c et al , 2010)。 0.30
In both cases, we calculate どちらの場合も計算します 0.70
the cosine similarity of the current and previous posts. 現ポストと以前のポストのコサインの類似性。 0.58
The scores are then fed into a BiLSTM as meta-features for a sequential model. スコアは、シーケンシャルモデルのためのメタ機能としてBiLSTMに入力される。 0.66
Results are reported for the best method only. ベストメソッドのみの結果が報告されます。 0.72
(v) Semantic Change Detection (SCD). (v)意味変化検出(SCD) 0.65
Instead of the standard task of comparing word representations in consecutive time windows, we consider a user being represented via their posts at particular points in time. 単語表現を連続時間ウィンドウで比較する標準的なタスクの代わりに、特定の時点の投稿を通して表現されるユーザについて検討する。 0.74
We follow two approaches. 我々は2つのアプローチに従う。 0.54
The first is an Orthogonal Procrustes approach (Schönemann, 1966) operating on post vectors (SCD-OP). 1つ目は直交procrustesアプローチ (schönemann, 1966) であり、post vectors (scd-op) 上で動作する。 0.64
Our aim here is to find the optimal transformation across consecutive representations, with higher errors being indicative of a change in the user’s behaviour. ここでの目的は、ユーザの振る舞いの変化を示すため、連続した表現間の最適な変換を見つけることです。
訳抜け防止モード: ここでの目的は、連続表現間の最適な変換を見つけることである。 エラーの増加はユーザの振る舞いの変化を示している。
0.75
In the second approach (SCD-FP) a BiLSTM is trained on the user’s k previous posts in order to predict the next one (Tsakalidis and Liakata, 2020). 第2のアプローチ(SCD-FP)では、次のアプローチ(Tsakalidis と Liakata, 2020)を予測するために、ユーザの k 個の以前の投稿に対して BiLSTM をトレーニングする。 0.76
Errors in prediction are taken to signal changes in the user. 予測のエラーは、ユーザの信号変更に適用される。 0.83
In both cases, we calculate the dimension-wise difference between the actual and the transformed/predicte d representations (post vectors) and use this as a meta-feature to a BiLSTM to obtain a time-sensitive model. どちらの場合も、実際の表現と変換/予測された表現(ポストベクトル)の次元的差を計算し、これをBiLSTMのメタ機能として利用し、時間依存モデルを得る。 0.67
(vi) Timeline-sensitive. (vi)タイムラインに敏感。 0.58
From our (ii) post-level classifiers, BERT(f) tackles the problem of imbalanced data but fails to model the task in a longitudinal manner. 私たちから (ii)ポストレベル分類器 bert(f) は不均衡なデータの問題に取り組むが、そのタスクを縦断的にモデル化することができない。
訳抜け防止モード: 私たちから (ii) post-level classifiers, BERT(f )は不均衡データの問題に取り組む しかし、タスクを縦にモデル化することはできません。
0.76
To remedy this, we employ BiLSTM-bert, which treats a timeline as a sequence of posts to be modelled, each being represented via the [CLS] representation of BERT(f). この問題を解決するために、我々はBiLSTM-bertを用いて、時系列をモデル化するポストのシーケンスとして扱い、それぞれがBERT(f)の[CLS]表現を介して表現される。 0.60
To convert the post-level scores/representatio ns from ポストレベルスコア/表現を変換する 0.65
(iii)- (v) above into time-sensitive models we used the same BiLSTM from (iii)- (v) 同じBiLSTMを用いた時間感受性モデル 0.50
(vi), operating at the timeline-level. (vi) タイムラインレベルでの操作。 0.68
Details for each model and associated hyperparameters are in the Appendix. 各モデルと関連するハイパーパラメータの詳細は、Appendixにある。 0.76
5 Results & Discussion 5.1 Quantitative Comparison Model Comparison Table 2 summarises the results of all models; Fig 5 further shows the Pw/Rw metrics for IE/IS for the best-performing models. 5 結果と議論 5.1 定量的比較モデル比較表2は、すべてのモデルの結果を要約し、図5は、最高のパフォーマンスモデルに対するIE/ISのPw/Rwメトリクスをさらに示す。
訳抜け防止モード: 5 結果と議論 5.1 定量的比較モデル比較表2:全モデルの結果の概要 図5はieのpw/rwメトリクスを示しています。
0.77
BiLSTM-bert confidently outperforms all com- BiLSTM-bertはすべてのコンパスを確実に上回る 0.48
英語(論文から抽出)日本語訳スコア
e Majority v ï Random a N l RF-tfidf e majority v - ランダム a n l rf-tfidf 0.77
e v e lt s o P e v e lt s o P 0.43
BiLSTM-we BERT(ce) BERT(f) BiLSTM-we BERT(ce)BERT(f) 0.45
l FSD e v e le n i l e m T L FSD e v e le n i l e m t である。 0.59
i EM-TR EM-DM SCD-OP SCD-FP BiLSTM-bert 私は EM-TR EM-DM SCD-OP SCD-FP BiLSTM-bert 0.38
P – .047 .294 .245 .285 .260 – .344 .533 .200 .270 .397 P – .047 .294 .245 .285 .260 – .344 .533 .200 .270 .397 0.34
IS R .000 .047 .006 .119 .186 .321 .000 .036 .118 .005 .082 .264 IS R .000 .047 .006 .119 .186 .321 .000 .036 .118 .005 .082 .264 0.33
F1 .000 .047 .011 .160 .222 .287 .000 .065 .193 .009 .126 .316 F1 .000 .047 .011 .160 .222 .287 .000 .065 .193 .009 .126 .316 0.31
P – .108 .568 .416 .454 .401 – .444 .479 .478 .503 .568 P – .108 .568 .416 .454 .401 – .444 .479 .478 .503 .568 0.34
IE R .000 .108 .087 .347 .368 .478 .000 .248 .351 .408 .370 .461 IE R .000 .108 .087 .347 .368 .478 .000 .248 .351 .408 .370 .461 0.33
Post-level Evaluation O F1 .000 .108 .151 .378 .406 .436 .000 .318 .405 .440 .426 .508 ポストレベル評価O F1 .000 .108 .151 .378 .406 .436 .000 .318 .405 .440 .426 .508 0.53
P .845 .845 .852 .878 .883 .898 .845 .865 .880 .882 .880 .898 P .845 .845 .852 .878 .883 .898 .845 .865 .880 .882 .880 .898 0.32
R 1.000 .845 .991 .923 .921 .864 1.000 .957 .948 .947 .944 .936 R 1.000 .845 .991 .923 .921 .864 1.000 .957 .948 .947 .944 .936 0.29
F1 .916 .845 .917 .900 .901 .881 .916 .909 .913 .913 .911 .917 F1 .916 .845 .917 .900 .901 .881 .916 .909 .913 .913 .911 .917 0.31
macro-avg P .282 .333 .571 .513 .540 .520 .282 .551 .631 .520 .551 .621 macro-avg P .282 .333 .571 .513 .540 .520 .282 .551 .631 .520 .551 .621 0.30
R .333 .333 .361 .463 .492 .554 .333 .414 .472 .453 .465 .553 R .333 .333 .361 .463 .492 .554 .333 .414 .472 .453 .465 .553 0.32
F1 .305 .333 .360 .479 .510 .534 .305 .431 .504 .454 .488 .580 F1 .305 .333 .360 .479 .510 .534 .305 .431 .504 .454 .488 .580 0.31
IS Cp – .031 .250 .173 .247 .227 – .297 .347 .167 .227 .331 は Cp – .031 .250 .173 .247 .227 – .297 .347 .167 .227 .331 0.49
Cr .000 .045 .005 .091 .163 .269 .000 .024 .023 .001 .039 .197 Cr .000 .045 .005 .091 .163 .269 .000 .024 .023 .001 .039 .197 0.32
Coverage-based Metrics カバレッジに基づくメトリクス 0.57
IE O Cp – .033 .152 .138 .172 .160 – .273 .363 .344 .317 .345 IE お Cp – .033 .152 .138 .172 .160 – .273 .363 .344 .317 .345 0.47
Cr .000 .096 .087 .330 .344 .423 .000 .104 .177 .180 .254 .340 Cr .000 .096 .087 .330 .344 .423 .000 .104 .177 .180 .254 .340 0.32
Cp .619 .386 .632 .557 .578 .503 .619 .639 .646 .663 .649 .664 Cp .619 .386 .632 .557 .578 .503 .619 .639 .646 .663 .649 .664 0.32
Cr .559 .452 .602 .606 .621 .567 .559 .589 .592 .609 .611 .656 Cr .559 .452 .602 .606 .621 .567 .559 .589 .592 .609 .611 .656 0.32
macro-avg Cr Cp .186 .206 .198 .150 .231 .345 .342 .289 .332 .376 .420 .297 .186 .206 .239 .403 .452 .264 .263 .391 .301 .398 .447 .398 macro-avg Cr Cp .186 .206 .198 .150 .231 .345 .342 .289 .332 .376 .420 .297 .186 .206 .239 .403 .452 .264 .263 .391 .301 .398 .447 .398 0.31
Table 2: Post-level and Coverage-based evaluation for each model (first and second highest scores are highlighted). 表2: 各モデルに対するポストレベルおよびカバレッジベースの評価(第1および第2の最高スコアがハイライトされる)。 0.69
Figure 5: Timeline-level Precision Pw and Recall Rw of the best performing models. 図5: タイムラインレベルの精度 Pw と Recall Rw の最高のパフォーマンスモデル。 0.87
peting models in terms of post-level macro-F1. ポストレベルマクロF1におけるペットモデル。 0.63
It provides a 8.6% relative improvement (14% for the IS/IE labels) against the second best performing model (BERT(f)). 第2のベストパフォーマンスモデル(bert(f))に対する8.6%の相対的な改善(is/ieラベルの14%)を提供する。 0.72
Furthermore, it achieves a great balance between precision- and recalloriented timeline-level metrics, being consistently the second-best performing model. さらに、精度とリコール指向のタイムラインレベルのメトリクスのバランスを保ち、一貫して2番目に優れたパフォーマンスモデルとなる。 0.59
This performance is largely attributed to two factors, which are studied further below: このパフォーマンスは、主に以下の2つの要因に起因している。 0.67
(a) the use of the Focal loss on BERT, generating [CLS] representations that are much more focused on the minority classes (IE/IS), and (a)BERTにおけるFocal Lossの使用、マイノリティクラス(IE/IS)にもっと焦点を絞った[CLS]表現の生成、 0.56
(b) its longitudinal aspect. els have been successfully applied to post-level classification tasks in mental health (Sawhney et al , 2020a); however, both EM models achieve low recall (R, Rw) for IE/IS compared to the rest. b) 縦方向の側面 エルは精神保健におけるポストレベル分類タスク(Sawhney et al , 2020a)にうまく適用されているが、どちらのEMモデルもIE/ISのリコール率が低い(R, Rw)。 0.62
For the SCD inspired models, SCD-FP outperforms SCD-OP on most metrics. SCDにインスパイアされたモデルでは、SCD-FPはほとんどのメトリクスでSCD-OPを上回っている。 0.50
This is largely due to the fact that the former uses the previous k=3 posts to predict the next post in a user’s timeline (instead of aligning it based on the previous post only. これは、前者が以前のk=3ポストを使用して、ユーザのタイムラインで次の投稿を予測する(前記事のみに基づいて調整する代わりに)ためである。 0.80
Thus SCD-FP benefits from its longitudinal component – a finding consistent with work in semantic change detection (Tsakalidis and Liakata, 2020). したがって、SCD-FPはその長手成分(セマンティックチェンジ検出(Tsakalidis と Liakata, 2020)の恩恵を受けている。 0.66
Post-level The BERT variants perform better than the rest in all metrics. ポストレベル BERTの変種は、他のすべてのメトリクスよりもパフォーマンスが良い。 0.67
Their coverage metrics though suggest that while they manage to predict better the regions compared to most timeline-level methods (i.e., high Cr), they tend to predict more regions than needed (i.e., low Cp) – partially due to their lack of contextual (temporal-wise) information. 彼らのカバレッジ指標は、ほとんどのタイムラインレベルの手法(例えば、high cr)と比較して、より良い予測を行うことができるが、必要な領域(例えば、low cp)を多く予測する傾向があることを示唆している。 0.63
Finally, as expected, BERT(f) achieves much higher recall for the minority classes (IE/IS), in exchange for a drop in precision compared to BERT(ce) and in recall for the majority class (O). 最後に、BERT(f) は、予想通り、少数クラス (IE/IS) に対して、BERT(ce) と比較して精度の低下と、多数クラス (O) に対するリコールと引き換えに、はるかに高いリコールを達成する。
訳抜け防止モード: 最後に、予想通り、BERT(f ) はマイノリティクラス (IE / IS ) に対してはるかに高いリコールを達成する。 BERT(ce)と比較して精度の低下と引き換えに そして、多数派のクラス (O ) をリコールします。
0.58
Models from Related Tasks EM-DM achieves very high precision (P , Pw) for the minority classes, showing a clear link between the tasks of emotion recognition and detecting changes in a user’s mood – indeed, emotionally informed mod- 関連タスクからのモデルEM-DMは、マイノリティクラスに対して非常に高精度(P, Pw)を実現し、感情認識のタスクとユーザの気分の変化(実際に感情的に通知されたモーメント)の明確なリンクを示す。 0.73
Representation vs Fine-tuning vs Focal Loss While BiLSTM-bert yields the highest macroF1 and the most robust performance across all metrics, it is not clear which of its components contributes the most to our task. Representation vs Fine-tuning vs Focal Loss BiLSTM-bertは、すべてのメトリクスで最高のマクロF1と最も堅牢なパフォーマンスをもたらすが、どのコンポーネントが我々のタスクに最も貢献しているかは明らかではない。 0.69
To answer this, we perform a comparison against the exact same BiLSTM, albeit fed with different input types: これに対応するために、入力タイプが異なるにもかかわらず、全く同じBiLSTMとの比較を行う。 0.79
(a) average word embeddings as in BiLSTM-we, (a) BiLSTM-we のような平均語埋め込み 0.88
(b) Sentence-BERT representations (Reimers and Gurevych, 2019) and (b)文-BERT表現(Reimers and Gurevych, 2019) 0.41
(c) fine-tuned representations from BERT(ce). (c)BERT(ce)からの微調整表現。 0.49
As shown in Table 3, fine-tuning with BERT(ce) outperforms Sentence-BERT representations. 表3に示すように、BERT(ce)による微調整は、Sentence-BERT表現より優れている。 0.53
While the contextual nature of all of the BERT-based models offers a clear improvement over the static word embeddings, it becomes evident that the use of the focal loss during training the initial BERT(f) is vital, offering a relative im- すべてのBERTモデルにおける文脈特性は静的単語埋め込みよりも明らかな改善をもたらすが、初期BERT(f)訓練における焦点損失の使用が不可欠であることは明らかであり、相対的なimを提供する。 0.68
英語(論文から抽出)日本語訳スコア
P Word emb. .589 Sent. 略称はemb。 送った番号は589。 0.40
-BERT .610 .612 BERT(ce) .621 BERT(f) -BERT .610 .612 BERT(ce) .621 BERT(f) 0.45
Post R .488 .535 .518 .553 ポスト r .488 .535 .518 .553 0.66
F1 .508 .546 .554 .580 f1 .508 .546 .554 .580 0.31
Timeline P1 R1 .450 .577 .499 .601 .624 .520 .545 .622 タイムライン P1 R1 .450 .577 .499 .601 .624 .520 .545 .622 0.59
Coverage Cp Cr .282 .412 .333 .428 .378 .434 .447 .398 Cp Cr .282 .412 .333 .428 .378 .434 .447 .398 0.36
Table 3: Macro-avg performance of timeline-level BiLSTM operating on different input representations (see Representation vs Fine-tuning vs Focal Loss in §5.1). 表3: 異なる入力表現で動作しているタイムラインレベルのBiLSTMのマクロアヴグのパフォーマンス(5.1の表現対微細チューニング対フォカルロス参照)。 0.65
Figure 7: Histogram of positive emotion scores in True Positive & False Negative distributions, for the Switch label. 図7:Switchラベルに対するTrue Positive & False Negative分布におけるポジティブ感情スコアのヒストグラム。 0.75
TP FP FN angry .03 .06 .13 TP FP FN angry .03 .06 .13 0.40
joy .76 .60 .44 喜び 76 . 60 . 44 0.67
optim. .14 .19 .18 オプティム .14 .19 .18 0.32
sad. .07 .15 .25 悲しいな .07 .15 .25 0.50
Table 4: Average probability of each emotion per classification case on ‘Switches’ (see Switches in §5.2). 表4:‘switches’における分類ケース毎の感情の平均確率(5.2)。 0.74
5.2 Qualitative Analysis Here we analyse the cases of Switches/Escalations identified or missed by our best performing model (BiLSTM-bert). 5.2 質的分析 ここでは、最高のパフォーマンスモデル(BiLSTM-bert)によって特定または見逃されたスイッチ/エスカレーションのケースを分析する。 0.60
Switches (IS) are the most challenging to identify, largely due to being the smallest class with the lowest inter-annotator agreement. スイッチ (IS) を識別するのが最も難しいのは、アノテーション間の合意が最小のクラスであるためである。 0.72
However, the EM-based models achieve high levels of precision on Switches, even during post-level evaluation (see Table 2). しかし, EMモデルでは, ポストレベル評価においても, スイッチの高精度化を実現している(表2参照)。 0.76
We therefore employ EM-TR (Barbieri et al , 2020), assigning probability scores for anger/joy/optimism/s adness to each post, and use them to characterise the predictions made by BiLSTM-bert. そこで我々は,EM-TR(Barbieri et al , 2020)を用いて,各ポストに怒り/喜び/楽観/楽観の確率スコアを割り当て,BiLSTM-bertによる予測を特徴付ける。 0.66
Fig 7 and Table 4 show that our model predicts more often (in most cases, correctly) a ‘Switch’ when the associated posts express positive emotions (joy/optimism), but misses the vast majority of cases when these emotions are absent. 図7と表4は、関連投稿が肯定的な感情(喜び/楽観主義)を示す場合、我々のモデルはより頻繁に(ほとんどの場合、正しく)「スイッチ」を予測しますが、これらの感情が欠如している場合の大部分を見逃しています。 0.63
The reason for this is that TalkLife users discuss issues around their well-being, with a negative mood prevailing. その理由は、TalkLifeユーザーが自分の幸福に関する問題を議論し、ネガティブなムードが流行しているからだ。 0.58
Therefore, BiLSTM-bert learns that the negative tone forms the users’ baseline and thus deviations from this constitute cases of ‘Switches’ (see example in Table 5). そのため、BiLSTM-bertは、負のトーンがユーザのベースラインを形成することを学び、このことから逸脱が‘スイッチ’のケースを構成する(表5参照)。 0.67
We plan to address this in the future by incorporating transfer learning approaches to our model (Ruder et al , 2019). モデル(ruder et al , 2019)に転送学習のアプローチを組み込むことで、将来的にこれに対処する予定です。 0.72
Escalations (IE) are better captured by our models. エスカレーション(ie)は私たちのモデルによりうまく捉えられます。 0.63
Here we examine more closely the cases of ‘Peaks’ in the escalations (i.e., the posts indicating the most ここでは、エスカレーションにおける‘Peaks’の事例(つまり、最も多くを示す記事)をより詳しく調べる。 0.75
Figure 6: Gains/losses in performance (%) when incorporating a longitudinal component for each model (see Timeline- vs Post-level Modelling in §5.1). 図6: 各モデルに縦長コンポーネントを組み込む際のパフォーマンスの利得/損失(%)(5.1)を参照。
訳抜け防止モード: 図6:パフォーマンスの利益/損失(%) 各モデルに縦成分を組み込む (タイムライン vs post - レベルモデリングは5.1 を参照)。
0.80
provement of 6% in post-level macro-F1 (13.7% for IS/IE). ポストレベルマクロF1の6%の証明(IS/IEの13.7%)。 0.59
Calibrating the parameters in the focal loss could provide further improvements for our task in the future (Mukhoti et al , 2020). 焦点損失のパラメータの校正は,今後の課題にさらなる改善をもたらす可能性がある(Mukhoti et al , 2020)。 0.77
Timeline- vs Post-level Modelling The importance of longitudinal modelling is shown via the difference between the BERT and BiLSTM variants when operating on single posts vs on the timeline-level (e g , see the post-level results of BERT(ce)/Word emb. Timeline- vs Post-level Modelling 単一投稿とタイムラインレベル(例えば、BERT(ce)/Word embのポストレベル結果を参照)で操作する場合、BERTとBiLSTMの変種の違いによって、縦モデリングの重要性が示される。 0.71
in Table 3 vs BERT(ce)/BiLSTM-we in Table 2, respectively). 表3では、bert(ce)とbilstm-weがそれぞれ表2にある。 0.61
We further examine the role of longitudinal modelling in the rest of our best-performing models from Table 2. さらに、表2の他の最高のパフォーマンスモデルにおける縦型モデリングの役割について検討する。 0.77
In particular, we replace the timelinelevel BiLSTM in EM-DM and SCD-FP with a twolayer feed-forward network, operating on post-level input representations – treating each post in isolation. 特に、EM-DMとSCD-FPのタイムラインレベルのBiLSTMを2層フィードフォワードネットワークに置き換え、ポストレベルの入力表現を操作し、各ポストを個別に扱う。
訳抜け防止モード: 特に、EM-DMとSCD-FPのタイムラインレベルBiLSTMを2層フィードフォワードネットワークに置き換える。 ポストレベル入力表現の操作 それぞれのポストを別々に扱います
0.73
The differences across all pairwise combinations with and without the longitudinal component are shown in Fig 6. 図6に、縦成分の有無と横成分とのすべての組み合わせの差異を示す。 0.78
Timeline-level models achieve much higher precision (6.1%/6.9%/11.1% for P /P1/Cp, respectively) in return for a small sacrifice in the timeline-level recall-oriented metrics (-2.8%/1.9%/2.3% for R/R1/Cr), further highlighting the longitudinal nature of the task. タイムラインレベルのモデルは、時間軸レベルのリコール指向の指標(R/R1/Crの-2.8%/1.9%/2.3%)に小さな犠牲を与える代わりに、より高精度(P/P1/Cpの6.1%/6.9%/11.1%)を達成する。 0.63
英語(論文から抽出)日本語訳スコア
Text Oh, forgot :) Stay safe you lovely people all around the world! Text Oh, forget :) 世界中の素敵な人たちを安全に保つこと。 0.87
Hope you are all having a good night! みんなで楽しい夜を過ごせるといいですね。 0.62
Stay safe! :D Don’t wanna deal with anyone. 安全を保て! 誰にも扱いたくありません。 0.58
. Hope school finishes so I can go home soon Tired of my leg hurting so badly today. . 学校が終わるとすぐに家に帰れるので、今日は足が痛くて疲れた。 0.61
I really can’t do any training :( Hope you’re all great! トレーニングは本当にできません。(皆さんがすべて素晴らしいことを願っています! 0.79
<3 Love you all! True Pred. 愛してるよ! 正真正銘。 0.27
O O IS IS O IS IS おおお は oは isは 0.57
O O IS Text When my parents go out, I am gonna cut. お OIS テキスト 両親が外出したとき、私は切るつもりです。 0.53
I feel so horrible. とてもひどい気分です。 0.53
I really don’t want to be here anymore. 私はもうここにいたくない。 0.55
Someone please text me.. 誰か私にメールをください。 0.46
. I swear I am about to harm myself... . 自分に危害を加えると誓う... 0.54
Please, anyone! ’ Had an awesome day with my gf and she tagged me! お願い、誰でも! 私のgfと素晴らしい一日を過ごし、彼女は私をタグ付けした! 0.66
I am not alone! :) Have not cut for the past year!! 一人じゃない! :)過去1年間はカットしていない! 0.65
Yay!! Table 5: Example of a Switch in part of a user’s (paraphrased) timeline, missed by BiLSTM-bert. やった! 表5: ユーザの(言い換えられた)タイムラインの一部にあるスイッチの例。
訳抜け防止モード: やった! 表5 : ユーザの一部におけるスイッチの例 (パラフレーズ) タイムラインは BiLSTM - bert によって見逃された。
0.68
Table 6: Examples of Peaks of Escalations (isolated paraphrased posts) missed by BiLSTM-bert. 表6: BiLSTM-bertが見逃したエスカレーションのピークの例(仮訳記事)。 0.73
6 Conclusion and Future Work 6 結論と今後の課題 0.78
We present a novel longitudinal dataset and associated models for personalised monitoring of a user’s well-being over time based on linguistic online content. 本稿では,言語的オンラインコンテンツに基づくユーザの幸福感の個人化モニタリングのための,新しい時系列データセットと関連モデルを提案する。 0.65
Our dataset contains annotations for: 私たちのデータセットには以下のアノテーションが含まれています。 0.35
(a) sudden shifts in a user’s mood (switches) and (a)ユーザの気分(スイッチ)が突然変化すること、及び 0.73
(b) gradual mood progression (escalations). (b)段階的な気分の進行(エスカレーション) 0.74
Proposed methods are inspired by state-of-the-art contextual models and longitudinal NLP tasks. 提案手法は、最先端の文脈モデルと縦型NLPタスクにインスパイアされている。 0.51
Importantly, we have introduced temporally sensitive evaluation metrics, adapted from the fields of change-point detection and image segmentation. 重要な点は,変化点検出と画像分割の分野から適応した,時間的感度の高い評価指標の導入である。 0.70
Our results highlight the importance of considering the temporal aspect of the task and the rarity of mood changes. 本研究は,タスクの時間的側面と気分変化の希少性を考慮することの重要性を強調する。 0.69
Future work could follow four main directions: 今後の作業は4つの方向をたどることができる。 0.48
(a) integrating longitudinal models of detecting changes, with post-level models for emotion and self-harm detection (see §5.2); (a)感情・自己傷検出のポストレベルモデルによる変化検出の縦型モデルの統合(5.2参照) 0.80
(b) incorporating transfer learning methods (Ruder et al , 2019) to adapt more effectively to unseen users’ timelines; b) 利用者のタイムラインにより効果的に適応するために転送学習手法(Ruder et al , 2019)を取り入れること。 0.76
(c) adjusting our models to learn from multiple (noisy) annotators (Paun and Simpson, 2021) and (c)複数の(ノイズの多い)アノテーションから学ぶためにモデルを調整する(Paun and Simpson, 2021) 0.86
(d) calibrating the parameters of focal loss and testing other loss functions suited to heavily imbalanced classification tasks (Jadon, 2020). (d)高度に不均衡な分類タスクに適した焦点損失のパラメータを調整し、他の損失関数をテストする(jadon, 2020)。 0.77
7 Ethics Statement Ethics institutional review board (IRB) approval was obtained from the corresponding ethics board of the University of Warwick prior to engaging in this research study. 7つの倫理 倫理制度審査委員会(irb)の承認は、この研究に携わる前に、ウォリック大学の対応する倫理委員会から得られた。 0.66
Our work involves ethical considerations around the analysis of user generated content shared on a peer support network (TalkLife). 我々の研究は、ピアサポートネットワーク(TalkLife)上で共有されるユーザ生成コンテンツの分析に関する倫理的考察である。 0.78
A license was obtained to work with the user data from TalkLife and a project proposal was submitted to them in order to embark on the project. TalkLifeからユーザデータを扱うためのライセンスが取得され、プロジェクトを開始するためにプロジェクト提案が提出された。
訳抜け防止モード: talklifeのユーザデータを扱うためのライセンスが取得された そして、プロジェクトを始めるためのプロジェクト提案が彼らに提出された。
0.84
The current paper focuses on the identification of moments of change (MoC) on the basis of content shared by individuals. 本論文は、個人が共有するコンテンツに基づいて、変化の瞬間(MoC)を識別することに焦点を当てている。 0.69
These changes involve recognising sudden shifts in mood (switches or es- これらの変化は、突然の気分の変化(スイッチやエス)を認識することを含む。 0.47
Figure 8: Recall for IE cases per cumulative length of Escalation (see Escalations in §5.2). 図8: エスカレーションの累積長あたりのIEケースをリコールする(図5.2)。 0.67
negative/positive state of the user within an escalation – see §3.3). エスカレーション内のユーザの負の/ポジティブな状態(3.3)を参照。 0.60
As expected, the post-level recall of BiLSTM-bert in these cases is much higher than its recall for the rest of IE cases (.557 vs .408). 予想通り、これらのケースにおけるBiLSTM-bertのポストレベルリコールはIEの他のケース(.557対.408)のリコールよりもはるかに高い。 0.65
In Fig 8 we analyse the recall of our model in capturing posts denoting escalations, in relation to the length of escalations. 図8では、エスカレーションの長さに関連して、エスカレーションを示すポストをキャプチャする上で、モデルのリコールを分析する。 0.54
We can see that our model is more effective in capturing longer escalations. 私たちのモデルは、より長いエスカレーションを捉えるのにより効果的であることが分かります。 0.46
As opposed to the Switch class, we found no important differences in the expressed emotion between TP and FN cases. Switch クラスとは対照的に,TP と FN の表現的感情に有意な差は認められなかった。 0.75
By carefully examining the cases of Peaks in isolation, we found that the majority of them express very negative emotions, very often including indication of self-harm. 孤立したピークのケースを慎重に調べることで、その大多数が非常にネガティブな感情を表現していることが分かりました。 0.60
A Logistic Regression trained on bigrams at the post-level to distinguish between identified vs missed cases of Peaks showed that the most positively correlated features for the identified cases were directly linked to self-harm (e g , “kill myself”, “to die”, “kill me”). ピークの特定例と見逃されたケースを区別するために、bigramsでトレーニングされたロジスティック回帰は、特定されたケースの最も正の相関のある特徴が直接自己傷("kill myself"、"to die"、"kill me"など)に関係していることを示した。 0.65
However, this was not necessarily the case with missed cases. しかし、これは必ずしもケースの欠如によるものではない。 0.63
Nevertheless, there were several cases of self-harm ideation that were missed by BiLSTM-bert, as well as misses due to the model “ignoring” the user’s baseline, as is the case with Switches (see Table 6). それにもかかわらず、bilstm-bertは、スイッチの場合と同様に、ユーザのベースラインを“無視する”モデルのために、セルフハームのイデオロギーを欠いたケースもいくつかあった(表6参照)。 0.63
Transfer learning and domain adaptation strategies as well as self-harm detection models operating at the post level could help in mitigating this problem. トランスファー学習やドメイン適応戦略、ポストレベルでの自己ハート検出モデルなどは、この問題を軽減するのに役立ちます。 0.59
英語(論文から抽出)日本語訳スコア
calations). Annotators were given contracts and paid fairly in line with University payscales. カリオン)。 注釈には契約が与えられ、大学の給与体系とほぼ一致していた。 0.41
They were alerted about potentially encountering disturbing content and were advised to take breaks. 彼らは不穏なコンテンツに遭遇する可能性について警告され、休憩を勧められた。 0.51
The annotations are used to train and evaluate natural language processing models for recognising moments of change as described in our detailed guidelines. これらのアノテーションは、我々の詳細なガイドラインで述べられているように、変化の瞬間を認識する自然言語処理モデルの訓練と評価に使用される。
訳抜け防止モード: アノテーションが使われています 詳細ガイドラインに記載された変更のモーメントを認識するための自然言語処理モデルを訓練し、評価する。
0.70
Working with datasets such as TalkLife and data on online platforms where individuals disclose personal information involves ethical considerations (Mao et al , 2011; Keküllüo˘glu et al , 2020). TalkLifeのようなデータセットや個人が個人情報を開示するオンラインプラットフォーム上のデータを扱うには、倫理的配慮が伴う(Mao et al , 2011; Keküllüo shglu et al , 2020)。
訳抜け防止モード: TalkLifeなどのデータセットと個人が個人情報を開示するオンラインプラットフォーム上のデータを扱う 倫理的配慮(Mao et al, 2011 ; Keküllüo sglu et al, 2020 )。
0.81
Such considerations include careful analysis and data sharing policies to protect sensitive personal information. このような考慮事項には、機密性の高い個人情報を保護するための注意深い分析とデータ共有ポリシーが含まれる。 0.50
The data has been de-identified both at the time of sharing by TalkLife but also by the research team to make sure that no user handles and names are visible. データはTalkLifeによる共有時にも、調査チームによっても特定され、ユーザのハンドルや名前が見えないようにされている。
訳抜け防止モード: データはde - talklifeによって共有されたときの両方で識別される 研究チームによっても ユーザのハンドルや名前が見えないようにする。
0.82
Any examples used in the paper are either paraphrased or artificial. 論文で使用される例は、パラフレーズまたは人工である。 0.77
Potential risks from the application of our work in being able to identify moments of change in individuals’ timelines are akin to those in earlier work on personal event identification from social media and the detection of suicidal ideation. 個人のタイムラインにおける変化の瞬間を特定できる作業の適用による潜在的なリスクは、ソーシャルメディアからの個人的イベント識別や自殺的思考の検出に関する以前の研究と類似している。 0.81
Potential mitigation strategies include restricting access to the code base and annotation labels used for evaluation. 潜在的な緩和戦略には、コードベースへのアクセスと評価に使用されるアノテーションラベルの制限が含まれる。 0.65
Limitations Our work in this paper considers moments of change as changes in an individual’s mood judged on the basis of their self-disclosure of their well-being. 限界 この論文では、変化の瞬間は、幸福の自己開示に基づいて判断される個人の気分の変化であると考えている。 0.64
This is faced by two limiting factors: これは2つの制限要因に直面する。 0.64
(a) users may not be self-disclosing important aspects of their daily lives and (a)利用者は日常生活の重要な側面を自己開示していないかもしれない。 0.56
(b) other types of changes related to their mental health (other than their mood/emotions, such as important life events, symptoms etc.) may be taking place. (b)その他のメンタルヘルスに関連する変化(重要な生活イベント、症状等、気分・感情以外の)がおこなわれることがある。
訳抜け防止モード: (b)その他の精神的健康に関連する変化(気分・感情以外) 重要な生活出来事や症状など)がおこなわれることもある。
0.78
Though our models could be tested in cases of nonself-disclosure (given the appropriate ground truth labels), the analysis and results presented in this work should not be used to infer any conclusion on such cases. 我々のモデルは、非自己開示(適切な根拠となる真理ラベルを付与する)の場合にテストできるが、この研究で提示された分析と結果を用いて、そのような事例の結論を推測するべきではない。 0.64
The same also holds for other types of ‘moments of change’ mentioned in §2 (e g , transition to suicidal thoughts), as well as other types of changes, such as changes in an individual in terms of discussing more about the future, studied in Althoff et al (2016), or changes in their self-focus (Pyszczynski and Greenberg, 1987) over time, which we do not examine in this current work. また、他のタイプの「変化のモーメント」についても同様であり(例えば、自殺思想への移行)、将来についてもっと議論する上で個人の変化、Althoff et al (2016)での研究、時間とともに自己焦点の変化(Pyszzzynski と Greenberg, 1987)など、現在の研究では検証されていない。
訳抜け防止モード: 変更のモーメント(moments of change)”の他のタイプの場合も同様である(例:)。 自殺思考(suicidal thoughts)への移行や、他のタイプの変更。 例えば、将来についてもっと議論する観点で個人の変化などです。 althoff et al (2016) で学んだこと、あるいは自己-焦点の変化 (pyszczynski and greenberg, 1987) 時間とともに、この現在の作業では検討していません。
0.75
Acknowledgements This work was supported by a UKRI/EPSRC Turing AI Fellowship to Maria Liakata (grant EP/V030302/1) and the Alan Turing Institute (grant この研究は、UKRI/EPSRCチューリングAIフェローであるMaria Liakata (grant EP/V030302/1)とAlan Turing Institute (grant)によって支援された。 0.61
EP/N510129/1). EP/N510129/1)。 0.22
The authors would like to thank Dana Atzil-Slonim, Elena Kochkina, the anonymous reviewers and the meta-reviewer for their valuable feedback on our work, as well as the three annotators for their invaluable efforts in generating the longitudinal dataset. 著者は、Dana Atzil-Slonim氏、Elena Kochkina氏、匿名のレビュアー、そしてメタレビュアーに感謝したい。
訳抜け防止モード: 著者はDana Atzil、Slonim、Elena Kochkinaに感謝したい。 匿名のレビュアーとメタ - 作業に対する貴重なフィードバックに対するレビュアー。 長手データセットの生成に 役立った3人のアノテーターも
0.52
References Ryan Prescott Adams and David J. C. MacKay. 参照: Ryan Prescott Adams と David J. C. MacKay 0.90
Bayesian Online Changepoint Detection. bayesian online changepoint detection(英語) 0.68
2007. arXiv:0710.3742 [stat]. 2007. arXiv:0710.3742 [stat] 0.39
ArXiv: 0710.3742. ArXiv:0710.3742。 0.68
James Allan, Jaime G Carbonell, George Doddington, Jonathan Yamron, and Yiming Yang. ジェームズ・アラン、ジェイミー・g・カーボネル、ジョージ・ドディントン、ジョナサン・ヤムロン、イミング・ヤン。 0.56
1998. Topic detection and tracking pilot study final report. 1998. トピック検出・追跡パイロット研究最終報告 0.73
Tim Althoff, Kevin Clark, and Jure Leskovec. ティム・アルソフ、ケビン・クラーク、ジュール・レスコヴェック。 0.45
2016. Large-scale analysis of counseling conversations: An application of natural language processing to mental health. 2016. カウンセリング会話の大規模分析 : 自然言語処理のメンタルヘルスへの応用 0.55
Transactions of the Association for Computational Linguistics, 4:463–476. association for computational linguistics, 4:463–476を参照。 0.73
Pablo Arbelaez, Michael Maire, Charless Fowlkes, and Jitendra Malik. Pablo Arbelaez, Michael Maire, Charless Fowlkes, Jitendra Malik 0.33
2010. Contour detection and IEEE transachierarchical image segmentation. 2010. 輪郭検出とIEEE超階層画像分割 0.51
tions on pattern analysis and machine intelligence, 33(5):898–916. パターン分析とマシンインテリジェンスに関するオプション 33(5):898–916。 0.86
Francesco Barbieri, Jose Camacho-Collados, Luis Espinosa Anke, and Leonardo Neves. Francesco Barbieri、José Camacho-Collados、Luis Espinosa Anke、Leonardo Neves。 0.77
2020. TweetEval: Unified benchmark and comparative evaluation In Findings of the Associfor tweet classification. 2020. tweeteval: associfortweet分類の結果における統一ベンチマークと比較評価。 0.57
ation for Computational Linguistics: EMNLP 2020, pages 1644–1650, Online. 計算言語学のための辞書:EMNLP 2020, page 1644–1650, Online 0.78
Association for Computational Linguistics. Michael Barkham, Wolfgang Lutz, and Louis G Castonguay. 計算言語学会会員。 Michael Barkham、Wolfgang Lutz、Louis G Castonguay。 0.43
2021. Bergin and Garfield’s handbook of psychotherapy and behavior change. 2021. BerginとGarfieldの心理療法と行動変化に関するハンドブック。 0.59
John Wiley & Sons. ジョン・ワイリー&サンズ。 0.62
Adrian Benton, Margaret Mitchell, and Dirk Hovy. エイドリアン・ベントン、マーガレット・ミッチェル、ディルク・ホビー。 0.52
2017. Multitask learning for mental health condiIn Proceedtions with limited social media data. 2017. メンタルヘルスのためのマルチタスク学習 限られたソーシャルメディアデータを用いた手続き 0.54
ings of the 15th Conference of the European Chapter of the Association for Computational Linguistics: Volume 1, Long Papers, pages 152–162, Valencia, Spain. ings of the 15th conference of the european chapter of the association for computational linguistics: volume 1, long papers, pages 152–162, valencia, spain (英語)
訳抜け防止モード: 計算言語学会欧州支部第15回大会報告 : 第1巻 Long Papers, page 152–162 , Valencia, Spain.
0.63
Association for Computational Linguistics. Leo Breiman. 計算言語学会会員。 レオ・ブレマン 0.53
2001. Random forests. 2001. ランダムな森。 0.52
Machine learn- ing, 45(1):5–32. 機械学習 ing, 45(1):5-32。 0.76
Lei Cao, Huijun Zhang, Ling Feng, Zihan Wei, Xin Wang, Ningyun Li, and Xiaohao He. Lei Cao, Huijun Zhang, Ling Feng, Zihan Wei, Xin Wang, Ningyun Li, Xiaohao He 0.36
2019. Latent suicide risk detection on microblog via suicideoriented word embeddings and layered attention. 2019. 自殺指向の単語埋め込みと層状注意によるマイクロブログの潜在自殺リスク検出 0.60
In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pages 1718– 1728, Hong Kong, China. 第9回自然言語処理国際共同会議(emnlp-ijcnlp)は、2019年の自然言語処理における経験的手法に関する会議である。
訳抜け防止モード: 自然言語処理における経験的手法に関する2019年会議のまとめ 第9回国際自然言語処理国際会議(EMNLP - IJCNLP)に参加して 1718年 - 1728年、香港、中国。
0.79
Association for Computational Linguistics. 計算言語学会会員。 0.52
英語(論文から抽出)日本語訳スコア
Stevie Chancellor and Munmun De Choudhury. ステヴィ・ド・チョーザリー(Munmun de Choudhury)。 0.40
2020. Methods in predictive techniques for mental health status on social media: a critical review. 2020. ソーシャルメディアにおけるメンタルヘルス状態予測手法に関する批判的考察 0.52
NPJ digital medicine, 3(1):1–11. NPJデジタルメディカル 3(1):1-11。 0.80
Arman Cohan, Bart Desmet, Andrew Yates, Luca Soldaini, Sean MacAvaney, and Nazli Goharian. Arman Cohan, Bart Desmet, Andrew Yates, Luca Soldaini, Sean MacAvaney, Nazli Goharian。 0.37
2018. SMHD: a large-scale resource for exploring online language usage for multiple mental health conditions. 2018. smhd: 複数の精神疾患に対するオンライン言語の使用を探求するための大規模リソース。 0.57
In Proceedings of the 27th International Conference on Computational Linguistics, pages 1485– 1497, Santa Fe, New Mexico, USA. 第27回計算言語学国際会議(27th International Conference on Computational Linguistics, 1485–1497)は、アメリカ合衆国ニューメキシコ州サンタフェにある。 0.72
Association for Computational Linguistics. Glen Coppersmith, Mark Dredze, and Craig Harman. 計算言語学会会員。 グレン・コッパースミス、マーク・ドレッゼ、クレイグ・ハーマン。 0.52
2014. Quantifying mental health signals in twitter. 2014. twitterでのメンタルヘルスシグナルの定量化。 0.49
In Proceedings of the workshop on computational linguistics and clinical psychology: From linguistic signal to clinical reality, pages 51–60. Proceedings of the Workshop on Computer Languages and Clinical Psycho: from Language signal to clinical reality, page 51–60。
訳抜け防止モード: 計算言語学・臨床心理学ワークショップの開催にあたって : 言語信号から臨床現実へ 51-60頁。
0.71
Munmun De Choudhury, Michael Gamon, Scott Counts, and Eric Horvitz. Munmun De Choudhury、Michael Gamon、Scott Counts、Eric Horvitz。 0.36
2013. Predicting depression via social media. 2013. ソーシャルメディアによる抑うつ予測。 0.56
In Proceedings of the International AAAI Conference on Web and Social Media, volume 7. The International AAAI Conference on Web and Social Media, Volume 7 (英語) 0.35
Munmun De Choudhury, Emre Kiciman, Mark Dredze, Glen Coppersmith, and Mrinal Kumar. Munmun de Choudhury, Emre Kiciman, Mark Dredze, Glen Coppersmith, Mrinal Kumar 0.35
2016. Discovering Shifts to Suicidal Ideation from Mental In Proceedings Health Content in Social Media. 2016. ソーシャル・メディアにおけるメンタル・イン・プロセッシングによる自殺観念への転換 0.46
of the 2016 CHI Conference on Human Factors in Computing Systems, pages 2098–2110, San Jose California USA. 2016 CHI Conference on Human Factors in Computing Systems, page 2098–2110, San Jose California USA
訳抜け防止モード: 2016 chi conference on human factors in computing systems" に参加して 2098-2110頁、カリフォルニア州サンノゼ。
0.83
ACM. Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. acm。 Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova 0.50
2019. BERT: Pre-training of deep bidirectional transformers for language underIn Proceedings of the 2019 Conference standing. 2019. BERT: 2019年開催のProceedings of the 2019 Conferenceにおいて、言語の下での双方向トランスフォーマーの事前トレーニング。 0.50
of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pages 4171–4186, Minneapolis, Minnesota. The North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), page 4171–4186, Minneapolis, Minnesota.
訳抜け防止モード: 計算言語学会北米支部の紹介 : 人間言語技術 第1巻(長編・短編)、4171-4186頁、ミネソタ州ミネアポリス。
0.56
Association for Computational Linguistics. Alvan R Feinstein and Domenic V Cicchetti. 計算言語学会会員。 alvan r feinstein と domenic v cicchetti。 0.55
1990. High agreement but low kappa: I. the problems of Journal of clinical epidemiology, two paradoxes. 1990. 高一致だが低いカッパ:I.Journal of Clinical Epidemiology, two paradoxesの問題点 0.57
43(6):543–549. 43(6):543–549. 0.41
Bjarke Felbo, Alan Mislove, Anders Søgaard, Iyad Rahwan, and Sune Lehmann. Bjarke Felbo、Alan Mislove、Anders Søgaard、Iyad Rahwan、Sune Lehmann。 0.34
2017. Using millions of emoji occurrences to learn any-domain representations for detecting sentiment, emotion and sarcasm. 2017. 何百万もの絵文字を使って、感情、感情、皮肉を検出するドメイン表現を学ぶ。 0.49
In Conference on Empirical Methods in Natural Language Processing (EMNLP). 自然言語処理における経験的手法に関する国際会議 (emnlp) に出席した。 0.52
Sharath Chandra Guntuku, H Andrew Schwartz, Adarsh Kashyap, Jessica S Gaulton, Daniel C Stokes, David A Asch, Lyle H Ungar, and Raina M Merchant. Sharath Chandra Guntuku, H Andrew Schwartz, Adarsh Kashyap, Jessica S Gaulton, Daniel C Stokes, David Asch, Lyle H Ungar, Raina M Merchant
訳抜け防止モード: Sharath Chandra Guntuku, H Andrew Schwartz, Adarsh Kashyap, Jessica S Gaulton Daniel C Stokes, David A Asch, Lyle H Ungar そしてレイナ・M・マーチャント。
0.80
2020. Variability in language used on social media prior to hospital visits. 2020. 病院訪問前にソーシャルメディアで使用される言語の変化。 0.61
Scientific reports, 10(1):1–9. 科学的報告 10(1):1–9。 0.80
William L Hamilton, Jure Leskovec, and Dan Jurafsky. ウィリアム・l・ハミルトン、ジュール・レスコヴェック、ダン・ジュラフスキー。 0.43
2016. Diachronic word embeddings reveal statistical laws of semantic change. 2016. ダイアクロニックな単語埋め込みは意味変化の統計的法則を明らかにする。 0.49
In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 1489–1501. 訴訟の手続において 第54回計算言語学会年次総会(第1巻:長い論文)、1489-1501頁。 0.54
Zhiheng Huang, Wei Xu, and Kai Yu. Zhiheng Huang、Wei Xu、Kai Yu。 0.31
2015. Bidirectional lstm-crf models for sequence tagging. 2015. シーケンスタグ付けのための双方向lstm-crfモデル 0.46
arXiv preprint arXiv:1508.01991. arXiv preprint arXiv:1508.0 1991 0.31
Ahmed Husseini Orabi, Prasadith Buddhitha, Mahmoud Husseini Orabi, and Diana Inkpen. Ahmed Husseini Orabi, Prasadith Buddhitha, Mahmoud Husseini Orabi, Diana Inkpen 0.33
2018. Deep learning for depression detection of Twitter In Proceedings of the Fifth Workshop on users. 2018. Twitterの抑うつ検出のためのディープラーニング 第5回ワークショップの成果 0.47
Computational Linguistics and Clinical Psychology: From Keyboard to Clinic, pages 88–97, New Orleans, LA. 計算言語学と臨床心理学:キーボードからクリニックへ、88-97頁、ニューオーリンズ、ロサンゼルス。 0.80
Association for Computational Linguistics. Shruti Jadon. 計算言語学会会員。 シュルティ・ジャドン(Sruti Jadon)。 0.47
2020. A survey of loss functions for semantic segmentation. 2020. 意味的セグメンテーションのための損失関数の探索 0.60
In 2020 IEEE Conference on Computational Intelligence in Bioinformatics and Computational Biology (CIBCB), pages 1–7. 2020年、IEEE Conference on Computational Intelligence in Bioinformatics and Computational Biology (CIBCB) 1-7頁。 0.40
IEEE. Zhengping Jiang, Sarah Ita Levitan, Jonathan Zomick, and Julia Hirschberg. IEEE。 Zhengping Jiang、Sarah Ita Levitan、Jonathan Zomick、Julia Hirschberg。 0.54
2020. Detection of mental health from reddit via deep contextualized representations. 2020. 深い文脈化表現によるredditからのメンタルヘルスの検出。 0.52
In LOUHI@EMNLP. LOUHI@EMNLP。 0.57
Dilara Keküllüo˘glu, Walid Magdy, and Kami Vaniea. ディララ・ケキュリュオ(dilara keküllüo)、ワリド・マグディ(walid magdy)、カミ・バニヤ(kami vaniea)。 0.31
2020. Analysing privacy leakage of life events on twitter. 2020. Twitter上のライフイベントのプライバシー漏洩の分析。 0.62
In Proceedings of the 12th ACM Conference on Web Science. 第12回ACMウェブサイエンス会議に参加して 0.64
Diederik P. Kingma and Jimmy Ba. ディデリック・P・キングマとジミー・バ 0.45
2015. Adam: A In 3rd Intermethod for stochastic optimization. 2015. adam: 確率最適化のための第3のインターメソッド。 0.54
national Conference on Learning Representations, ICLR 2015, San Diego, CA, USA, May 7-9, 2015, Conference Track Proceedings. national conference on learning representations, iclr 2015, san diego, ca, usa, may 7-9, 2015 conference track proceedings (英語)
訳抜け防止モード: ICLR 2015, San Diego, CA, USA, International Conference on Learning Representations に参加して 2015年5月7日~9日, Conference Track Proceedings。
0.81
Rohan Kshirsagar, Robert W Morris, and Samuel Bowman. ロハン・シャーサガー、ロバート・w・モリス、サミュエル・ボウマン。 0.53
2017. Detecting and explaining crisis. 2017. 危機の検出と説明。 0.64
In Proceedings of the Fourth Workshop on Computational Linguistics and Clinical Psychology—From Linguistic Signal to Clinical Reality, pages 66–73. 第4回計算言語学・臨床心理学ワークショップ報告 : From Linguistic Signal to Clinical Reality, page 66–73。 0.79
Tsung-Yi Lin, Priya Goyal, Ross Girshick, Kaiming He, and Piotr Dollár. Tsung-Yi Lin, Priya Goyal, Ross Girshick, Kaiming He, Piotr Dollár 0.38
2017. Focal loss for dense object detection. 2017. 密度物体検出のための焦点損失 0.61
In Proceedings of the IEEE international conference on computer vision, pages 2980– 2988. IEEEのコンピュータビジョン国際会議Proceedings of the IEEE International Conference on Computer Vision, page 2980–2988。 0.75
David E Losada, Fabio Crestani, and Javier Parapar. David E Losada、Fabio Crestani、Javier Parapar。 0.65
2020. Overview of erisk at clef 2020: Early risk prediction on the internet (extended overview). 2020. clef 2020: 早期のインターネット上のリスク予測(拡張概要) 0.47
Wolfgang Lutz, Torsten Ehrlich, Julian A. Rubel, Nora Hallwachs, Marie-Anna Röttger, Christine Jorasz, Sarah Mocanu, Silja Vocks, Dietmar Schulte, and Armita Tschitsaz-Stucki. Wolfgang Lutz, Torsten Ehrlich, Julian A. Rubel, Nora Hallwachs, Marie-Anna Röttger, Christine Jorasz, Sarah Mocanu, Silja Vocks, Dietmar Schulte, Armita Tschitsaz-Stucki
訳抜け防止モード: Wolfgang Lutz, Torsten Ehrlich, Julian A. Rubel, Nora Hallwachs Marie - Anna Röttger, Christine Jorasz, Sarah Mocanu, Silja Vocks シュルテ・シュルテとアルミータ・ツィッツ - シュタッキー。
0.80
2013. The ups and downs of psychotherapy: Sudden gains and sudden losses identified with session reports. 2013. 精神療法のアップアンドダウン:突然の上昇とセッション報告による突然の損失。 0.53
Psychotherapy Research, 23:14 – 24. 精神療法研究、23:14 - 24。 0.34
Veronica Lynn, Alissa Goodman, Kate Niederhoffer, Kate Loveys, Philip Resnik, and H Andrew Schwartz. Veronica Lynn、Alissa Goodman、Kate Niederhoffer、Kate Loveys、Philip Resnik、H Andrew Schwartz。 0.35
2018. Clpsych 2018 shared task: Predicting current and future psychological health from 2018. clpsych 2018 shared task: predicting current and future psychological health from from 0.43
英語(論文から抽出)日本語訳スコア
childhood essays. In Proceedings of the Fifth Workshop on Computational Linguistics and Clinical Psychology: From Keyboard to Clinic, pages 37–46. 子供時代のエッセイ 第5回計算言語学と臨床心理学に関するワークショップ:キーボードからクリニックまで、37-46頁。 0.67
Nils Reimers and Iryna Gurevych. Nils ReimersとIryna Gurevych。 0.81
2019. Sentencebert: Sentence embeddings using siamese bertnetworks. 2019. sentencebert: siamese bertnetworksを使った文埋め込み。 0.61
Huina Mao, Xin Shuai, and Apu Kapadia. ウイナ・マオ、シン・シュアイ、アプ・カパディア。 0.33
2011. Loose tweets: An analysis of privacy leaks on twitter. 2011. loose tweets: twitter上のプライバシーリークの分析。 0.59
WPES ’11, page 1–12, New York, NY, USA. wpes ’11, page 1–12, new york, ny, usa. (英語) 0.67
Association for Computing Machinery. アソシエーション・フォー・コンピューティング・マシンズ(Association for Computing Machinery)の略。 0.36
Rohan Mishra, Pradyumn Prakhar Sinha, Ramit Sawhney, Debanjan Mahata, Puneet Mathur, and Rajiv Ratn Shah. Rohan Mishra, Pradyumn Prakhar Sinha, Ramit Sawhney, Debanjan Mahata, Puneet Mathur, Rajiv Ratn Shah
訳抜け防止モード: rohan mishra, pradyumn prakhar sinha, ramit sawhney, debanjan mahata, プニエト・マトゥールとラジヴ・ラテン・シャー。
0.48
2019. SNAP-BATNET: Cascading Author Profiling and Social Network Graphs for SuiIn Procide Ideation Detection on Social Media. 2019. snap-batnet: ソーシャルメディア上でのsuin procideのイデオレーション検出のための著者プロファイルとソーシャルネットワークグラフをカスケードする。 0.50
ceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Student Research Workshop, pages 147– 156, Minneapolis, Minnesota. 2019年北米計算言語学会北米支部大会 学生研究ワークショップ 147-156ページ、ミネソタ州ミネアポリス。 0.39
Association for Computational Linguistics. Jishnu Mukhoti, Viveka Kulharia, Amartya Sanyal, Stuart Golodetz, Philip Torr, and Puneet Dokania. 計算言語学会会員。 jishnu mukhoti, viveka kulharia, amartya sanyal, stuart golodetz, philip torr, そしてpueet dokania。 0.53
2020. Calibrating deep neural networks using focal loss. 2020. 焦点損失を用いたディープニューラルネットワークの校正 0.57
Advances in Neural Information Processing Systems, 33. 神経情報処理システムの進歩33。 0.59
Martha Neary and Stephen M Schueller. Martha NearyとStephen M Schueller。 0.40
2018. State of the field of mental health apps. 2018. メンタルヘルスアプリの分野の現状。 0.46
Cognitive and Behavioral Practice, 25(4):531–537. 認知と行動の実践 25(4):531-537。 0.77
Alexandra Olteanu, Carlos Castillo, Fernando Diaz, and Emre Kıcıman. アレクサンドラ・オルテアヌ、カルロス・カスティーリョ、フェルナンド・ディアス、エミール・クルマン。 0.56
2019. Social data: Biases, methodological pitfalls, and ethical boundaries. 2019. 社会データ:バイアス、方法論的落とし穴、倫理的境界。 0.56
Frontiers in Big Data, 2:13. ビッグデータのフロンティア、2:13。 0.75
Javier Parapar, Patricia Martín-Rodilla, David E Losada, and Fabio Crestani. Javier Parapar、Patricia Martín-Rodilla、David E Losada、Fabio Crestani。 0.80
2021. Overview of erisk at clef 2021: Early risk prediction on the internet (extended overview). 2021. eriskの概要 clef 2021: early risk prediction on the internet (extended overview) 0.39
Silviu Paun and Edwin Simpson. シルヴィウ・パウンとエドウィン・シンプソン。 0.49
2021. Aggregating and learning from multiple annotators. 2021. 複数のアノテーションからの集約と学習。 0.56
In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Tutorial Abstracts, pages 6–9. The 16th Conference of the European Chapter of the Association for Computational Linguistics: Tutorial Abstracts, pages 6–9。 0.40
Saša Petrovi´c, Miles Osborne, and Victor Lavrenko. サシャ・ペトロヴィ(Saša Petrovi)、マイルズ・オズボーン(Miles Osborne)、ヴィクター・ラヴレンコ(Victor Lavrenko)。 0.37
2010. Streaming first story detection with applicaIn Human language technologies: tion to twitter. 2010. Applicaを使ったファーストストーリー検出のストリーミング 人間の言語技術: オプションからTwitter。 0.58
The 2010 annual conference of the north american chapter of the association for computational linguistics, pages 181–189. 2010年の北米計算言語学会の年次会議、181-189頁。 0.48
Yada Pruksachatkun, Sachin R. Pendse, and Amit Sharma. ヤダ・プルクサチャット君 サチン・r・ペンセスと アミット・シャーマ 0.38
2019. Moments of change: Analyzing peerbased cognitive support in online mental health forums. 2019. moments of change: オンラインメンタルヘルスフォーラムにおけるピアベース認知サポートの分析。 0.56
In Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems, CHI ’19, page 1–13, New York, NY, USA. 2019 CHI Conference on Human Factors in Computing Systems, CHI ’19, page 1–13, New York, NY, USA に参加して
訳抜け防止モード: 2019 chi conference on human factors in computing systemsの開催にあたって 19ページ、1-13ページ、ニューヨーク、ニューヨーク。
0.62
Association for Computing Machinery. アソシエーション・フォー・コンピューティング・マシンズ(Association for Computing Machinery)の略。 0.36
Tom Pyszczynski and Jeff Greenberg. tom pyszczynski と jeff greenberg。 0.70
1987. Selfregulatory perseveration and the depressive selffocusing style: a self-awareness theory of reactive depression. 1987. 自己調節的忍耐と抑うつ的自己集中スタイル:反応性うつ病の自己認識理論 0.60
Psychological bulletin, 102(1):122. 心理学誌 102(1):122。 0.77
Sebastian Ruder, Matthew E Peters, セバスチャン・ルーダー マシュー・e・ピーターズ 0.53
Swabha TransSwayamdipta, and Thomas Wolf. Swabha TransSwayamdiptaとThomas Wolf。 0.68
2019. fer learning in natural language processing. 2019. 自然言語処理におけるフェル学習。 0.57
In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Tutorials, pages 15–18. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Tutorials, page 15–18。 0.44
Koustuv Saha and Amit Sharma. Koustuv SahaとAmit Sharma。 0.38
2020. Causal factors of effective psychosocial outcomes in online mental health communities. 2020. オンラインメンタルヘルスコミュニティにおける効果的な心理社会的成果の因果要因 0.61
In Proceedings of the International AAAI Conference on Web and Social Media, volume 14, pages 590–601. The International AAAI Conference on Web and Social Media』第14巻590-601頁。
訳抜け防止モード: International AAAI Conference on Web and Social Media に参加して 巻14、590-601頁。
0.76
Ramit Sawhney, Shivam Agarwal, Arnav Wadhwa, and Rajiv Ratn Shah. Ramit Sawhney, Shivam Agarwal, Arnav Wadhwa, Rajiv Ratn Shah 0.32
2020a. Deep attentive learning for stock movement prediction from social media text In Proceedings of the and company correlations. 2020年。 企業相関手続きにおけるソーシャルメディアテキストからの株価変動予測のための深い注意学習 0.72
2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pages 8415–8426, Online. 2020 conference on empirical methods in natural language processing (emnlp), pages 8415–8426, online (英語) 0.43
Association for Computational Linguistics. Ramit Sawhney, Harshit Joshi, Lucie Flek, and Rajiv Shah. 計算言語学会会員。 Ramit Sawhney, Harshit Joshi, Lucie Flek, Rajiv Shah 0.42
2021. Phase: Learning emotional phaseaware representations for suicide ideation detection In Proceedings of the 16th Conon social media. 2021. フェーズ: 自殺思考検出のための感情的位相認識表現の学習 : 第16回コノンソーシャルメディアの事例から 0.60
ference of the European Chapter of the Association for Computational Linguistics: Main Volume, pages 2415–2428. the association for computational linguistics: main volume, pp. 2415–2428 を参照。 0.59
Ramit Sawhney, Harshit Joshi, Saumya Gandhi, and Rajiv Ratn Shah. Ramit Sawhney, Harshit Joshi, Saumya Gandhi, Rajiv Ratn Shah 0.32
2020b. A time-aware transformer based model for suicide ideation detection on social In Proceedings of the 2020 Conference on media. 2020年。 2020年メディア会議議事録における社会における自殺イデオレーション検出のためのタイムアウェアトランスフォーマティブモデル 0.73
Empirical Methods in Natural Language Processing (EMNLP), pages 7685–7697, Online. 自然言語処理における経験的手法(emnlp)、7685-7697ページ、オンライン。 0.63
Association for Computational Linguistics. Peter H Schönemann. 計算言語学会会員。 ピーター・h・シェーネマン。 0.55
1966. A generalized solution of the orthogonal procrustes problem. 1966. 直交procrustes問題の一般化解。 0.45
Psychometrika, 31(1):1–10. サイコメトリカ、31(1):1–10。 0.60
Jonathan G. Shalom and Idan M. Aderka. ジョナサン・G・シャロムとイダン・M・アデルカ。 0.34
2020. A meta-analysis of sudden gains in psychotherapy: Outcome and moderators. 2020. 精神療法における突然の利得のメタアナリシス:結果とモデレーター 0.59
Clinical Psychology Review, 76:101827. 臨床心理学、76:101827。 0.79
Ashish Sharma, Adam Miner, David Atkins, and Tim Althoff. ashish sharma氏、adam miner氏、david atkins氏、tim althoff氏。 0.54
2020. A computational approach to understanding empathy expressed in text-based mental health support. 2020. テキストベースのメンタルヘルスサポートで表現される共感を理解するための計算的アプローチ 0.55
In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pages 5263–5276. 自然言語処理における経験的手法に関する2020年会議(emnlp)の議事録では、5263-5276ページが挙げられている。
訳抜け防止モード: 自然言語処理における経験的手法に関する2020年会議(EMNLP)の開催報告 5263-5276頁。
0.71
Han-Chin Shing, Philip Resnik, and Douglas Oard. ハンチン・シン、フィリップ・レスニク、ダグラス・オールド。 0.42
2020. A prioritization model for suicidality risk assessment. 2020. 自殺リスク評価のための優先順位付けモデル 0.62
In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pages 8124–8137, Online. 第58回計算言語学会年次総会の議事録では、8124-8137ページがオンラインで公開されている。 0.50
Association for Computational Linguistics. 計算言語学会会員。 0.52
英語(論文から抽出)日本語訳スコア
Adam Tsakalidis and Maria Liakata. アダム・ツァカリディスとマリア・リアカタ 0.44
2020. Sequential modelling of the evolution of word representations for semantic change detection. 2020. 意味変化検出のための単語表現の進化の逐次モデリング 0.57
In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pages 8485–8497, Online. 自然言語処理における経験的手法に関する2020年会議(emnlp)の議事録では、8485-8497ページがオンラインで公開されている。
訳抜け防止モード: 自然言語処理における経験的手法に関する2020年会議(EMNLP)の開催報告 8485-8497頁。
0.71
Association for Computational Linguistics. Adam Tsakalidis, Maria Liakata, Theo Damoulas, and Alexandra I Cristea. 計算言語学会会員。 アダム・ツァカリディス、マリア・リアカタ、テオ・ダモラス、アレクサンドラ・イ・クリステア。 0.52
2018. Can we assess mental health through social media and smart devices? 2018. ソーシャルメディアとスマートデバイスによるメンタルヘルスの評価は可能か? 0.60
addressing bias in methodology and evaluation. 方法論と評価のバイアスに対処する。 0.63
In Joint European Conference on Machine Learning and Knowledge Discovery in Databases, pages 407– 423. データベースにおける機械学習と知識発見に関する欧州合同会議では、407-423ページ。 0.80
Springer. Gerrit JJ van den Burg and Christopher KI Williams. Springer Gerrit JJ van den BurgとChristopher KI Williams。 0.33
2020. An evaluation of change point detection algorithms. 2020. 変化点検出アルゴリズムの評価 0.50
arXiv preprint arXiv:2003.06222. arXiv preprint arXiv:2003.06222 0.36
Sumithra Velupillai, Hanna Suominen, Maria Liakata, Angus Roberts, Anoop D Shah, Katherine Morley, David Osborn, Joseph Hayes, Robert Stewart, Johnny Downs, et al 2018. sumithra velupillai、hanna suominen、maria liakata、angus roberts、anoop d shah、katherine morley、david osborn、joseph hayes、robert stewart、johnny downsなど。
訳抜け防止モード: sumithra velupillai, hanna suominen, maria liakata, angus roberts アヌープ・d・シャー、キャサリン・モーリー、デヴィッド・オズボーン、ジョセフ・ヘイズ ロバート・スチュワート(robert stewart)、ジョニー・ダウンズ(johnny downs)など。
0.62
Using clinical natural language processing for health outcomes research: overview and actionable suggestions for future advances. 臨床自然言語処理を健康結果研究に活用する: 今後の進歩に向けての概観と実行可能な提案 0.73
Journal of biomedical informatics, 88:11– 19. Journal of Biomedical informatics, 88:11–19。 0.43
David Wadden, Tal August, Qisheng Li, and Tim Althoff. david wadden氏、tal august氏、qisheng li氏、tim althoff氏。 0.62
2021. The effect of moderation on online mental health conversations. 2021. モデレーションがオンラインメンタルヘルス会話に及ぼす影響 0.51
In Proceedings of the International AAAI Conference on Web and Social Media, volume 15, pages 751–763. The International AAAI Conference on Web and Social Media』第15巻751-763頁。
訳抜け防止モード: International AAAI Conference on Web and Social Media に参加して 第15巻751-763頁。
0.76
The World Health Organization. 世界保健機関(who)。 0.64
2019. The WHO special initiative for mental health (2019-2023): Universal health coverage for mental health. 2019. the who special initiative for mental health (2019-2023): メンタルヘルスのためのユニバーサルヘルスカバー。 0.61
Andrew Yates, Arman Cohan, and Nazli Goharian. アンドリュー・イェーツ アーマン・コーハン ナズリ・ゴハーリアン 0.29
2017. Depression and self-harm risk assessment in online forums. 2017. オンラインフォーラムにおける抑うつと自傷リスク評価 0.56
In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pages 2968–2978, Copenhagen, Denmark. 2017年の自然言語処理における経験的手法に関する会議の議題2968-2978ページ(デンマーク、コペンハーゲン)。
訳抜け防止モード: 自然言語処理における経験的手法に関する2017年会議のまとめ 2968-2978頁、デンマークのコペンハーゲン。
0.79
Association for Computational Linguistics. Ioannis Zachos. 計算言語学会会員。 イオアニス・ザチョス(Ioannis Zachos)。 0.50
2018. Bayesian on-line change-point detection: Spatio-temporal point processes. 2018. ベイジアンオンライン変化点検出:時空間的変化点過程。 0.51
Bachelor’s thesis, University of Warwick. ウォーリック大学の学士論文。 0.32
Ayah Zirikly, Philip Resnik, Ozlem Uzuner, and Kristy Hollingshead. Ayah Zirikly、Philip Resnik、Ozlem Uzuner、Kristy Hollingshead。 0.64
2019. Clpsych 2019 shared task: Predicting the degree of suicide risk in reddit posts. 2019. Clpsych 2019の共有タスク: 再投稿における自殺リスクの程度を予測する。 0.58
In Proceedings of the sixth workshop on computational linguistics and clinical psychology, pages 24–33. 第6回計算言語学・臨床心理学研究会第24-33頁。 0.65
A Hyperparameters Here we provide details on the hyperparameters used by each of our models, presented in §4.2: ハイパーパラメータ ここでは、各モデルで使用されるハイパーパラメータの詳細を4.2で示します。 0.68
• RF: Number of trees: [50, 100, 250, 500] •RF:木数:[50,100,250,500] 0.34
• BiLSTM-we: •BiLSTM-we 0.40
([64,128,256] units), ([64,128,256]) 0.42
Two hidden layers each followed by 二 隠された それぞれの層が続き 0.53
a drop-out layer (rate: [.25, .5, .75]) and a final dense layer for the prediction. ドロップアウト層(レート: [.25, .5, .75])と、予測のための最終的な濃密層。 0.76
Trained for 100 epochs (early stopping if no improvement on 5 consecutive epochs) using Adam optimizer (lr: [0.001, 0.0001]) optimzing the Cross-Entropy loss with batches of size [128, 256], limited to modelling the first 35 words of each post. Adam Optimizationr (lr: [0.001, 0.0001])を使用して100エポック(5連続エポックを改善せずに停止する)でトレーニングされ、各ポストの最初の35ワードをモデル化するに限られるサイズ(128, 256)のバッチでクロスエントロピー損失を最適化した。 0.72
• BiLSTM-bert: •BiLSTM-bert 0.40
Two hidden layers ([64,128,256] and [124] units, respectively), each followed by a drop-out layer (rate: [.25, .5, .75]) and a final dense layer on each timestep for the prediction. 二 隠された 各々の層([64,128,256]および[124]ユニット)は、予測のための各タイムステップにそれぞれドロップアウト層(レート: [.25, .5, .75])と最終密層が続く。 0.56
Trained for 100 epochs (early stopping if no improvement on 5 consecutive epochs) using Adam optimizer (Kingma and Ba, 2015) (lr: [0.001, 0.0001]) optimizing the Cross-Entropy loss with batches of size [16, 32, 64]. Adam Optimizationr (Kingma and Ba, 2015) (lr: [0.001, 0.0001]) を使用して、100エポック(5連続エポックの早期停止)でトレーニングされ、サイズ [16, 32, 64] のバッチでクロスエントロピー損失を最適化する。 0.80
• EM-DM & EM-TR: Same architecture as BiLSTM-bert, albeit operating on the EM-DM’s (EM-TR’s) output. EM-DM & EM-TR: BiLSTM-bertと同じアーキテクチャで、EM-DM(EM-TR)出力で動作する。 0.78
• FSD: Same architecture as BiLSTM-bert. • FSD: BiLSTM-bertと同じアーキテクチャ。 0.82
For the FSD part, we experimented with word embeddings4 and representations from Sentence-BERT. FSDでは単語埋め込み4とSentence-BERTの表現を実験した。 0.73
We extract features either by considering the nearest neighbor or by considering the centroid, on the basis of the previous [1,2,...,10] posts, as well as on the basis of the complete timeline preceding the current post (11 features, overall). 我々は,前 [1,2,...,10] 投稿に基づいて,最寄りの近傍を考慮し,あるいはセントロイドを考慮して特徴を抽出するとともに,現在の投稿に先立つ完全なタイムライン(全体11 特徴)に基づいて特徴を抽出する。 0.76
The two versions (nearest neighbor, centroid) were run independently from each other. 2つのバージョン(nearrest neighbor、centroid)は独立して運用された。 0.72
• SCD-OP & SCD-FP: We experimented with average post-level word embeddings and representations from Sentence-BERT (results are reported for the latter, as it performed better). • SCD-OPとSCD-FP: Sentence-BERTからの平均的な単語埋め込みと表現を実験した。
訳抜け防止モード: • SCD - OP & SCD - FP : 平均ポストレベル単語埋め込み実験 と、Sentence - BERT からの表現。 結果は後者に対して報告され、より良い結果が得られた。
0.58
For SCD-FP, we stacked two BiLSTM layers (128 units each), each followed by a dropout (rate: 0.25), and a final dense layer for the prediction, with its size being the same as the desired output size (300 for the case of word embeddings, 768 for Sentence-BERT). scd-fpでは2つのbilstm層(128ユニット)を積み重ね、それぞれにドロップアウト(0.25)と最終的な密集層を積み重ねて予測を行い、そのサイズは所望の出力サイズと同じであった(単語埋め込みの場合300、文-bertでは768)。 0.70
We train in batches of 64, optimising the cosine similarity via the Adam Optimizer with a learning rate of .0001, and employing an early 私たちは64のバッチでトレーニングし、Adam Optimizerを介してコサイン類似性を最適化し、学習率.0001で、早期に採用します。 0.67
4en-core-web-lg 4en-core-web-lg 0.13
@ https://github.com/ @ https://github.com/ 0.34
explosion/spacy-mode ls/releases/ download/en_core_web _lg-3.0.0/en_core_ web_lg-3.0.0-py3-non e-any.whl explosion/spacy-mode ls/releases/ download/en_core_web _lg-3.0.0/en_core_we b_lg-3.0.0-py3-none- any.whl 0.05
英語(論文から抽出)日本語訳スコア
stopping criterion (5 epochs patience). 基準 (5 epochs patience) を止めること。 0.77
The final model (i.e., after the SCD part) follows the exact same specifications as BiLSTM-bert, operating on the outputs from the SCD components. 最終モデル(つまり、SCDの後)は、BLSTM-bertと全く同じ仕様に従っており、SCDコンポーネントからの出力で動作する。 0.71
• BERT(ce) & BERT(f): We used BERTbase (uncased) as our base model and added a Dropout layer (rate: .25) operating on top of the [CLS] output, followed by a linear layer for the class prediction. ・BERT(ce) & BERT(f): BERTbase(uncased)をベースモデルとして使用し、[CLS]出力の上にDropoutレイヤ(rate: .25)を追加し、続いてクラス予測のための線形レイヤを追加しました。 0.74
We trained our models for 3 epochs using Adam (learning rate: [1e-5, 3e-5]) and perform five runs with different random seeds (0, 1, 12, 123, 1234). 我々はAdam(学習速度: [1e-5, 3e-5])を用いて3エポックのモデルを訓練し、異なるランダムシード(0, 1, 12, 123, 1234)で5回実行した。 0.72
Batch sizes of 8 are used in train/dev/test sets. バッチサイズの8は、トレイン/デベロップメント/テストセットで使用される。 0.56
For the alpha-weighted Focal loss in BERT(f), BERT(f)におけるアルファ重み付き焦点損失について 0.69
we used γ = 2 and at =(cid:112)1/pt, where pt is γ = 2 と at =(cid:112)1/pt を使いました。 0.76
the probability of class t in our training data. 訓練データにおけるクラスtの確率。 0.66
Results reported in the paper (as well as the results for BiLSTM-bert) are averaged across the five runs with the different random seeds. 論文で報告された結果(およびBiLSTM-bertの結果)は、異なるランダムシードで5ランにわたって平均される。 0.73
We trained each model on five folds and selected the best-performing combination of hyperparameters on the basis of macro-F1 on a dev set (33% of training data) for each test fold. テストフォールド毎に,各モデルを5回トレーニングし,マクロF1に基づいて,各テストフォールドに対するマクロF1の最適性能の組み合わせを選択した(トレーニングデータの33%)。 0.76
B Libraries The code for the experiments is written in Python 3.8 and relies on the following libraries: keras (2.7.0), numpy (1.19.5), pandas (1.2.3), scikitlearn (1.0.1), sentence_trasformers (1.1.0), spacy (3.0.5), tensorflow (2.5.0), torch (1.8.1), transformers (4.5.1). bライブラリ keras (2.7.0), numpy (1.19.5), pandas (1.2.3), scikitlearn (1.0.1), sentence_trasformers (1.1.0), spacy (3.0.5), tensorflow (2.5.0), torch (1.8.1), transformers (4.5.1)。 0.89
C Infrastructure All experiments were conducted on virtual machines (VM) deployed on the cloud computing platform Microsoft Azure. C Infrastructure すべての実験は、クラウドコンピューティングプラットフォームであるMicrosoft Azureにデプロイされた仮想マシン(VM)上で実施された。 0.71
We have used two different VMs in our work: 作業には2つの異なるVMを使用しました。 0.68
• the experiments that involved the use of BERT were ran on a Standard NC12_Promo, with 12 cpus, 112 GiB of RAM and 2 GPUs; BERTの使用に関する実験は、12 cpus、112 GiBのRAM、2GPUの標準NC12_Promo上で実行された。 0.67
• all other experiments were ran on a Standard F16s_v2, with 16 cpus and 32 GiB of RAM. その他の実験はすべて標準のF16s_v2で行われ、16 cpusと32 GiBのRAMを搭載していた。 0.62
                             ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。