論文の概要: DeepHelp: Deep Learning for Shout Crisis Text Conversations
- arxiv url: http://arxiv.org/abs/2110.13244v1
- Date: Mon, 25 Oct 2021 20:04:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-27 13:49:33.110812
- Title: DeepHelp: Deep Learning for Shout Crisis Text Conversations
- Title(参考訳): DeepHelp: ショート危機テキスト会話のためのディープラーニング
- Authors: Daniel Cahn
- Abstract要約: このプロジェクトはShoutとその親組織であるMental Health Innovationsと提携して、Shoutの会話を理解するための機械学習の応用を探る。
本研究の目的は,危機的テキストメッセージに深層学習を適用する可能性を示す概念実証モデルを開発することである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The Shout Crisis Text Line provides individuals undergoing mental health
crises an opportunity to have an anonymous text message conversation with a
trained Crisis Volunteer (CV). This project partners with Shout and its parent
organisation, Mental Health Innovations, to explore the applications of Machine
Learning in understanding Shout's conversations and improving its service. The
overarching aim of this project is to develop a proof-of-concept model to
demonstrate the potential of applying deep learning to crisis text messages.
Specifically, this project aims to use deep learning to (1) predict an
individual's risk of suicide or self-harm, (2) assess conversation success and
CV skill using robust metrics, and (3) extrapolate demographic information from
a texter survey to conversations where the texter did not complete the survey.
To these ends, contributions to deep learning include a modified
Transformer-over-BERT model; a framework for multitask learning to improve
generalisation in the presence of sparse labels; and a mathematical model for
using imperfect machine learning models to estimate population parameters from
a biased training set.
Key results include a deep learning model with likely better performance at
predicting suicide risk than trained CVs and the ability to predict whether a
texter is 21 or under with 88.4% accuracy. We produce three metrics for
conversation success and evaluate the validity and usefulness for each.
Finally, reversal of participation bias provides evidence that women, who make
up 80.3% of conversations with an associated texter survey, make up closer to
73.5%- 74.8% of all conversations; and that if, after every conversation, the
texter had shared whether they found their conversation helpful, affirmative
answers would fall from 85.1% to 45.45% - 46.51%.
- Abstract(参考訳): shout crisis text lineは、メンタルヘルス危機を経験した個人に、訓練された危機ボランティア(cv)と匿名のテキストメッセージ会話をする機会を提供する。
このプロジェクトはshoutとその親組織であるmental health innovationsと提携して、shoutの会話の理解とサービスの改善における機械学習の応用を探求する。
本研究の目的は,危機的テキストメッセージに深層学習を適用する可能性を示す概念実証モデルを開発することである。
具体的には,(1)自尊心や自尊心のリスクを予測するための深層学習,(2)ロバストな指標を用いた会話の成功度とcvスキルの評価、(3)テキスト作成者調査から,テキスト作成者が調査を終えなかった会話まで,人口統計情報を抽出することを目的とする。
これらの目的のために、ディープラーニングへのコントリビューションには、Transformer-over-BERTモデルの変更、スパースラベルの存在下で一般化を改善するマルチタスク学習のためのフレームワーク、バイアス付きトレーニングセットから人口パラメータを推定するために不完全な機械学習モデルを使用する数学的モデルが含まれる。
主な成果は、訓練されたCVよりも自殺リスクを予測するパフォーマンスが向上する深層学習モデルと、テキストが88.4%の精度で21歳以下かどうかを予測する能力である。
会話の成功のための3つの指標を作成し,それぞれの有効性と有用性を評価する。
最後に、参加バイアスの逆転は、関連するテキストサーベイで80.3%の会話をする女性は、すべての会話の73.5%から74.8%に近づき、また、会話が役に立ったかどうかをテキストが共有している場合、肯定的な回答は85.1%から45.45%から46.51%に低下する。
関連論文リスト
- Interactive Dialogue Agents via Reinforcement Learning on Hindsight Regenerations [58.65755268815283]
多くの実際の対話は対話的であり、つまりエージェントの発話が会話の相手に影響を与えるか、情報を引き出すか、意見を変えるかである。
この事実を利用して、既存の最適データを書き直し、拡張し、オフライン強化学習(RL)を介してトレーニングする。
実際の人間によるユーザ調査の結果、我々のアプローチは既存の最先端の対話エージェントを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-07T21:37:51Z) - Deep Learning and Large Language Models for Audio and Text Analysis in Predicting Suicidal Acts in Chinese Psychological Support Hotlines [13.59130559079134]
中国では毎年200万人が自殺を企てており、多くの人が複数の試みをしている。
深層学習モデルと大規模言語モデル(LLM)がメンタルヘルスの分野に導入されている。
本研究は、1284名の被験者を対象とし、ディープラーニングモデルとLLMが、ホットラインからの音声および転写テキストを用いて、自殺リスクを効果的に予測できるかどうかを検証するように設計された。
論文 参考訳(メタデータ) (2024-09-10T02:22:50Z) - Text Injection for Neural Contextual Biasing [57.589903308622745]
本研究では文脈テキストインジェクション(CTI)を提案する。
1000億のテキストを持つCTIは、強い神経バイアスモデルから43.3%の相対的なWER削減を達成することができる。
論文 参考訳(メタデータ) (2024-06-05T04:20:17Z) - From Words and Exercises to Wellness: Farsi Chatbot for Self-Attachment Technique [1.7592522344393486]
私たちはFarsiでセルフアタッチメント(SAT)を通じてユーザを誘導する音声対応ロボットを開発した。
6000以上の発話のデータセットを収集し、ユーザー感情を12クラスに分類する新しい感情分析モジュールを開発し、精度は92%以上である。
当社のプラットフォームは,ほとんどのユーザ(75%),72%がインタラクションの後に気分が良くなり,74%がSAT Teacherのパフォーマンスに満足していた。
論文 参考訳(メタデータ) (2023-10-13T19:09:31Z) - Investigating the Efficacy of Large Language Models in Reflective
Assessment Methods through Chain of Thoughts Prompting [0.2552922646705803]
複雑な推論タスクにおけるLLMの習熟度を高める手段として、Chain of Thought(CoT)プロンプト法が提案されている。
本研究の主な目的は、4つの言語モデルが3年制医学生の振り返りエッセイをいかに評価できるかを評価することである。
論文 参考訳(メタデータ) (2023-09-30T06:25:27Z) - Identifying depression-related topics in smartphone-collected
free-response speech recordings using an automatic speech recognition system
and a deep learning topic model [7.825530847570242]
参加者265人を対象に,3919件のスマートフォンによる音声録音で29項目を抽出した。
PHQ-8の中央値が10以上の6つのトピックがうつ病のリスクトピックとみなされた。
また, 話題変化とうつ病重症度の変化との関係について検討した。
論文 参考訳(メタデータ) (2023-08-22T20:30:59Z) - AutoConv: Automatically Generating Information-seeking Conversations
with Large Language Models [74.10293412011455]
合成会話生成のためのAutoConvを提案する。
具体的には,会話生成問題を言語モデリングタスクとして定式化する。
我々は、情報探索プロセスの特徴を捉えるために、人間同士の会話でLLMを微調整する。
論文 参考訳(メタデータ) (2023-08-12T08:52:40Z) - Measuring the Effect of Influential Messages on Varying Personas [67.1149173905004]
我々は、ニュースメッセージを見る際にペルソナが持つ可能性のある応答を推定するために、ニュースメディア向けのペルソナに対するレスポンス予測という新しいタスクを提示する。
提案課題は,モデルにパーソナライズを導入するだけでなく,各応答の感情極性と強度も予測する。
これにより、ペルソナの精神状態に関するより正確で包括的な推測が可能になる。
論文 参考訳(メタデータ) (2023-05-25T21:01:00Z) - Prediction of Listener Perception of Argumentative Speech in a
Crowdsourced Data Using (Psycho-)Linguistic and Fluency Features [24.14001104126045]
議論的発話のクラウドソースデータセットにおいてTEDトークスタイルの感情評価を予測することを目的としている。
本稿では,TEDトーク音声の大規模データセット上で事前学習したモデルを微調整することにより,これらのカテゴリを予測するための分類タスクに有効なアプローチを提案する。
論文 参考訳(メタデータ) (2021-11-13T15:07:13Z) - CAiRE in DialDoc21: Data Augmentation for Information-Seeking Dialogue
System [55.43871578056878]
DialDoc21コンペティションでは,サブタスク1で74.95 F1スコア,60.74 Exact Matchスコア,サブタスク2で37.72 SacreBLEUスコアを達成した。
論文 参考訳(メタデータ) (2021-06-07T11:40:55Z) - TextHide: Tackling Data Privacy in Language Understanding Tasks [54.11691303032022]
TextHideは、トレーニングを遅くしたり、精度を下げることなく、プライバシー上のリスクを軽減する。
すべての参加者は、盗聴攻撃者がプライベートテキストデータを復元するのを防ぐために、簡単な暗号化ステップを追加する必要がある。
我々は、GLUEベンチマーク上でTextHideを評価し、TextHideが共有勾配や表現に対する攻撃を効果的に防御できることを示す。
論文 参考訳(メタデータ) (2020-10-12T22:22:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。