論文の概要: Beyond Negativity: Re-Analysis and Follow-Up Experiments on Hope Speech
Detection
- arxiv url: http://arxiv.org/abs/2306.01742v1
- Date: Wed, 10 May 2023 18:38:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-11 14:13:51.189468
- Title: Beyond Negativity: Re-Analysis and Follow-Up Experiments on Hope Speech
Detection
- Title(参考訳): ネガティビティを超えて:ホープ音声検出における再分析とフォローアップ実験
- Authors: Neemesh Yadav, Mohammad Aflah Khan, Diksha Sethi and Raghav Sahni
- Abstract要約: ホープスピーチは、サポート、安心、提案、インスピレーション、洞察を提供するコメント、投稿、その他のソーシャルメディアメッセージを指す。
本研究は,希望音声検出のための効率的かつ同等かつ優れた手法を見つけることを目的としている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Health experts assert that hope plays a crucial role in enhancing
individuals' physical and mental well-being, facilitating their recovery, and
promoting restoration. Hope speech refers to comments, posts and other social
media messages that offer support, reassurance, suggestions, inspiration, and
insight. The detection of hope speech involves the analysis of such textual
content, with the aim of identifying messages that invoke positive emotions in
people. Our study aims to find computationally efficient yet
comparable/superior methods for hope speech detection. We also make our
codebase public at https://github.com/aflah02/Hope_Speech_Detection
- Abstract(参考訳): 健康の専門家は、希望は個人の身体的および精神的な健康の向上、回復の促進、回復の促進に重要な役割を果たしていると主張している。
hope speechは、コメント、投稿、その他のソーシャルメディアメッセージで、サポート、安心感、提案、インスピレーション、洞察を提供する。
ホープ音声の検出は、人々のポジティブな感情を誘発するメッセージの識別を目的として、そのようなテキストコンテンツの分析を伴う。
本研究は, 希望音声検出のための計算効率が高く, 同等かつ優れた手法を見つけることを目的とする。
また、コードベースをhttps://github.com/aflah02/Hope_Speech_Detectionで公開しています。
関連論文リスト
- Depression detection in social media posts using affective and social
norm features [84.12658971655253]
ソーシャルメディア投稿からの抑うつ検出のための奥深いアーキテクチャを提案する。
我々は、後期融合方式を用いて、ポストとワードの敬称と道徳的特徴をアーキテクチャに組み込んだ。
提案された機能を含めると、両方の設定で最先端の結果が得られます。
論文 参考訳(メタデータ) (2023-03-24T21:26:27Z) - Hope Speech Detection on Social Media Platforms [1.2561455657923906]
本稿では,文章をホープ音声,ノンホップ音声,ニュートラル文と識別するための機械学習アプローチについて論じる。
この研究で使用されたデータセットには、英語のYouTubeコメントが含まれている。
論文 参考訳(メタデータ) (2022-11-14T10:58:22Z) - PolyHope: Two-Level Hope Speech Detection from Tweets [68.8204255655161]
その重要性にもかかわらず、希望はソーシャルメディア分析タスクとして研究されることはめったにない。
本稿では、まず各ツイートを「ホップ」と「ノーホープ」に分類するホープ音声データセットを提案する。
2022年前半の英語のつぶやきは、このデータセットを構築するために集められた。
論文 参考訳(メタデータ) (2022-10-25T16:34:03Z) - Accurate Emotion Strength Assessment for Seen and Unseen Speech Based on
Data-Driven Deep Learning [70.30713251031052]
本研究では,データ駆動型深層学習モデル,すなわちSenseNetを提案する。
実験の結果,提案した強度ネットの予測感情強度は,目視と目視の両方の真理値と高い相関性を示した。
論文 参考訳(メタデータ) (2022-06-15T01:25:32Z) - Deep Learning for Visual Speech Analysis: A Survey [54.53032361204449]
本稿では,視覚音声分析におけるディープラーニング手法の最近の進歩を概観する。
私たちは、基本的な問題、課題、ベンチマークデータセット、既存のメソッドの分類、最先端のパフォーマンスなど、視覚音声のさまざまな側面をカバーしています。
論文 参考訳(メタデータ) (2022-05-22T14:44:53Z) - Textless Speech Emotion Conversion using Decomposed and Discrete
Representations [49.55101900501656]
我々は、音声を、コンテンツ単位、F0、話者、感情からなる離散的、非絡み合いの学習表現に分解する。
まず、内容単位を対象の感情に翻訳し、その単位に基づいて韻律的特徴を予測することによって、音声内容を変更する。
最後に、予測された表現をニューラルボコーダに入力して音声波形を生成する。
論文 参考訳(メタデータ) (2021-11-14T18:16:42Z) - E-ffective: A Visual Analytic System for Exploring the Emotion and
Effectiveness of Inspirational Speeches [57.279044079196105]
E-ffective(エフェクティブ)は、音声の専門家や初心者が、音声要因の役割と効果的な音声への貢献の両方を分析することのできる視覚分析システムである。
E-spiral(音声の感情の変化を視覚的にコンパクトに表現する)とE-script(音声コンテンツを主要な音声配信情報に結びつける)の2つの新しい可視化技術がある。
論文 参考訳(メタデータ) (2021-10-28T06:14:27Z) - Hope Speech detection in under-resourced Kannada language [0.1759008116536278]
そこで我々は,英語・カナダ・ホープ音声データセットKanHopeを提案する。
データセットは、6,176件のユーザー生成コメントからなる。
我々は、カンホープの英語翻訳を付加訓練に用い、希望音声検出を促進する二重チャネルモデルであるDC-BERT4HOPEを紹介する。
論文 参考訳(メタデータ) (2021-08-10T11:59:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。