論文の概要: From Emotion to Expression: Theoretical Foundations and Resources for Fear Speech
- arxiv url: http://arxiv.org/abs/2601.17132v1
- Date: Fri, 23 Jan 2026 19:17:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:07.298373
- Title: From Emotion to Expression: Theoretical Foundations and Resources for Fear Speech
- Title(参考訳): 感情から表現へ:恐怖音声の理論的基礎と資源
- Authors: Vigneshwaran Shankaran, Gabriella Lapesa, Claudia Wagner,
- Abstract要約: 計算言語学では、恐怖は主に感情として研究されるが、弁別的な言語として研究されていない。
恐怖のスピーチコンテンツは広く普及しており、しばしばヘイトスピーチのコンテンツよりも、リーチとエンゲージメントが優れている。
これは、恐れのスピーチは複数の分野からの貢献によって形成された現象であると認識することで理解することができる。
- 参考スコア(独自算出の注目度): 11.109158166705837
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Few forces rival fear in their ability to mobilize societies, distort communication, and reshape collective behavior. In computational linguistics, fear is primarily studied as an emotion, but not as a distinct form of speech. Fear speech content is widespread and growing, and often outperforms hate-speech content in reach and engagement because it appears "civiler" and evades moderation. Yet the computational study of fear speech remains fragmented and under-resourced. This can be understood by recognizing that fear speech is a phenomenon shaped by contributions from multiple disciplines. In this paper, we bridge cross-disciplinary perspectives by comparing theories of fear from Psychology, Political science, Communication science, and Linguistics. Building on this, we review existing definitions. We follow up with a survey of datasets from related research areas and propose a taxonomy that consolidates different dimensions of fear for studying fear speech. By reviewing current datasets and defining core concepts, our work offers both theoretical and practical guidance for creating datasets and advancing fear speech research.
- Abstract(参考訳): 社会を動員し、コミュニケーションを歪め、集団行動を再形成する能力においてライバルの恐れを強要する者は少ない。
計算言語学では、恐怖は主に感情として研究されるが、弁別的な言語として研究されていない。
恐怖のスピーチコンテンツは広まり、成長しており、しばしば「市民」のように見えるため、ヘイトスピーチのコンテンツのリーチやエンゲージメントを上回り、モデレーションを回避している。
しかし、恐怖音声の計算研究は断片化され、未資源のままである。
これは、恐れのスピーチは複数の分野からの貢献によって形成された現象であると認識することで理解することができる。
本稿では,心理学,政治科学,コミュニケーション科学,言語学の恐怖理論を比較することによって,学際的視点を橋渡しする。
これに基づいて既存の定義をレビューする。
そこで本研究では,関連する研究分野のデータセットを調査し,恐怖音声研究のさまざまな側面を集約した分類法を提案する。
現在のデータセットをレビューし、コアコンセプトを定義することで、我々の研究はデータセットを作成するための理論的および実践的なガイダンスと、恐怖音声研究の進展を提供する。
関連論文リスト
- Reassessing the Role of Chain-of-Thought in Sentiment Analysis: Insights and Limitations [6.774149276707635]
推論技術が意味理解を促進するかどうかを考察する。
推論手法としてチェーン・オブ・シークレット・プロンプトを採用しています。
実験によると、思考の連鎖は感情分析タスクに最小限の影響を与える。
論文 参考訳(メタデータ) (2025-01-15T08:07:22Z) - Subjective $\textit{Isms}$? On the Danger of Conflating Hate and Offence
in Abusive Language Detection [5.351398116822836]
我々はヘイトスピーチの発見を無効にすることができると論じる。
我々は、将来の研究が理論上あることを求め、その概念や犯罪から憎悪を遠ざけている。
論文 参考訳(メタデータ) (2024-03-04T17:56:28Z) - Assessing the impact of contextual information in hate speech detection [0.48369513656026514]
我々は,Twitter上のメディアからのニュース投稿に対するユーザの反応に基づいた,文脈的ヘイトスピーチ検出のための新しいコーパスを提供する。
このコーパスはリオプラテンセ方言のスペイン語で収集され、新型コロナウイルスのパンデミックに関連するヘイトスピーチに焦点を当てている。
論文 参考訳(メタデータ) (2022-10-02T09:04:47Z) - Accurate Emotion Strength Assessment for Seen and Unseen Speech Based on
Data-Driven Deep Learning [70.30713251031052]
本研究では,データ駆動型深層学習モデル,すなわちSenseNetを提案する。
実験の結果,提案した強度ネットの予測感情強度は,目視と目視の両方の真理値と高い相関性を示した。
論文 参考訳(メタデータ) (2022-06-15T01:25:32Z) - "splink" is happy and "phrouth" is scary: Emotion Intensity Analysis for
Nonsense Words [15.425333719115262]
参加者は、喜び、悲しみ、怒り、嫌悪、恐怖、驚きの度合いを、意味のない単語272語に割り当てる。
文字レベルおよび音韻に基づく強度回帰器を開発し、実単語とナンセンス単語で評価する。
データ分析により、いくつかの音声パターンは感情の強度の違いを明確に示していることが明らかとなった。
論文 参考訳(メタデータ) (2022-02-24T14:48:43Z) - Textless Speech Emotion Conversion using Decomposed and Discrete
Representations [49.55101900501656]
我々は、音声を、コンテンツ単位、F0、話者、感情からなる離散的、非絡み合いの学習表現に分解する。
まず、内容単位を対象の感情に翻訳し、その単位に基づいて韻律的特徴を予測することによって、音声内容を変更する。
最後に、予測された表現をニューラルボコーダに入力して音声波形を生成する。
論文 参考訳(メタデータ) (2021-11-14T18:16:42Z) - Perception Point: Identifying Critical Learning Periods in Speech for
Bilingual Networks [58.24134321728942]
ディープニューラルベース視覚唇読解モデルにおける認知的側面を比較し,識別する。
我々は、認知心理学におけるこれらの理論と独自のモデリングの間に強い相関関係を観察する。
論文 参考訳(メタデータ) (2021-10-13T05:30:50Z) - StrengthNet: Deep Learning-based Emotion Strength Assessment for
Emotional Speech Synthesis [82.39099867188547]
本稿では,強度予測のための深層学習に基づく感情力評価ネットワークを提案する。
本モデルは,音響エンコーダ,強度予測器,補助感情予測器を含む構造を持つマルチタスク学習フレームワークに適合する。
実験により,提案した強度ネットの予測感情強度は,見知らぬ音声に対する地上の真理スコアと高い相関性を示した。
論文 参考訳(メタデータ) (2021-10-07T03:16:15Z) - "Notic My Speech" -- Blending Speech Patterns With Multimedia [65.91370924641862]
音声認識と理解における視点依存と視覚的重要性の両方をモデル化するための視点時間的注意機構を提案する。
提案手法は, ビセム誤差率において, 既存の作業よりも4.99%優れていた。
モデルでは,多視点音声に対する理解と人間の知覚との間に強い相関関係があることが示されている。
論文 参考訳(メタデータ) (2020-06-12T06:51:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。