論文の概要: Analyzing the Intensity of Complaints on Social Media
- arxiv url: http://arxiv.org/abs/2204.09366v1
- Date: Wed, 20 Apr 2022 10:15:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-21 14:15:31.610144
- Title: Analyzing the Intensity of Complaints on Social Media
- Title(参考訳): ソーシャルメディアにおける苦情の強度分析
- Authors: Ming Fang, Shi Zong, Jing Li, Xinyu Dai, Shujian Huang, Jiajun Chen
- Abstract要約: テキストからの苦情の強度を測定する計算言語学における最初の研究について述べる。
私たちは中国のソーシャルメディアプラットフォームであるWeiboからの苦情に関する3,103件の投稿を含む最初の中国のデータセットを作成しました。
平均二乗誤差が0.11となる計算モデルにより,苦情強度を正確に推定できることを示す。
- 参考スコア(独自算出の注目度): 55.140613801802886
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Complaining is a speech act that expresses a negative inconsistency between
reality and human expectations. While prior studies mostly focus on identifying
the existence or the type of complaints, in this work, we present the first
study in computational linguistics of measuring the intensity of complaints
from text. Analyzing complaints from such perspective is particularly useful,
as complaints of certain degrees may cause severe consequences for companies or
organizations. We create the first Chinese dataset containing 3,103 posts about
complaints from Weibo, a popular Chinese social media platform. These posts are
then annotated with complaints intensity scores using Best-Worst Scaling (BWS)
method. We show that complaints intensity can be accurately estimated by
computational models with the best mean square error achieving 0.11.
Furthermore, we conduct a comprehensive linguistic analysis around complaints,
including the connections between complaints and sentiment, and a cross-lingual
comparison for complaints expressions used by Chinese and English speakers. We
finally show that our complaints intensity scores can be incorporated for
better estimating the popularity of posts on social media.
- Abstract(参考訳): 批判は、現実と人間の期待の負の矛盾を表現する言論行為である。
先行研究は主に苦情の有無の特定に重点を置いているが,本研究ではテキストから苦情の強度を計測する計算言語学における最初の研究を紹介する。
このような観点からの苦情の分析は特に有用であり、ある程度の苦情が企業や組織に深刻な影響をもたらす可能性がある。
中国の人気のソーシャルメディアプラットフォームであるweiboの苦情に関する3,103の投稿を含む、最初の中国のデータセットを作成しました。
これらの投稿は、Best-Worst Scaling (BWS)メソッドを使って苦情の強度スコアで注釈付けされる。
平均二乗誤差が0.11となる計算モデルにより,苦情強度を正確に推定できることを示す。
さらに,苦情と感情の関連,中国語話者と英語話者の不満表現の言語間比較など,苦情に関する総合的な言語学的分析を行った。
最終的に、私たちの苦情の強度スコアは、ソーシャルメディア上の投稿の人気をより良い評価に組み込むことができることを示します。
関連論文リスト
- Assessing the Level of Toxicity Against Distinct Groups in Bangla Social Media Comments: A Comprehensive Investigation [0.0]
本研究は, トランスジェンダー, 先住民, 移民の3つの特定のグループを対象として, ベンガル語における有毒なコメントを同定することに焦点を当てた。
この方法論は、データセット、手動のアノテーションの作成と、Bangla-BERT、bangla-bert-base、distil-BERT、Bert-base-multilingual-casedといったトレーニング済みのトランスフォーマーモデルの使用を含む。
実験の結果、Bangla-BERTは代替モデルを超え、F1スコアは0.8903に達した。
論文 参考訳(メタデータ) (2024-09-25T17:48:59Z) - From Chaos to Clarity: Claim Normalization to Empower Fact-Checking [57.024192702939736]
Claim Normalization(別名 ClaimNorm)は、複雑でノイズの多いソーシャルメディア投稿を、より単純で分かりやすい形式に分解することを目的としている。
本稿では,チェーン・オブ・ソートとクレーム・チェック・バシネス推定を利用した先駆的アプローチであるCACNを提案する。
実験により, CACNは様々な評価尺度において, いくつかの基準値を上回る性能を示した。
論文 参考訳(メタデータ) (2023-10-22T16:07:06Z) - Harnessing Pre-Trained Sentence Transformers for Offensive Language
Detection in Indian Languages [0.6526824510982802]
この研究はヘイトスピーチ検出の領域に踏み込み、ベンガル語、アサメセ語、グジャラート語という3つの低リソースのインドの言語に特に重点を置いている。
この課題は、ツイートが攻撃的コンテンツを含むか、非攻撃的コンテンツを含むかを識別することを目的としたテキスト分類タスクである。
我々は,事前学習したBERTモデルとSBERTモデルを微調整し,ヘイトスピーチの同定の有効性を評価する。
論文 参考訳(メタデータ) (2023-10-03T17:53:09Z) - Measuring the Effect of Influential Messages on Varying Personas [67.1149173905004]
我々は、ニュースメッセージを見る際にペルソナが持つ可能性のある応答を推定するために、ニュースメディア向けのペルソナに対するレスポンス予測という新しいタスクを提示する。
提案課題は,モデルにパーソナライズを導入するだけでなく,各応答の感情極性と強度も予測する。
これにより、ペルソナの精神状態に関するより正確で包括的な推測が可能になる。
論文 参考訳(メタデータ) (2023-05-25T21:01:00Z) - Enriching Abusive Language Detection with Community Context [0.3708656266586145]
叙述表現の使用は、良心的または活発な権限を与えることができる。
乱用検出のモデルは、これらの表現を軽蔑的で不注意に、疎外されたグループが持つ生産的な会話を検閲するものとして誤分類する。
本稿では,コミュニティの文脈が乱用言語検出における分類結果をどのように改善するかを強調した。
論文 参考訳(メタデータ) (2022-06-16T20:54:02Z) - APEACH: Attacking Pejorative Expressions with Analysis on
Crowd-Generated Hate Speech Evaluation Datasets [4.034948808542701]
APEACHは、特定されていないユーザによって生成されるヘイトスピーチの収集を可能にする方法である。
ヘイトスピーチの群集生成を制御し,最小限のポストラベルのみを追加することにより,ヘイトスピーチ検出の一般化と公平な評価を可能にするコーパスを作成する。
論文 参考訳(メタデータ) (2022-02-25T02:04:38Z) - COLD: A Benchmark for Chinese Offensive Language Detection [54.60909500459201]
COLDatasetは、37kの注釈付き文を持つ中国の攻撃的言語データセットである。
また、人気のある中国語モデルの出力攻撃性を研究するために、textscCOLDetectorを提案する。
我々の資源と分析は、中国のオンラインコミュニティを解毒し、生成言語モデルの安全性を評価することを目的としている。
論文 参考訳(メタデータ) (2022-01-16T11:47:23Z) - Probing as Quantifying the Inductive Bias of Pre-trained Representations [99.93552997506438]
本稿では,特定のタスクに対する表現の帰納的バイアスを評価することを目的とした,探索のための新しいフレームワークを提案する。
トークン、アーク、文レベルの一連のタスクに我々のフレームワークを適用します。
論文 参考訳(メタデータ) (2021-10-15T22:01:16Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z) - Modeling the Severity of Complaints in Social Media [9.909170013118775]
プラグマティクスの言語理論は、苦情を、苦情者が受け取ろうとする顔の脅威に基づいて、様々な深刻度レベルに分類する。
これは、苦情者の意図と人間の適切な謝罪戦略の開発方法を理解するために特に役立ちます。
計算言語学において,苦情の重症度を初めて調査した。
論文 参考訳(メタデータ) (2021-03-23T10:13:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。