論文の概要: PolyHope: Two-Level Hope Speech Detection from Tweets
- arxiv url: http://arxiv.org/abs/2210.14136v2
- Date: Thu, 3 Nov 2022 19:54:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 12:04:31.213474
- Title: PolyHope: Two-Level Hope Speech Detection from Tweets
- Title(参考訳): PolyHope: ツイートから2段階の音声検出
- Authors: Fazlourrahman Balouchzahi and Grigori Sidorov and Alexander Gelbukh
- Abstract要約: その重要性にもかかわらず、希望はソーシャルメディア分析タスクとして研究されることはめったにない。
本稿では、まず各ツイートを「ホップ」と「ノーホープ」に分類するホープ音声データセットを提案する。
2022年前半の英語のつぶやきは、このデータセットを構築するために集められた。
- 参考スコア(独自算出の注目度): 68.8204255655161
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hope is characterized as openness of spirit toward the future, a desire,
expectation, and wish for something to happen or to be true that remarkably
affects human's state of mind, emotions, behaviors, and decisions. Hope is
usually associated with concepts of desired expectations and
possibility/probability concerning the future. Despite its importance, hope has
rarely been studied as a social media analysis task. This paper presents a hope
speech dataset that classifies each tweet first into "Hope" and "Not Hope",
then into three fine-grained hope categories: "Generalized Hope", "Realistic
Hope", and "Unrealistic Hope" (along with "Not Hope"). English tweets in the
first half of 2022 were collected to build this dataset. Furthermore, we
describe our annotation process and guidelines in detail and discuss the
challenges of classifying hope and the limitations of the existing hope speech
detection corpora. In addition, we reported several baselines based on
different learning approaches, such as traditional machine learning, deep
learning, and transformers, to benchmark our dataset. We evaluated our
baselines using weighted-averaged and macro-averaged F1-scores. Observations
show that a strict process for annotator selection and detailed annotation
guidelines enhanced the dataset's quality. This strict annotation process
resulted in promising performance for simple machine learning classifiers with
only bi-grams; however, binary and multiclass hope speech detection results
reveal that contextual embedding models have higher performance in this
dataset.
- Abstract(参考訳): 希望は、未来への精神の開放性、欲望、期待、何かが起こることへの願望、または人間の心の状態、感情、行動、そして決定に著しく影響を及ぼす真実であることが特徴である。
希望は、通常、将来の期待と可能性/可能性の概念と結びついている。
その重要性にもかかわらず、希望はソーシャルメディア分析タスクとして研究されることはめったにない。
本稿では,まず各ツイートを"hope"と"not hope"に分類し,次に"generalized hope","realistic hope","unrealistic hope"("not hope"と共に)の3つの粒度の希望カテゴリに分類する。
2022年前半の英語のつぶやきは、このデータセットを構築するために集められた。
さらに,本稿では,希望を分類する課題と既存の希望音声検出コーパスの限界について,アノテーションのプロセスとガイドラインを詳細に述べる。
さらに、従来の機械学習、ディープラーニング、トランスフォーマーなど、さまざまな学習アプローチに基づくベースラインを報告し、データセットをベンチマークしました。
重み付き平均F1スコアとマクロ平均F1スコアを用いてベースラインの評価を行った。
アノテーションの選択と詳細なアノテーションガイドラインの厳格なプロセスによってデータセットの品質が向上した。
この厳密なアノテーションプロセスは、バイグラムしか持たない単純な機械学習分類器に有望な性能をもたらすが、バイナリとマルチクラスの音声検出結果から、文脈埋め込みモデルがこのデータセットでより高いパフォーマンスを示す。
関連論文リスト
- Beyond Negativity: Re-Analysis and Follow-Up Experiments on Hope Speech
Detection [0.0]
ホープスピーチは、サポート、安心、提案、インスピレーション、洞察を提供するコメント、投稿、その他のソーシャルメディアメッセージを指す。
本研究は,希望音声検出のための効率的かつ同等かつ優れた手法を見つけることを目的としている。
論文 参考訳(メタデータ) (2023-05-10T18:38:48Z) - Hope Speech Detection on Social Media Platforms [1.2561455657923906]
本稿では,文章をホープ音声,ノンホップ音声,ニュートラル文と識別するための機械学習アプローチについて論じる。
この研究で使用されたデータセットには、英語のYouTubeコメントが含まれている。
論文 参考訳(メタデータ) (2022-11-14T10:58:22Z) - Hope Speech detection in under-resourced Kannada language [0.1759008116536278]
そこで我々は,英語・カナダ・ホープ音声データセットKanHopeを提案する。
データセットは、6,176件のユーザー生成コメントからなる。
我々は、カンホープの英語翻訳を付加訓練に用い、希望音声検出を促進する二重チャネルモデルであるDC-BERT4HOPEを紹介する。
論文 参考訳(メタデータ) (2021-08-10T11:59:42Z) - What Is Considered Complete for Visual Recognition? [110.43159801737222]
我々は、学習・バイ・圧縮という新しいタイプの事前学習タスクを提唱する。
計算モデルは、コンパクトな特徴を用いて視覚データを表現するように最適化されている。
セマンティックアノテーションは、利用可能であれば、弱い監督の役割を担います。
論文 参考訳(メタデータ) (2021-05-28T16:59:14Z) - Learning to Anticipate Egocentric Actions by Imagination [60.21323541219304]
我々は,エゴセントリックなアクション予測タスクについて検討し,エゴセントリックなビデオの再生に先立って,将来のアクション秒を予測する。
本手法は, EPIC Kitchens Action Precipation Challenge の既視テストセットと未確認テストセットの両方において, 従来手法を有意に上回った。
論文 参考訳(メタデータ) (2021-01-13T08:04:10Z) - What is More Likely to Happen Next? Video-and-Language Future Event
Prediction [111.93601253692165]
対話が整ったビデオの場合、人々は次に何が起こるかを見極めることができる。
本研究では,AIモデルがこのようなマルチモーダル・コモンセンスの次世代予測を学べるかどうかを考察する。
新しいデータセットであるVideo-and-Language Event Prediction(ビデオ・アンド・ランゲージ・イベント予測)を収集します。
論文 参考訳(メタデータ) (2020-10-15T19:56:47Z) - Deep Sequence Learning for Video Anticipation: From Discrete and
Deterministic to Continuous and Stochastic [1.52292571922932]
ビデオ予測は、限られた部分的な観察を与えられた1/複数未来表現を予測するタスクである。
特に、この論文では、ビデオ予測の文献にいくつかの貢献をしている。
論文 参考訳(メタデータ) (2020-10-09T04:40:58Z) - Predicting MOOCs Dropout Using Only Two Easily Obtainable Features from
the First Week's Activities [56.1344233010643]
いくつかの特徴は、学習者の誘惑や興味の欠如に寄与すると考えられており、そのことが解脱や総減退につながる可能性がある。
この研究は、いくつかの機械学習アプローチを比較して、最初の1週間から早期のドロップアウトを予測することを目的としている。
論文 参考訳(メタデータ) (2020-08-12T10:44:49Z) - Improved Speech Representations with Multi-Target Autoregressive
Predictive Coding [23.424410568555547]
我々は、将来のフレームを正確に予測できる隠された状態が、多くの下流タスクに有用な表現である、という仮説を拡張した。
本稿では、将来のフレーム予測タスクの一般化を改善するための正規化として機能する補助的目的を提案する。
論文 参考訳(メタデータ) (2020-04-11T01:09:36Z) - Spatiotemporal Relationship Reasoning for Pedestrian Intent Prediction [57.56466850377598]
視覚データに対する推論は、ロボティクスとビジョンベースのアプリケーションにとって望ましい能力である。
本稿では,歩行者の意図を推論するため,現場の異なる物体間の関係を明らかにするためのグラフ上でのフレームワークを提案する。
歩行者の意図は、通りを横切る、あるいは横断しない将来の行動として定義され、自動運転車にとって非常に重要な情報である。
論文 参考訳(メタデータ) (2020-02-20T18:50:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。