論文の概要: DIVERSE: Deciphering Internet Views on the U.S. Military Through Video
Comment Stance Analysis, A Novel Benchmark Dataset for Stance Classification
- arxiv url: http://arxiv.org/abs/2403.03334v1
- Date: Tue, 5 Mar 2024 21:36:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-07 16:40:51.824077
- Title: DIVERSE: Deciphering Internet Views on the U.S. Military Through Video
Comment Stance Analysis, A Novel Benchmark Dataset for Stance Classification
- Title(参考訳): DIVERSE: ビデオコメントスタンス分析によるアメリカ軍のインターネットビューの解読 - スタンス分類のための新しいベンチマークデータセット
- Authors: Iain J. Cruickshank, Lynnette Hui Xian Ng
- Abstract要約: 本稿は、米軍のビデオに対する姿勢を示す173,000以上のYouTubeビデオコメントのデータセットであるDIVERSEを紹介する。
このスタンスは、人間が指導する機械支援ラベリング手法を通じて注釈付けされている。
平均すると、ビデオにはそれぞれ200のコメントがあり、コメントのスタンスは「アゲインスト」のキャラクタリゼーションに対してわずかに傾いている。
- 参考スコア(独自算出の注目度): 1.6317061277457001
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Stance detection of social media text is a key component of downstream tasks
involving the identification of groups of users with opposing opinions on
contested topics such as vaccination and within arguments. In particular,
stance provides an indication of an opinion towards an entity. This paper
introduces DIVERSE, a dataset of over 173,000 YouTube video comments annotated
for their stance towards videos of the U.S. military. The stance is annotated
through a human-guided, machine-assisted labeling methodology that makes use of
weak signals of tone within the sentence as supporting indicators, as opposed
to using manual annotations by humans. These weak signals consist of the
presence of hate speech and sarcasm, the presence of specific keywords, the
sentiment of the text, and the stance inference from two Large Language Models.
The weak signals are then consolidated using a data programming model before
each comment is annotated with a final stance label. On average, the videos
have 200 comments each, and the stance of the comments skews slightly towards
the "against" characterization for both the U.S. Army and the videos posted on
the channel.
- Abstract(参考訳): ソーシャルメディアテキストのスタンス検出は、予防接種や議論などの争点における反対意見を持つユーザグループの識別を含む下流タスクの重要な要素である。
特に、姿勢は、エンティティに対する意見の表示を提供する。
本稿は、米軍のビデオに対する姿勢を示す173,000以上のYouTubeビデオコメントのデータセットであるDIVERSEを紹介する。
この姿勢は、人間による手動アノテーションとは対照的に、文中のトーンの弱いシグナルを指標として利用する、人間の指示による機械支援のラベル付け手法によってアノテートされる。
これらの弱い信号は、ヘイトスピーチと皮肉の存在、特定のキーワードの存在、テキストの感情、および2つの大きな言語モデルからのスタンス推論から成り立っている。
弱い信号は、各コメントが最終スタンスラベルで注釈付けされる前に、データプログラミングモデルを使用して統合される。
平均すると、ビデオには200のコメントがあり、コメントの姿勢は、アメリカ陸軍とチャンネルに投稿されたビデオの両方の「アゲインスト」的な特徴にわずかに向けられている。
関連論文リスト
- Micro-video Tagging via Jointly Modeling Social Influence and Tag
Relation [56.23157334014773]
85.7%のマイクロビデオにはアノテーションがない。
既存の手法は、主にビデオコンテンツの分析、ユーザの社会的影響やタグ関係を無視することに焦点を当てている。
構築したヘテロジニアスネットワークにおけるリンク予測問題として,マイクロビデオタギングを定式化する。
論文 参考訳(メタデータ) (2023-03-15T02:13:34Z) - Models See Hallucinations: Evaluating the Factuality in Video Captioning [57.85548187177109]
ビデオキャプションにおける実感の人間による評価を行い、2つの注釈付き実感データセットを収集する。
モデル生成文の57.0%に事実誤りがあり、この分野では深刻な問題であることを示す。
本稿では,映像キャプションの事実性評価において,従来の指標より優れていたモデルベース事実性指標FactVCを提案する。
論文 参考訳(メタデータ) (2023-03-06T08:32:50Z) - Automatic dense annotation of large-vocabulary sign language videos [85.61513254261523]
自動アノテーションの密度を大幅に高めるための,シンプルでスケーラブルなフレームワークを提案する。
これらのアノテーションは手話研究コミュニティをサポートするために公開されています。
論文 参考訳(メタデータ) (2022-08-04T17:55:09Z) - Parsimonious Argument Annotations for Hate Speech Counter-narratives [4.825848785596437]
本稿では、ヘイトスピーチツイートのHatevalコーパス(Basile et al.)を充実させ、自動対ナラティブ生成を容易にする。
我々はまた、Wagemannsに基づく議論的な情報付きツイートを注釈付けし、特定のグループに対するヘイトスピーチに対して、説得力があり効果的な反ナラティブを構築するのに役立つと信じている。
予備的な結果は、自動アノテータが人間のアノテータに近づき、議論のいくつかの側面を検知する一方で、他のアノテータは低レベルまたは中程度のアノテータ間合意にしか到達しないことを示している。
論文 参考訳(メタデータ) (2022-08-01T18:58:32Z) - Anti-Asian Hate Speech Detection via Data Augmented Semantic Relation
Inference [4.885207279350052]
本稿では,自然言語推論フレームワークにおけるヘイトスピーチ検出を強化するために,感情ハッシュタグを活用する新しい手法を提案する。
我々は,(1)オンライン投稿と感情ハッシュタグ間の意味的関係推論,(2)これらの投稿に対する感情分類の2つのタスクを同時に実行する新しいフレームワークSRICを設計する。
論文 参考訳(メタデータ) (2022-04-14T15:03:35Z) - Discourse Analysis for Evaluating Coherence in Video Paragraph Captions [99.37090317971312]
ビデオ段落のコヒーレンスを評価するための,新しい談話に基づく枠組みを検討中である。
ビデオのコヒーレンスに条件付き段落のコヒーレンスをモデル化する上で,ビデオの談話表現が中心となる。
実験の結果,提案手法は,ビデオ段落のコヒーレンスをベースライン法よりも有意に向上させることがわかった。
論文 参考訳(メタデータ) (2022-01-17T04:23:08Z) - Classifying YouTube Comments Based on Sentiment and Type of Sentence [0.0]
我々は、よく知られた統計測度と機械学習モデルを用いて、YouTubeコメントからのテキスト抽出と分類の課題に対処する。
その結果,従来の手法を取り入れた手法が,コンテンツ制作者のチャンネルにおける視聴者エンゲージメント向上に有効であることを示す。
論文 参考訳(メタデータ) (2021-10-31T18:08:10Z) - Watch and Learn: Mapping Language and Noisy Real-world Videos with
Self-supervision [54.73758942064708]
我々は、明示的なアノテーションを使わずに、文章と騒々しいビデオスニペットのマッピングを学習することで、視覚と自然言語を理解するように機械に教える。
トレーニングと評価のために、多数のオンラインビデオとサブタイトルを含む新しいデータセットApartmenTourをコントリビュートする。
論文 参考訳(メタデータ) (2020-11-19T03:43:56Z) - "Notic My Speech" -- Blending Speech Patterns With Multimedia [65.91370924641862]
音声認識と理解における視点依存と視覚的重要性の両方をモデル化するための視点時間的注意機構を提案する。
提案手法は, ビセム誤差率において, 既存の作業よりも4.99%優れていた。
モデルでは,多視点音声に対する理解と人間の知覚との間に強い相関関係があることが示されている。
論文 参考訳(メタデータ) (2020-06-12T06:51:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。