論文の概要: The Potential of Using Vision Videos for CrowdRE: Video Comments as a
Source of Feedback
- arxiv url: http://arxiv.org/abs/2108.02076v1
- Date: Wed, 4 Aug 2021 14:18:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-05 13:23:21.824373
- Title: The Potential of Using Vision Videos for CrowdRE: Video Comments as a
Source of Feedback
- Title(参考訳): crowdreにおける視覚ビデオの利用の可能性: フィードバックの源としての動画コメント
- Authors: Oliver Karras, Eklekta Kristo, Jil Kl\"under
- Abstract要約: 我々は、CrowdREで視覚ビデオを使用する可能性を分析し、評価する。
ケーススタディでは、YouTubeのヴィジュアルビデオに対する4505のコメントを分析した。
CrowdREの視覚ビデオの利用は大きな可能性を秘めていると結論付けている。
- 参考スコア(独自算出の注目度): 0.8594140167290097
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vision videos are established for soliciting feedback and stimulating
discussions in requirements engineering (RE) practices, such as focus groups.
Different researchers motivated the transfer of these benefits into crowd-based
RE (CrowdRE) by using vision videos on social media platforms. So far, however,
little research explored the potential of using vision videos for CrowdRE in
detail. In this paper, we analyze and assess this potential, in particular,
focusing on video comments as a source of feedback. In a case study, we
analyzed 4505 comments on a vision video from YouTube. We found that the video
solicited 2770 comments from 2660 viewers in four days. This is more than 50%
of all comments the video received in four years. Even though only a certain
fraction of these comments are relevant to RE, the relevant comments address
typical intentions and topics of user feedback, such as feature request or
problem report. Besides the typical user feedback categories, we found more
than 300 comments that address the topic safety, which has not appeared in
previous analyses of user feedback. In an automated analysis, we compared the
performance of three machine learning algorithms on classifying the video
comments. Despite certain differences, the algorithms classified the video
comments well. Based on these findings, we conclude that the use of vision
videos for CrowdRE has a large potential. Despite the preliminary nature of the
case study, we are optimistic that vision videos can motivate stakeholders to
actively participate in a crowd and solicit numerous of video comments as a
valuable source of feedback.
- Abstract(参考訳): ビジョンビデオは、フォーカスグループのような要求工学(re)プラクティスにおけるフィードバックと議論を刺激するために確立される。
さまざまな研究者が、ソーシャルメディアプラットフォーム上でビジョンビデオを使用することで、これらのメリットをクラウドベースのRE(CrowdRE)に移行した。
しかし、今のところ、CrowdREにビジョンビデオを使う可能性について詳しく調べる研究はほとんどない。
本稿では,特にフィードバックの源としてビデオコメントに着目して,その可能性を分析し,評価する。
ケーススタディでは、YouTubeのビジョンビデオに対する4505のコメントを分析した。
4日間で2660人の視聴者から2770人のコメントが寄せられた。
これは、ビデオが4年間で受け取ったコメントの50%以上である。
これらのコメントのごく一部だけがREに関連するが、関連するコメントは、機能要求や問題報告などのユーザからのフィードバックの典型的な意図やトピックに対処する。
一般的なユーザフィードバックのカテゴリ以外にも,これまでのユーザフィードバックの分析では示されていなかったトピックの安全性に対処するコメントが300以上あった。
自動分析により,ビデオコメントの分類における3つの機械学習アルゴリズムの性能を比較した。
違いはあるものの、アルゴリズムはビデオのコメントをうまく分類した。
これらの結果から,CrowdREにおける視覚ビデオの利用は大きな可能性を秘めていると結論付けた。
このケーススタディの予備的な性質にもかかわらず、私たちはビジョンビデオが利害関係者を積極的に参加させ、多くのビデオコメントを貴重なフィードバック源として求めていることを楽観的に見ている。
関連論文リスト
- HOTVCOM: Generating Buzzworthy Comments for Videos [49.39846630199698]
この研究は、中国最大のビデオコンテンツデータセットであるtextscHotVComを紹介し、94万の多様なビデオと1億1700万のコメントからなる。
また、中国語のビデオデータセット上で、視覚的、聴覚的、テキスト的データを相乗的に統合し、影響力のあるホットコンテンツを生成するtexttComHeatフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-23T16:45:13Z) - Infer Induced Sentiment of Comment Response to Video: A New Task, Dataset and Baseline [30.379212611361893]
既存のビデオマルチモーダル感情分析は、主にビデオ内の人々の感情表現に焦点を当てているが、ビデオを見ながら視聴者の感情を無視することが多い。
マイクロビデオに対するコメント応答に応じて、意見や感情を推測するためのマルチモーダル感性分析(MSA-CRVI)を提案する。
107,267のコメントと8,210のマイクロビデオを含み、68.83時間である。
論文 参考訳(メタデータ) (2024-05-15T10:24:54Z) - ViCo: Engaging Video Comment Generation with Human Preference Rewards [68.50351391812723]
ビデオコメント生成の課題に対処するために,3つの新しいデザインのViCoを提案する。
コメントのエンゲージメントを定量化するために、各コメントが受け取る「いいね!
コメントのエンゲージメントを自動的に評価するために、我々は報酬モデルをトレーニングし、その判断を上記のプロキシに合わせる。
論文 参考訳(メタデータ) (2023-08-22T04:01:01Z) - FunQA: Towards Surprising Video Comprehension [64.58663825184958]
本稿では,挑戦的なビデオ質問応答データセットであるFunQAを紹介する。
FunQAはHumorQA、CreativeQA、MagicQAの3種類の驚くべきビデオをカバーしている。
FunQAベンチマークは4.3Kビデオクリップから派生した312KのフリーテキストQAペアで構成されている。
論文 参考訳(メタデータ) (2023-06-26T17:59:55Z) - A Data-Driven Approach for Finding Requirements Relevant Feedback from
TikTok and YouTube [37.87427796354001]
この研究は、ビデオコンテンツに焦点を当てた2つの広く使われているソーシャルメディアプラットフォームであるTikTokとYouTubeの可能性を掘り下げるものだ。
各種産業における20種類の人気商品の6276件のビデオから,音声・ビジュアルテキスト,メタデータ(説明・タイトル)を解析し,ユーザフィードバックの源泉としてビデオの展望を評価した。
製品評価(機能、設計、パフォーマンス)、バグレポート、使用法チュートリアルがビデオから永続的なテーマであることが分かりました。
論文 参考訳(メタデータ) (2023-05-02T21:47:06Z) - How Would The Viewer Feel? Estimating Wellbeing From Video Scenarios [73.24092762346095]
情緒応答と主観的幸福感に注釈を付けた6万本以上のビデオを備えた大規模データセットを2つ導入した。
Video Cognitive Empathyデータセットには、微粒な感情応答の分布のためのアノテーションが含まれており、モデルが感情状態の詳細な理解を得ることができる。
Video to Valenceデータセットには、ビデオ間の相対的な快適性のアノテーションが含まれている。
論文 参考訳(メタデータ) (2022-10-18T17:58:25Z) - YouTube Ad View Sentiment Analysis using Deep Learning and Machine
Learning [0.0]
本研究では,Linear Regression (LR), Support Vector Machine (SVM), Decision Tree (DT), Random Forest (RF), Artificial Neural Network (ANN)といったディープラーニングと機械学習アルゴリズムを用いたYouTube Ad Viewの感情を予測する。
論文 参考訳(メタデータ) (2022-05-23T06:55:34Z) - Subjective and Objective Analysis of Streamed Gaming Videos [60.32100758447269]
ゲームビデオにおける主観的および客観的ビデオ品質評価(VQA)モデルについて検討する。
LIVE-YouTube Gaming Video Quality (LIVE-YT-Gaming) と呼ばれる新しいゲームビデオリソースを作成しました。
このデータについて主観的人間調査を行い,61名の被験者が記録した品質評価18,600名を得た。
論文 参考訳(メタデータ) (2022-03-24T03:02:57Z) - Classifying YouTube Comments Based on Sentiment and Type of Sentence [0.0]
我々は、よく知られた統計測度と機械学習モデルを用いて、YouTubeコメントからのテキスト抽出と分類の課題に対処する。
その結果,従来の手法を取り入れた手法が,コンテンツ制作者のチャンネルにおける視聴者エンゲージメント向上に有効であることを示す。
論文 参考訳(メタデータ) (2021-10-31T18:08:10Z) - Mi YouTube es Su YouTube? Analyzing the Cultures using YouTube
Thumbnails of Popular Videos [98.87558262467257]
本研究では,YouTubeのトレンド動画のサムネイルを用いて,各国の文化選好について検討した。
実験の結果、類似文化のユーザーはYouTubeで同様のビデオを見ることに興味を持っていることがわかった。
論文 参考訳(メタデータ) (2020-01-27T20:15:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。