論文の概要: A Data-Driven Approach for Finding Requirements Relevant Feedback from
TikTok and YouTube
- arxiv url: http://arxiv.org/abs/2305.01796v4
- Date: Mon, 24 Jul 2023 21:35:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 12:12:36.664817
- Title: A Data-Driven Approach for Finding Requirements Relevant Feedback from
TikTok and YouTube
- Title(参考訳): TikTokとYouTubeからの要求関連フィードバックを見つけるためのデータ駆動アプローチ
- Authors: Manish Sihag, Ze Shi Li, Amanda Dash, Nowshin Nawar Arony, Kezia
Devathasan, Neil Ernst, Alexandra Albu, Daniela Damian
- Abstract要約: この研究は、ビデオコンテンツに焦点を当てた2つの広く使われているソーシャルメディアプラットフォームであるTikTokとYouTubeの可能性を掘り下げるものだ。
各種産業における20種類の人気商品の6276件のビデオから,音声・ビジュアルテキスト,メタデータ(説明・タイトル)を解析し,ユーザフィードバックの源泉としてビデオの展望を評価した。
製品評価(機能、設計、パフォーマンス)、バグレポート、使用法チュートリアルがビデオから永続的なテーマであることが分かりました。
- 参考スコア(独自算出の注目度): 37.87427796354001
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The increasing importance of videos as a medium for engagement,
communication, and content creation makes them critical for organizations to
consider for user feedback. However, sifting through vast amounts of video
content on social media platforms to extract requirements-relevant feedback is
challenging. This study delves into the potential of TikTok and YouTube, two
widely used social media platforms that focus on video content, in identifying
relevant user feedback that may be further refined into requirements using
subsequent requirement generation steps. We evaluated the prospect of videos as
a source of user feedback by analyzing audio and visual text, and metadata
(i.e., description/title) from 6276 videos of 20 popular products across
various industries. We employed state-of-the-art deep learning
transformer-based models, and classified 3097 videos consisting of requirements
relevant information. We then clustered relevant videos and found multiple
requirements relevant feedback themes for each of the 20 products. This
feedback can later be refined into requirements artifacts. We found that
product ratings (feature, design, performance), bug reports, and usage tutorial
are persistent themes from the videos. Video-based social media such as TikTok
and YouTube can provide valuable user insights, making them a powerful and
novel resource for companies to improve customer-centric development.
- Abstract(参考訳): エンゲージメント、コミュニケーション、コンテンツ作成の媒体としてビデオの重要性が増すことで、組織がユーザフィードバックを検討することが重要である。
しかし、ソーシャルメディアプラットフォーム上で大量のビデオコンテンツを使って要求関連フィードバックを抽出することは困難である。
この研究は、ビデオコンテンツに焦点を当てたソーシャルメディアプラットフォームであるtiktokとyoutubeの可能性を探り、関連するユーザーフィードバックを特定し、その後の要件生成ステップで要件をさらに洗練する可能性がある。
各種産業における20種類の人気商品の6276件のビデオから,音声・ビジュアルテキスト,メタデータ(説明・タイトル)を解析し,ユーザフィードバックの源泉としてビデオの展望を評価した。
最先端のディープラーニングトランスフォーマーモデルを採用し,要求情報からなる3097本の映像を分類した。
そして、関連するビデオを集めて、20の製品ごとに複数の要求に関連するフィードバックテーマを見つけました。
このフィードバックは後に要件アーティファクトに洗練される。
製品評価(機能、設計、パフォーマンス)、バグレポート、使用法チュートリアルがビデオから永続的なテーマであることが分かりました。
TikTokやYouTubeのようなビデオベースのソーシャルメディアは、価値あるユーザーインサイトを提供し、企業が顧客中心の開発を改善するための強力で斬新なリソースとなる。
関連論文リスト
- HOTVCOM: Generating Buzzworthy Comments for Videos [49.39846630199698]
この研究は、中国最大のビデオコンテンツデータセットであるtextscHotVComを紹介し、94万の多様なビデオと1億1700万のコメントからなる。
また、中国語のビデオデータセット上で、視覚的、聴覚的、テキスト的データを相乗的に統合し、影響力のあるホットコンテンツを生成するtexttComHeatフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-23T16:45:13Z) - Needle In A Video Haystack: A Scalable Synthetic Evaluator for Video MLLMs [20.168429351519055]
ビデオ理解はマルチモーダル大言語モデル(LMLM)にとって重要な次のステップである
合成ビデオ生成によるベンチマーク構築フレームワークであるVideoNIAH(Video Needle In A Haystack)を提案する。
我々は、プロプライエタリモデルとオープンソースモデルの両方を包括的に評価し、ビデオ理解能力の重大な違いを明らかにする。
論文 参考訳(メタデータ) (2024-06-13T17:50:05Z) - Detours for Navigating Instructional Videos [58.1645668396789]
We propose VidDetours, a video-lang approach that learn to retrieve the target temporal segments from a large repository of how-to's。
本稿では,ビデオ検索と質問応答の最良の方法に比べて,モデルが大幅に改善し,リコール率が35%を超えることを示す。
論文 参考訳(メタデータ) (2024-01-03T16:38:56Z) - Video-Bench: A Comprehensive Benchmark and Toolkit for Evaluating
Video-based Large Language Models [81.84810348214113]
ビデオベースの大規模言語モデル(Video-LLMs)が最近導入され、認識と理解の基本的な改善と多様なユーザからの問い合わせの両方をターゲットにしている。
このようなモデルの開発を導くため、堅牢で包括的な評価システムの構築が重要となる。
本稿では,ビデオLLMの評価に特化して設計されたツールキットとともに,新しい総合的なベンチマークであるtextitVideo-Benchを提案する。
論文 参考訳(メタデータ) (2023-11-27T18:59:58Z) - VTC: Improving Video-Text Retrieval with User Comments [22.193221760244707]
本稿では,ビデオ,タイトル,コメントの新しいデータセットを紹介する。
コメントを用いることで、画像、ビデオ、音声の表現をより良く、より文脈的に学習することができる。
論文 参考訳(メタデータ) (2022-10-19T18:11:39Z) - CLUE: Contextualised Unified Explainable Learning of User Engagement in
Video Lectures [6.25256391074865]
本稿では,オンライン授業ビデオから抽出した特徴から学習する統合モデルCLUEを提案する。
我々のモデルは、言語、文脈情報、配信されたコンテンツのテキスト感情の複雑さをモデル化するために、様々なマルチモーダル機能を利用する。
論文 参考訳(メタデータ) (2022-01-14T19:51:06Z) - APES: Audiovisual Person Search in Untrimmed Video [87.4124877066541]
音声人物探索データセット(APES)について述べる。
APESには36時間のビデオにラベル付けされた1,9K以上のIDが含まれている。
APESの重要な特徴は、顔と同一アイデンティティの音声セグメントをリンクする密集した時間アノテーションを含むことである。
論文 参考訳(メタデータ) (2021-06-03T08:16:42Z) - Comprehensive Information Integration Modeling Framework for Video
Titling [124.11296128308396]
エンド・ツー・エンド・エンド・モデリング・フレームワークにおいて、消費者生成ビデオの内容、消費者から提供される物語コメント文、製品属性などの包括的情報ソースを統合する。
この問題に対処するため,提案手法は,粒度レベルの相互作用モデリングと抽象レベルのストーリーライン要約という2つのプロセスから構成される。
グローバルなeコマースプラットフォームであるTaobaoの実際のデータから、大規模なデータセットを収集します。
論文 参考訳(メタデータ) (2020-06-24T10:38:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。