論文の概要: Developers Who Vlog: Dismantling Stereotypes through Community and
Identity
- arxiv url: http://arxiv.org/abs/2109.06302v1
- Date: Mon, 13 Sep 2021 20:26:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-15 05:10:35.035233
- Title: Developers Who Vlog: Dismantling Stereotypes through Community and
Identity
- Title(参考訳): vlog開発者: コミュニティとアイデンティティを通じてステレオタイプを分解する
- Authors: Souti Chattopadhyay, Denae Ford, Thomas Zimmermann
- Abstract要約: われわれは、YouTubeのvlogsを通じて、開発者が自分の人生の1日をどう記述するかを学ぶために、3つの研究を行った。
我々は、このコンテンツを作成する動機を特定するためにvloggした16の開発者にインタビューした。
我々は130のvlog(ビデオブログ)を分析し、ビデオを通して配信されるコンテンツの範囲を分析した。
- 参考スコア(独自算出の注目度): 18.33130097682978
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Developers are more than "nerds behind computers all day", they lead a normal
life, and not all take the traditional path to learn programming. However, the
public still sees software development as a profession for "math wizards". To
learn more about this special type of knowledge worker from their first-person
perspective, we conducted three studies to learn how developers describe a day
in their life through vlogs on YouTube and how these vlogs were received by the
broader community. We first interviewed 16 developers who vlogged to identify
their motivations for creating this content and their intention behind what
they chose to portray. Second, we analyzed 130 vlogs (video blogs) to
understand the range of the content conveyed through videos. Third, we analyzed
1176 comments from the 130 vlogs to understand the impact the vlogs have on the
audience. We found that developers were motivated to promote and build a
diverse community, by sharing different aspects of life that define their
identity, and by creating awareness about learning and career opportunities in
computing. They used vlogs to share a variety of how software developers work
and live -- showcasing often unseen experiences, including intimate moments
from their personal life. From our comment analysis, we found that the vlogs
were valuable to the audience to find information and seek advice. Commenters
sought opportunities to connect with others over shared triumphs and trials
they faced that were also shown in the vlogs. As a central theme, we found that
developers use vlogs to challenge the misconceptions and stereotypes around
their identity, work-life, and well-being. These social stigmas are obstacles
to an inclusive and accepting community and can deter people from choosing
software development as a career. We also discuss the implications of using
vlogs to support developers, researchers, and beyond.
- Abstract(参考訳): 開発者は"一日中コンピュータのオタク"以上の存在であり、普通の生活を導いており、すべてがプログラミングを学ぶ伝統的な道を歩むわけではありません。
しかし、一般大衆はソフトウェア開発を「マスウィザード」の専門職と見なしている。
この特別なタイプの知識ワーカーについて、ファーストパーソンの視点から詳しく知るために、youtube上のvlogsを通じて開発者が人生の一日をどのように表現するか、そして、これらのvlogがより広いコミュニティによってどのように受信されたかを学ぶために、3つの研究を行った。
われわれはまず16人のデベロッパーにインタビューし、このコンテンツを作る動機と、彼らが描いたものの背後にある意図を尋ねた。
第2に、130のvlog(ビデオブログ)を分析し、ビデオを通して伝達されるコンテンツの範囲を理解する。
第3に、130のvlogsからの1176のコメントを分析し、vlogsが聴衆に与える影響を理解する。
開発者は、アイデンティティを定義する生活のさまざまな側面を共有し、コンピューティングにおける学習とキャリアの機会に対する意識を作ることによって、多様なコミュニティの促進と構築を動機付けることが分かりました。
彼らはvlogsを使って、ソフトウェア開発者の働き方や生活の仕方を共有しました。
コメント分析の結果,vlogは聴衆に価値があり,情報を見つけ,アドバイスを求めることができた。
コメンテーターは、vlogsで見られるような勝利と試練を共有することで、他の人とつながる機会を求めた。
中心的なテーマとして、開発者はvlogを使って、アイデンティティ、ワークライフ、幸福に関する誤解やステレオタイプに挑戦しています。
これらの社会的スティグマは包括的で受け入れられるコミュニティの障害であり、人々がキャリアとしてソフトウェア開発を選択するのを妨げます。
また、開発者や研究者などをサポートするためにvlogsを使うことの意味についても論じる。
関連論文リスト
- A Vlogger-augmented Graph Neural Network Model for Micro-video Recommendation [7.54949302096348]
本稿では, vloggers の効果を考慮した vlogger-augmented graph neural network model VA-GNN を提案する。
具体的には、ユーザ、マイクロビデオ、vloggerをノードとして三部グラフを構築し、異なるビューからユーザの好みをキャプチャする。
次のユーザとビデオのインタラクションを予測する際に、ビデオ自体とvloggerに対するユーザの好みを適応的に組み合わせます。
論文 参考訳(メタデータ) (2024-05-28T15:13:29Z) - Vlogger: Make Your Dream A Vlog [67.50445251570173]
Vloggerは、ユーザ記述のミニレベルビデオブログ(vlog)を生成する汎用AIシステムである。
Script, (2) Actor, (3) ShowMaker, (4) Voicer など,vlog のプロフェッショナルにとって重要な役割を果たすために,様々な基礎モデルを実行します。
Vloggerは、スクリプトとアクターのビデオコヒーレンスを失うことなく、オープンワールドの説明から5分以上のvlogを生成することができる。
論文 参考訳(メタデータ) (2024-01-17T18:55:12Z) - How Would The Viewer Feel? Estimating Wellbeing From Video Scenarios [73.24092762346095]
情緒応答と主観的幸福感に注釈を付けた6万本以上のビデオを備えた大規模データセットを2つ導入した。
Video Cognitive Empathyデータセットには、微粒な感情応答の分布のためのアノテーションが含まれており、モデルが感情状態の詳細な理解を得ることができる。
Video to Valenceデータセットには、ビデオ間の相対的な快適性のアノテーションが含まれている。
論文 参考訳(メタデータ) (2022-10-18T17:58:25Z) - LiveSeg: Unsupervised Multimodal Temporal Segmentation of Long
Livestream Videos [82.48910259277984]
ライブストリームのチュートリアルビデオは通常数時間、録画され、ライブセッションの直後に直接インターネットにアップロードされるため、他の人がすぐに追いつくのが難しくなる。
アウトラインは有益なソリューションであり、トピックに応じてビデオが時間的にセグメント化される必要がある。
我々は、異なるドメインのマルチモーダル機能を生かした、教師なしのLivestreamビデオテンポラルソリューションLiveSegを提案する。
論文 参考訳(メタデータ) (2022-10-12T00:08:17Z) - More Than a Wife and a Mom: A Study of Mom Vlogging Practices in China [10.11333580226888]
母親のvloggerは自宅にいる母親で、短いビデオで自分の日常生活を記録、共有している。
当社の混合メソッド検査では、中国の4人の母親vloggerとのインタビューと、他の5人の母親vloggerの母親vlogsのコンテンツ分析が含まれています。
ママ・ヴロガースの主な動機は、お金を稼ぐこと、日々の生活を記録し、個々のアイデンティティと価値観を求めることである。
論文 参考訳(メタデータ) (2022-06-23T17:18:52Z) - Self-Supervised Learning for Videos: A Survey [70.37277191524755]
自己教師型学習は、画像ドメインとビデオドメインの両方で有望である。
本稿では,ビデオ領域に着目した自己教師型学習における既存のアプローチについて概観する。
論文 参考訳(メタデータ) (2022-06-18T00:26:52Z) - Subjective and Objective Analysis of Streamed Gaming Videos [60.32100758447269]
ゲームビデオにおける主観的および客観的ビデオ品質評価(VQA)モデルについて検討する。
LIVE-YouTube Gaming Video Quality (LIVE-YT-Gaming) と呼ばれる新しいゲームビデオリソースを作成しました。
このデータについて主観的人間調査を行い,61名の被験者が記録した品質評価18,600名を得た。
論文 参考訳(メタデータ) (2022-03-24T03:02:57Z) - Reel Life vs. Real Life: How Software Developers Share Their Daily Life
through Vlogs [18.33130097682978]
われわれは、YouTube上のソフトウェア開発者130のvlogを分析し、335人のソフトウェア開発者を対象に大規模なソフトウェア企業を対象に調査を行った。
Vlogはコーディングやコード周辺活動などの従来の開発活動(11%)を呈するが、健康とライフスタイル関連活動(47.3%)も顕著に特徴付けられる。
また、ソフトウェア会社の開発者は、多様性を促進するためにモックアップのvlogを作成するように頼まれたときに、より非コーディングタスクを共有する傾向にあることもわかりました。
論文 参考訳(メタデータ) (2021-07-14T22:16:53Z) - What is More Likely to Happen Next? Video-and-Language Future Event
Prediction [111.93601253692165]
対話が整ったビデオの場合、人々は次に何が起こるかを見極めることができる。
本研究では,AIモデルがこのようなマルチモーダル・コモンセンスの次世代予測を学べるかどうかを考察する。
新しいデータセットであるVideo-and-Language Event Prediction(ビデオ・アンド・ランゲージ・イベント予測)を収集します。
論文 参考訳(メタデータ) (2020-10-15T19:56:47Z) - HLVU : A New Challenge to Test Deep Understanding of Movies the Way
Humans do [3.423039905282442]
本稿では,ハイレベル映像理解分野における新たな評価課題と方向性を提案する。
私たちが提案している課題は、自動ビデオ分析と理解のテストと、アクター、エンティティ、イベント、そしてそれらの関係について、いかに正確に映画を理解できるかをテストすることである。
オープンソースの映画のハイレベルビデオ理解データセットを試験的に収集し、人間の評価者がそれぞれを表現する知識グラフを構築した。
クエリのセットは、知識グラフから派生し、アクター間の関係を検索するシステムをテストするとともに、非視覚的概念の推論と検索を行う。
論文 参考訳(メタデータ) (2020-05-01T15:58:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。