論文の概要: Image-based Communication on Social Coding Platforms
- arxiv url: http://arxiv.org/abs/2306.15851v1
- Date: Wed, 28 Jun 2023 00:56:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 18:44:57.572655
- Title: Image-based Communication on Social Coding Platforms
- Title(参考訳): ソーシャルコーディングプラットフォームにおける画像ベースコミュニケーション
- Authors: Maleknaz Nayebi and Bram Adams
- Abstract要約: 2013年から2022年の間に、BugzillaとStack Overflowの画像データを含む投稿数が倍増した。
開発者の投稿に画像が含まれている場合の大部分では、その画像の情報は提供されるテキストに補完される。
- 参考スコア(独自算出の注目度): 10.198163298410625
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visual content in the form of images and videos has taken over
general-purpose social networks in a variety of ways, streamlining and
enriching online communications. We are interested to understand if and to what
extent the use of images is popular and helpful in social coding platforms. We
mined nine years of data from two popular software developers' platforms: the
Mozilla issue tracking system, i.e., Bugzilla, and the most well-known platform
for developers' Q/A, i.e., Stack Overflow. We further triangulated and extended
our mining results by performing a survey with 168 software developers. We
observed that, between 2013 and 2022, the number of posts containing image data
on Bugzilla and Stack Overflow doubled. Furthermore, we found that sharing
images makes other developers engage more and faster with the content. In the
majority of cases in which an image is included in a developer's post, the
information in that image is complementary to the text provided. Finally, our
results showed that when an image is shared, understanding the content without
the information in the image is unlikely for 86.9\% of the cases. Based on
these observations, we discuss the importance of considering visual content
when analyzing developers and designing automation tools.
- Abstract(参考訳): 画像やビデオの形でのビジュアルコンテンツは、様々な方法で汎用ソーシャルネットワークを乗っ取り、オンラインコミュニケーションの合理化と強化を行っている。
私たちは、画像の利用がソーシャルコーディングプラットフォームで人気があり、どの程度役に立つかを理解することに興味があります。
MozillaのイシュートラッキングシステムであるBugzillaと、開発者のQ/A、すなわちStack Overflowで最も有名なプラットフォームである。
我々はさらに168人のソフトウェア開発者を対象に調査を行い、鉱業結果を三角測量し拡張した。
2013年から2022年の間に、BugzillaとStack Overflowの画像データを含む投稿数は倍増した。
さらに、画像を共有することで、他の開発者がコンテンツにより速く関わります。
画像が開発者の投稿に含まれている場合の大半では、画像内の情報は提供されたテキストに補完される。
最後に,画像が共有された場合,画像内の情報を持たないコンテンツを理解することは,86.9\%のケースではありそうにないことを示した。
これらの観察に基づいて、開発者の分析や自動化ツールの設計において、ビジュアルコンテンツを検討することの重要性について論じる。
関連論文リスト
- MMPKUBase: A Comprehensive and High-quality Chinese Multi-modal Knowledge Graph [13.098964050074438]
MMPKUBaseは中国のマルチモーダルな知識グラフで、鳥類、哺乳類、シダなどさまざまな領域を網羅している。
画像データを改良するために,原型コントラスト学習と分離フォレストアルゴリズムを用いる。
論文 参考訳(メタデータ) (2024-08-03T06:35:54Z) - Negative Results of Image Processing for Identifying Duplicate Questions on Stack Overflow [2.2667044928324747]
Stack Overflow上の重複した質問を識別するための画像ベース手法について検討した。
まず,画像からのテキストを疑問テキストに統合し,第2に画像キャプションを用いて視覚的内容に基づいて画像を評価する。
私たちの研究は、簡単な複製と仮説検証の基盤を築き、将来の研究を私たちのアプローチの上に構築します。
論文 参考訳(メタデータ) (2024-07-08T00:14:21Z) - xT: Nested Tokenization for Larger Context in Large Images [79.37673340393475]
xTは、グローバルコンテキストを局所的な詳細で集約するビジョントランスフォーマーのフレームワークである。
我々は、挑戦的な分類タスクにおいて、精度を最大8.6%向上させることができる。
論文 参考訳(メタデータ) (2024-03-04T10:29:58Z) - Into the LAIONs Den: Investigating Hate in Multimodal Datasets [67.21783778038645]
本稿では、LAION-400MとLAION-2Bの2つのデータセットの比較監査を通して、ヘイトフルコンテンツに対するデータセットのスケーリングの効果について検討する。
その結果、データセットのスケールによってヘイトコンテンツは12%近く増加し、質的にも定量的にも測定された。
また、画像のみに基づいて算出されたNot Safe For Work(NSFW)値に基づくデータセットの内容のフィルタリングは、アルトテキストにおける有害なコンテンツをすべて排除するものではないことがわかった。
論文 参考訳(メタデータ) (2023-11-06T19:00:05Z) - Identifying Professional Photographers Through Image Quality and
Aesthetics in Flickr [0.0]
本研究では,写真とビデオの共有プラットフォームに適切なデータセットが存在しないことを明らかにする。
我々は、オープンソースのマルチモーダルデータを用いて、Flickrで最大のラベル付きデータセットの1つを作成しました。
画像の審美性と技術的品質と,その画像の社会的活動との関係について検討した。
論文 参考訳(メタデータ) (2023-07-04T14:55:37Z) - Harnessing the Power of Text-image Contrastive Models for Automatic
Detection of Online Misinformation [50.46219766161111]
誤情報識別の領域における構成的学習を探求する自己学習モデルを構築した。
本モデルでは、トレーニングデータが不十分な場合、非マッチング画像-テキストペア検出の優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-19T02:53:59Z) - Structuring User-Generated Content on Social Media with Multimodal
Aspect-Based Sentiment Analysis [2.023920009396818]
本稿では、機械学習がこれらのデータベースをどの程度分析し、構成できるかを示す。
自動データ分析パイプラインがデプロイされ、他のドメインの研究者のためにユーザ生成コンテンツに関する洞察を提供する。
論文 参考訳(メタデータ) (2022-10-27T12:38:10Z) - Dataset and Case Studies for Visual Near-Duplicates Detection in the
Context of Social Media [11.569861200214294]
視覚的に類似したコンテンツの追跡は、そのようなコンテンツの拡散に関連する社会現象を研究・分析する上で重要な課題である。
ソーシャルメディア画像のデータセットを構築し、画像検索といくつかの高度な視覚特徴抽出手法に基づいて視覚近距離検索手法を評価する。
論文 参考訳(メタデータ) (2022-03-14T15:10:30Z) - There is a Time and Place for Reasoning Beyond the Image [63.96498435923328]
画像は人間の目へのピクセルだけでなく、他のソースからのコンテキスト情報から推論、関連付け、推論して、推論することで、より完全な画像を確立することができる。
我々は、ニューヨーク・タイムズ(NYT)から自動的に抽出された16k画像と関連するニュース、時間、位置のデータセットTARAと、WITから離れた監視対象として追加で61k例を紹介した。
我々は、最先端のジョイントモデルと人間のパフォーマンスの間に70%のギャップがあることを示し、これは、セグメントワイズ推論を用いて高レベルな視覚言語ジョイントモデルを動機づける提案モデルによってわずかに満たされている。
論文 参考訳(メタデータ) (2022-03-01T21:52:08Z) - Cross-Media Keyphrase Prediction: A Unified Framework with
Multi-Modality Multi-Head Attention and Image Wordings [63.79979145520512]
マルチメディア投稿におけるキーワード予測におけるテキストと画像の併用効果について検討する。
複雑なマルチメディアインタラクションを捉えるために,M3H-Att(Multi-Modality Multi-Head Attention)を提案する。
我々のモデルは,従来の注目ネットワークに基づいて,過去の技術状況よりも大幅に優れていた。
論文 参考訳(メタデータ) (2020-11-03T08:44:18Z) - Image Segmentation Using Deep Learning: A Survey [58.37211170954998]
イメージセグメンテーションは、画像処理とコンピュータビジョンにおいて重要なトピックである。
深層学習モデルを用いた画像セグメンテーション手法の開発を目的とした研究が,これまでに数多く行われている。
論文 参考訳(メタデータ) (2020-01-15T21:37:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。