論文の概要: Extraction of Visual Information to Predict Crowdfunding Success
- arxiv url: http://arxiv.org/abs/2203.14806v2
- Date: Wed, 6 Sep 2023 15:13:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 20:27:57.984288
- Title: Extraction of Visual Information to Predict Crowdfunding Success
- Title(参考訳): クラウドファンディング成功予測のための視覚情報の抽出
- Authors: S. J. Blanchard, T. J. Noseworthy, E. Pancer, M. Poole
- Abstract要約: 画像から自動的に抽出できる視覚要素の役割は、あまり注目されていない。
以前の研究では、画像特性が製品評価に大きな影響を与えることが示されている。
我々の結果は、視覚的カウント機能は成功の上位3つのうちの2つであることを示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Researchers have increasingly turned to crowdfunding platforms to gain
insights into entrepreneurial activity and dynamics. While previous studies
have explored various factors influencing crowdfunding success, such as
technology, communication, and marketing strategies, the role of visual
elements that can be automatically extracted from images has received less
attention. This is surprising, considering that crowdfunding platforms
emphasize the importance of attention-grabbing and high-resolution images, and
previous research has shown that image characteristics can significantly impact
product evaluations. Indeed, a comprehensive review of empirical articles (n =
202) that utilized Kickstarter data, focusing on the incorporation of visual
information in their analyses. Our findings reveal that only 29.70% controlled
for the number of images, and less than 12% considered any image details. In
this manuscript, we review the literature on image processing and its relevance
to the business domain, highlighting two types of visual variables: visual
counts (number of pictures and number of videos) and image details. Building
upon previous work that discussed the role of color, composition and
figure-ground relationships, we introduce visual scene elements that have not
yet been explored in crowdfunding, including the number of faces, the number of
concepts depicted, and the ease of identifying those concepts. To demonstrate
the predictive value of visual counts and image details, we analyze Kickstarter
data. Our results highlight that visual count features are two of the top three
predictors of success. Our results also show that simple image detail features
such as color matter a lot, and our proposed measures of visual scene elements
can also be useful. We supplement our article with R and Python codes that help
authors extract image details (https://osf.io/ujnzp/).
- Abstract(参考訳): 研究者は、起業家の活動とダイナミクスに関する洞察を得るために、クラウドファンディングプラットフォームに目を向けるようになった。
これまでの研究は、テクノロジー、コミュニケーション、マーケティング戦略などクラウドファンディングの成功に影響を及ぼす様々な要因を調査してきたが、画像から自動的に抽出される視覚要素の役割は、あまり注目されていない。
これは、クラウドファンディングプラットフォームが注意グラフと高解像度画像の重要性を強調していることを考えると驚きであり、以前の研究では、画像特性が製品評価に大きな影響を与えることが示されている。
実際、Kickstarterのデータを利用した経験的記事(n = 202)の包括的なレビューは、その分析に視覚情報の組み入れに焦点を当てている。
その結果、画像数でコントロールできるのは29.70%に過ぎず、画像の詳細は12%に満たないことがわかった。
本稿では,画像処理とビジネス領域との関連性に関する文献を概観し,視覚的数(画像数,動画数)と画像詳細の2種類の視覚的変数について述べる。
色, 構成, 図形的関係を論じる以前の研究に基づいて, 顔の数, 描写された概念の数, それらの概念を識別する容易さなど, クラウドファンディングでまだ検討されていない視覚的シーン要素を紹介した。
ビジュアルカウントと画像詳細の予測値を示すために、kickstarterのデータを分析した。
結果は、ビジュアルカウント機能は成功の予測要因のトップ3のうちの2つであることを強調する。
以上の結果から,カラーマターなどの画像の詳細な特徴が多用され,視覚的シーン要素の計測も有用であることが示唆された。
我々は、著者が画像の詳細を抽出するのに役立つrとpythonのコードでこの記事を補足する(https://osf.io/ujnzp/)。
関連論文リスト
- What's in the Image? A Deep-Dive into the Vision of Vision Language Models [20.669971132114195]
VLM(Vision-Language Models)は、最近、複雑な視覚コンテンツを解釈する際、顕著な能力を示した。
本稿では,各層にまたがるアテンションモジュールに着目し,徹底的な経験分析を行う。
これらのモデルが視覚データをどのように処理するかについて、いくつかの重要な洞察を明らかにします。
論文 参考訳(メタデータ) (2024-11-26T14:59:06Z) - Structuring Quantitative Image Analysis with Object Prominence [0.0]
データとして画像を分析するための重要なステップとして,オブジェクトの優位性について慎重に検討する。
我々の手法は質的な分析と定量的アプローチのスケーラビリティを組み合わせる。
論文 参考訳(メタデータ) (2024-08-30T19:05:28Z) - An Image-based Typology for Visualization [23.716718517642878]
本稿では,画像からの視覚表現の質的解析結果について述べる。
定義群を10種類に分類した。
我々は、6,833枚のタグ付き画像のデータセットと、ラベル付き画像の大規模な集合を探索および分析するために使用できるオンラインツールを提供する。
論文 参考訳(メタデータ) (2024-03-07T04:33:42Z) - Visual Analytics for Efficient Image Exploration and User-Guided Image
Captioning [35.47078178526536]
事前訓練された大規模言語画像モデルの最近の進歩は、視覚的理解の新しい時代を後押ししている。
本稿では,視覚分析の領域でよく知られた2つの問題に取り組み,(1)大規模画像データセットの効率的な探索と潜在的なデータバイアスの同定,(2)画像キャプションの評価と生成過程のステアリングを行う。
論文 参考訳(メタデータ) (2023-11-02T06:21:35Z) - Impressions: Understanding Visual Semiotics and Aesthetic Impact [66.40617566253404]
画像のセミオティックスを調べるための新しいデータセットであるImpressionsを提示する。
既存のマルチモーダル画像キャプションと条件付き生成モデルは、画像に対する可視的応答をシミュレートするのに苦労していることを示す。
このデータセットは、微調整と少数ショット適応により、画像の印象や美的評価をモデル化する能力を大幅に改善する。
論文 参考訳(メタデータ) (2023-10-27T04:30:18Z) - Exploring CLIP for Assessing the Look and Feel of Images [87.97623543523858]
ゼロショット方式で画像の品質知覚(ルック)と抽象知覚(フィール)の両方を評価するために,コントラスト言語-画像事前学習(CLIP)モデルを導入する。
以上の結果から,CLIPは知覚的評価によく適合する有意義な先行情報を捉えることが示唆された。
論文 参考訳(メタデータ) (2022-07-25T17:58:16Z) - Visual Clues: Bridging Vision and Language Foundations for Image
Paragraph Captioning [78.07495777674747]
我々は、視覚的手がかりを用いて、大きな事前訓練された視覚基盤モデルと言語モデルをブリッジすることで、余分なクロスモーダルトレーニングなしでそれを行うことができると論じる。
基礎モデルの強力なゼロショット機能のおかげで、画像のリッチなセマンティック表現を構築することから始める。
大規模言語モデルを用いて視覚的コンテンツを包括的に記述し、視覚モデルによって再度検証し、画像に最適な候補を選択する。
論文 参考訳(メタデータ) (2022-06-03T22:33:09Z) - Unsupervised Part Discovery from Contrastive Reconstruction [90.88501867321573]
自己監督型視覚表現学習の目標は、強く伝達可能な画像表現を学習することである。
対象部分の発見とセグメンテーションに対する教師なしアプローチを提案する。
本手法は, 細粒度, 視覚的に異なるカテゴリ間でセマンティックな部分を生成する。
論文 参考訳(メタデータ) (2021-11-11T17:59:42Z) - TokenLearner: What Can 8 Learned Tokens Do for Images and Videos? [89.17394772676819]
適応的に学習したトークンに頼った新しい視覚表現学習を導入する。
本実験は,画像認識と画像認識の両タスクにおいて,いくつかの困難なベンチマークで高い性能を示した。
論文 参考訳(メタデータ) (2021-06-21T17:55:59Z) - A Study on Visual Perception of Light Field Content [19.397619552417986]
本研究は,光場の内容に関する視覚的注意研究である。
様々な方法でユーザに対して知覚実験を行った。
本分析は,光電界イメージングアプリケーションにおけるユーザ行動の特徴を明らかにする。
論文 参考訳(メタデータ) (2020-08-07T14:23:27Z) - Image Segmentation Using Deep Learning: A Survey [58.37211170954998]
イメージセグメンテーションは、画像処理とコンピュータビジョンにおいて重要なトピックである。
深層学習モデルを用いた画像セグメンテーション手法の開発を目的とした研究が,これまでに数多く行われている。
論文 参考訳(メタデータ) (2020-01-15T21:37:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。