論文の概要: Extracting Image Characteristics to Predict Crowdfunding Success
- arxiv url: http://arxiv.org/abs/2203.14806v1
- Date: Mon, 28 Mar 2022 14:44:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-29 22:08:51.703219
- Title: Extracting Image Characteristics to Predict Crowdfunding Success
- Title(参考訳): クラウドファンディング成功予測のための画像特徴抽出
- Authors: S. J. Blanchard, T. J. Noseworthy, E. Pancer, M. Poole
- Abstract要約: 著者らは、視覚処理に関する文献を合成し、クラウドファンディングの成功を形作る可能性のあるいくつかの画像特性を特定する。
それぞれのイメージ特性について詳細な測定を行った後、クラウドファンディングの成功を予測するために、プロジェクト特性とテキスト情報とともに機械学習アルゴリズムの一部として使用する。
その結果,これらの特徴を組み込むことで,プロジェクト変数のベースラインに対する予測が大幅に向上することが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite an increase in the empirical study of crowdfunding platforms and the
prevalence of visual information, operations management and marketing
literature has yet to explore the role that image characteristics play in
crowdfunding success. The authors of this manuscript begin by synthesizing
literature on visual processing to identify several image characteristics that
are likely to shape crowdfunding success. After detailing measures for each
image characteristic, they use them as part of a machine-learning algorithm
(Bayesian additive trees), along with project characteristics and textual
information, to predict crowdfunding success. Results show that the inclusion
of these image characteristics substantially improves prediction over baseline
project variables, as well as textual features. Furthermore, image
characteristic variables exhibit high importance, similar to variables linked
to the number of pictures and number of videos. This research therefore offers
valuable resources to researchers and managers who are interested in the role
of visual information in ensuring new product success.
- Abstract(参考訳): クラウドファンディングプラットフォームに関する実証研究の増加と視覚情報の普及にもかかわらず、運用管理とマーケティングの文献は、イメージ特性がクラウドファンディングの成功に果たす役割を探求していない。
この原稿の著者は、視覚処理に関する文献を合成し、クラウドファンディングの成功を形作る可能性のあるいくつかの画像の特徴を特定することから始める。
それぞれの画像特性について詳細な測定を行った後、彼らは機械学習アルゴリズム(ベイジアン加法木)の一部として、プロジェクト特性とテキスト情報とともに、クラウドファンディングの成功を予測する。
その結果、これらの画像特性の包含は、ベースラインのプロジェクト変数に対する予測とテキスト的特徴を大幅に改善することが示された。
さらに、画像特性変数は、画像数と動画数に関連付けられた変数と同様に、重要度が高い。
この研究は、新しい製品の成功を確実にするための視覚情報の役割に関心がある研究者や管理者に貴重な資源を提供する。
関連論文リスト
- What's in the Image? A Deep-Dive into the Vision of Vision Language Models [20.669971132114195]
VLM(Vision-Language Models)は、最近、複雑な視覚コンテンツを解釈する際、顕著な能力を示した。
本稿では,各層にまたがるアテンションモジュールに着目し,徹底的な経験分析を行う。
これらのモデルが視覚データをどのように処理するかについて、いくつかの重要な洞察を明らかにします。
論文 参考訳(メタデータ) (2024-11-26T14:59:06Z) - Structuring Quantitative Image Analysis with Object Prominence [0.0]
データとして画像を分析するための重要なステップとして,オブジェクトの優位性について慎重に検討する。
我々の手法は質的な分析と定量的アプローチのスケーラビリティを組み合わせる。
論文 参考訳(メタデータ) (2024-08-30T19:05:28Z) - An Image-based Typology for Visualization [23.716718517642878]
本稿では,画像からの視覚表現の質的解析結果について述べる。
定義群を10種類に分類した。
我々は、6,833枚のタグ付き画像のデータセットと、ラベル付き画像の大規模な集合を探索および分析するために使用できるオンラインツールを提供する。
論文 参考訳(メタデータ) (2024-03-07T04:33:42Z) - Visual Analytics for Efficient Image Exploration and User-Guided Image
Captioning [35.47078178526536]
事前訓練された大規模言語画像モデルの最近の進歩は、視覚的理解の新しい時代を後押ししている。
本稿では,視覚分析の領域でよく知られた2つの問題に取り組み,(1)大規模画像データセットの効率的な探索と潜在的なデータバイアスの同定,(2)画像キャプションの評価と生成過程のステアリングを行う。
論文 参考訳(メタデータ) (2023-11-02T06:21:35Z) - Impressions: Understanding Visual Semiotics and Aesthetic Impact [66.40617566253404]
画像のセミオティックスを調べるための新しいデータセットであるImpressionsを提示する。
既存のマルチモーダル画像キャプションと条件付き生成モデルは、画像に対する可視的応答をシミュレートするのに苦労していることを示す。
このデータセットは、微調整と少数ショット適応により、画像の印象や美的評価をモデル化する能力を大幅に改善する。
論文 参考訳(メタデータ) (2023-10-27T04:30:18Z) - Exploring CLIP for Assessing the Look and Feel of Images [87.97623543523858]
ゼロショット方式で画像の品質知覚(ルック)と抽象知覚(フィール)の両方を評価するために,コントラスト言語-画像事前学習(CLIP)モデルを導入する。
以上の結果から,CLIPは知覚的評価によく適合する有意義な先行情報を捉えることが示唆された。
論文 参考訳(メタデータ) (2022-07-25T17:58:16Z) - Visual Clues: Bridging Vision and Language Foundations for Image
Paragraph Captioning [78.07495777674747]
我々は、視覚的手がかりを用いて、大きな事前訓練された視覚基盤モデルと言語モデルをブリッジすることで、余分なクロスモーダルトレーニングなしでそれを行うことができると論じる。
基礎モデルの強力なゼロショット機能のおかげで、画像のリッチなセマンティック表現を構築することから始める。
大規模言語モデルを用いて視覚的コンテンツを包括的に記述し、視覚モデルによって再度検証し、画像に最適な候補を選択する。
論文 参考訳(メタデータ) (2022-06-03T22:33:09Z) - Unsupervised Part Discovery from Contrastive Reconstruction [90.88501867321573]
自己監督型視覚表現学習の目標は、強く伝達可能な画像表現を学習することである。
対象部分の発見とセグメンテーションに対する教師なしアプローチを提案する。
本手法は, 細粒度, 視覚的に異なるカテゴリ間でセマンティックな部分を生成する。
論文 参考訳(メタデータ) (2021-11-11T17:59:42Z) - TokenLearner: What Can 8 Learned Tokens Do for Images and Videos? [89.17394772676819]
適応的に学習したトークンに頼った新しい視覚表現学習を導入する。
本実験は,画像認識と画像認識の両タスクにおいて,いくつかの困難なベンチマークで高い性能を示した。
論文 参考訳(メタデータ) (2021-06-21T17:55:59Z) - A Study on Visual Perception of Light Field Content [19.397619552417986]
本研究は,光場の内容に関する視覚的注意研究である。
様々な方法でユーザに対して知覚実験を行った。
本分析は,光電界イメージングアプリケーションにおけるユーザ行動の特徴を明らかにする。
論文 参考訳(メタデータ) (2020-08-07T14:23:27Z) - Image Segmentation Using Deep Learning: A Survey [58.37211170954998]
イメージセグメンテーションは、画像処理とコンピュータビジョンにおいて重要なトピックである。
深層学習モデルを用いた画像セグメンテーション手法の開発を目的とした研究が,これまでに数多く行われている。
論文 参考訳(メタデータ) (2020-01-15T21:37:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。