論文の概要: Can you recommend content to creatives instead of final consumers? A
RecSys based on user's preferred visual styles
- arxiv url: http://arxiv.org/abs/2208.10902v1
- Date: Tue, 23 Aug 2022 12:11:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-24 12:43:26.154668
- Title: Can you recommend content to creatives instead of final consumers? A
RecSys based on user's preferred visual styles
- Title(参考訳): 最終的な消費者ではなく、クリエイティブにコンテンツを推奨できますか?
ユーザの好みのビジュアルスタイルに基づくrecsys
- Authors: Raul Gomez Bruballa, Lauren Burnham-King, Alessandra Sala
- Abstract要約: このレポートは、ACM RecSys '22で発表された論文"Learning Users' Preferred Visual Styles in an Image Marketplace"の拡張である。
ユーザが作業するプロジェクトのセマンティクスに対して視覚スタイルの好みを学習するRecSysを設計する。
- 参考スコア(独自算出の注目度): 69.69160476215895
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Providing meaningful recommendations in a content marketplace is challenging
due to the fact that users are not the final content consumers. Instead, most
users are creatives whose interests, linked to the projects they work on,
change rapidly and abruptly. To address the challenging task of recommending
images to content creators, we design a RecSys that learns visual styles
preferences transversal to the semantics of the projects users work on. We
analyze the challenges of the task compared to content-based recommendations
driven by semantics, propose an evaluation setup, and explain its applications
in a global image marketplace.
This technical report is an extension of the paper "Learning Users' Preferred
Visual Styles in an Image Marketplace", presented at ACM RecSys '22.
- Abstract(参考訳): ユーザーが最終コンテンツ消費者ではないという事実から、コンテンツ市場において有意義な推奨を提供することは困難である。
代わりに、ほとんどのユーザーは、自分が取り組んでいるプロジェクトと関連付けられ、素早く、そして突然変化するクリエイティブな人です。
コンテンツクリエーターにイメージを推奨する難しい課題に対処するため、私たちはRecSysを設計し、ユーザーが作業するプロジェクトのセマンティクスに変換される視覚スタイルの好みを学習する。
セマンティクスによって推進されるコンテンツベースのレコメンデーションと比較してタスクの課題を分析し、評価設定を提案し、そのアプリケーションをグローバルイメージマーケットプレースで説明する。
このテクニカルレポートは、ACM RecSys '22で発表された論文"Learning Users' Preferred Visual Styles in an Image Marketplace"の拡張である。
関連論文リスト
- Visual Concept-driven Image Generation with Text-to-Image Diffusion
Model [69.89451490936652]
テキスト・ツー・イメージ(TTI)モデルでは、複雑で想像力のあるシーンの高解像度画像を生成するという印象的な結果が示されている。
近年のアプローチでは、これらの手法をパーソナライズ技術で拡張し、ユーザ認証の概念の統合を可能にしている。
しかし、人間の被写体のような複数の相互作用する概念を持つ画像を生成する能力は、1つにまたがったり、複数にまたがったりする概念は、いまだに説明がつかないままである。
これらの課題に対処する概念駆動型TTIパーソナライズフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-18T07:28:37Z) - Social Reward: Evaluating and Enhancing Generative AI through
Million-User Feedback from an Online Creative Community [63.949893724058846]
コミュニティ認識の一形態としての社会的報酬は、オンラインプラットフォームのユーザーがコンテンツに関わり、貢献する動機の強い源泉となる。
この作業はパラダイムシフトの先駆者であり、革新的な報酬モデリングフレームワークであるSocial Rewardを発表した。
私たちは、オンラインビジュアル作成と編集プラットフォームであるPicsartから、データセットのキュレーションと洗練の広範な旅に乗り出した。
論文 参考訳(メタデータ) (2024-02-15T10:56:31Z) - Tell Me What Is Good About This Property: Leveraging Reviews For
Segment-Personalized Image Collection Summarization [3.063926257586959]
プロパティ・レビューの分析により,プロパティ・ヴィジュアライゼーションの要約におけるユーザの意図を考察する。
視覚的な要約にレビューからの洞察を取り入れることで、ユーザに対して関連コンテンツを提示することで要約を強化する。
人間の知覚研究を含む我々の実験は、我々のクロスモーダルアプローチの優位性を実証している。
論文 参考訳(メタデータ) (2023-10-30T17:06:49Z) - Tailored Visions: Enhancing Text-to-Image Generation with Personalized
Prompt Rewriting [14.218165096404201]
本稿では,3115名のユーザから300万以上のプロンプトを収集した大規模テキスト画像データセットに基づいて,ユーザプロンプトを書き換える新たなアプローチを提案する。
我々の書き換えモデルは、ユーザプロンプトの表現力とアライメントを意図した視覚的出力で向上させる。
論文 参考訳(メタデータ) (2023-10-12T08:36:25Z) - VILA: Learning Image Aesthetics from User Comments with Vision-Language
Pretraining [53.470662123170555]
ユーザからのコメントから画像美学を学習し、マルチモーダルな美学表現を学習するための視覚言語事前学習手法を提案する。
具体的には、コントラスト的および生成的目的を用いて、画像テキストエンコーダ-デコーダモデルを事前訓練し、人間のラベルなしでリッチで汎用的な美的意味学を学習する。
以上の結果から,AVA-Captionsデータセットを用いた画像の美的字幕化において,事前学習した美的視覚言語モデルよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2023-03-24T23:57:28Z) - The Elements of Visual Art Recommendation: Learning Latent Semantic
Representations of Paintings [7.79230326339002]
アートワークのレコメンデーションは、ユーザが非常に主観的なコンテンツとどのように相互作用するかを理解する必要があるため、難しい。
本稿では、パーソナライズされたレコメンデーションのための視覚芸術の要素(すなわち潜在意味関係)を効率よく把握することに焦点を当てる。
論文 参考訳(メタデータ) (2023-02-28T18:17:36Z) - Two-stage Visual Cues Enhancement Network for Referring Image
Segmentation [89.49412325699537]
Referring Image (RIS)は、ある自然言語表現によって参照される画像から対象のオブジェクトをセグメント化することを目的としている。
本稿では,2段階のビジュアルキュー拡張ネットワーク(TV-Net)を考案し,この問題に対処する。
この2段階の強化により,提案するTV-Netは,自然言語表現と画像間のきめ細かいマッチング動作の学習において,より優れた性能を享受できる。
論文 参考訳(メタデータ) (2021-10-09T02:53:39Z) - Feedback Shaping: A Modeling Approach to Nurture Content Creation [10.31854532203776]
コンテンツ消費者からのフィードバックがクリエーターにインセンティブを与えるかを予測するためのモデリング手法を提案する。
次に、このモデルを利用して、フィードバック分布を再構築することで、コンテンツクリエーターのニュースフィード体験を最適化する。
我々は、LinkedInのニュースフィードに展開されたユースケースを提示し、消費者の体験を損なうことなく、コンテンツ作成を大幅に改善するためにこのアプローチを使用しました。
論文 参考訳(メタデータ) (2021-06-21T22:53:16Z) - User-Inspired Posterior Network for Recommendation Reason Generation [53.035224183349385]
推奨理由生成は、顧客の関心を惹きつけ、ユーザーエクスペリエンスを向上させる上で重要な役割を果たします。
ユーザインスパイアされたマルチソース後部トランス(MSPT)を提案し,ユーザの興味を反映したモデルを誘導する。
実験の結果,本モデルは従来の生成モデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2021-02-16T02:08:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。