論文の概要: Social Reward: Evaluating and Enhancing Generative AI through
Million-User Feedback from an Online Creative Community
- arxiv url: http://arxiv.org/abs/2402.09872v1
- Date: Thu, 15 Feb 2024 10:56:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-16 16:04:24.226477
- Title: Social Reward: Evaluating and Enhancing Generative AI through
Million-User Feedback from an Online Creative Community
- Title(参考訳): social reward: オンラインクリエイティブコミュニティからの100万ユーザによるフィードバックによる生成aiの評価と強化
- Authors: Arman Isajanyan, Artur Shatveryan, David Kocharyan, Zhangyang Wang,
Humphrey Shi
- Abstract要約: コミュニティ認識の一形態としての社会的報酬は、オンラインプラットフォームのユーザーがコンテンツに関わり、貢献する動機の強い源泉となる。
この作業はパラダイムシフトの先駆者であり、革新的な報酬モデリングフレームワークであるSocial Rewardを発表した。
私たちは、オンラインビジュアル作成と編集プラットフォームであるPicsartから、データセットのキュレーションと洗練の広範な旅に乗り出した。
- 参考スコア(独自算出の注目度): 63.949893724058846
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Social reward as a form of community recognition provides a strong source of
motivation for users of online platforms to engage and contribute with content.
The recent progress of text-conditioned image synthesis has ushered in a
collaborative era where AI empowers users to craft original visual artworks
seeking community validation. Nevertheless, assessing these models in the
context of collective community preference introduces distinct challenges.
Existing evaluation methods predominantly center on limited size user studies
guided by image quality and prompt alignment. This work pioneers a paradigm
shift, unveiling Social Reward - an innovative reward modeling framework that
leverages implicit feedback from social network users engaged in creative
editing of generated images. We embark on an extensive journey of dataset
curation and refinement, drawing from Picsart: an online visual creation and
editing platform, yielding a first million-user-scale dataset of implicit human
preferences for user-generated visual art named Picsart Image-Social. Our
analysis exposes the shortcomings of current metrics in modeling community
creative preference of text-to-image models' outputs, compelling us to
introduce a novel predictive model explicitly tailored to address these
limitations. Rigorous quantitative experiments and user study show that our
Social Reward model aligns better with social popularity than existing metrics.
Furthermore, we utilize Social Reward to fine-tune text-to-image models,
yielding images that are more favored by not only Social Reward, but also other
established metrics. These findings highlight the relevance and effectiveness
of Social Reward in assessing community appreciation for AI-generated artworks,
establishing a closer alignment with users' creative goals: creating popular
visual art. Codes can be accessed at
https://github.com/Picsart-AI-Research/Social-Reward
- Abstract(参考訳): コミュニティ認識の一形態としての社会的報酬は、オンラインプラットフォームのユーザーがコンテンツに関わり、貢献する動機の強い源泉となる。
テキスト条件付き画像合成の最近の進歩は、AIがユーザに対して、コミュニティの検証を求めるオリジナルのビジュアルアートワークを作成できるようにするコラボレーションの時代を背景としている。
しかしながら、これらのモデルを集団的コミュニティの嗜好の文脈で評価することは、異なる課題をもたらす。
既存の評価手法は主に、画質と即興アライメントによって導かれる限られたサイズのユーザー研究に集中している。
これは、生成された画像の創造的な編集に従事しているソーシャルネットワークユーザーからの暗黙のフィードバックを活用する革新的な報酬モデリングフレームワークである。
オンラインビジュアル作成および編集プラットフォームであるPicsartから、ユーザ生成したビジュアルアートに対して、暗黙の人間の好みを示す最初の100万ユーザ規模のデータセット、Picsart Image-Socialを作成。
本分析は,テキストから画像への出力に対するコミュニティの創造的好みのモデル化における現在の指標の欠点を明らかにし,これらの制約に対処するために明示的に調整された新しい予測モデルの導入を迫るものである。
厳密な定量的実験とユーザー研究により、我々の社会報酬モデルは、既存の指標よりも社会的人気に合致していることが示された。
さらに,テキスト対画像モデルの微調整にソーシャル・リワードを活用し,ソーシャル・リワードだけでなく,他の確立した指標により好まれる画像を生成する。
これらの調査結果は、aiが生成したアートワークのコミュニティ評価における社会的報酬の関連性と効果を強調し、ユーザーの創造的目標との緊密な連携を確立した。
コードはhttps://github.com/Picsart-AI-Research/Social-Rewardでアクセスすることができる。
関連論文リスト
- #PoetsOfInstagram: Navigating The Practices And Challenges Of Novice
Poets On Instagram [22.17344487934666]
私たちは、Instagramの詩コミュニティにおけるモチベーション、経験、アルゴリズムの影響を探るため、質的な分析を採用しています。
参加者は、可視性に対するアルゴリズム的制約に順応するが、コミュニティの整合性と独創性の価値は維持する。
非収益化の創造的ユーザに特化した現象であるアルゴリズムメディア創造労働の概念を導入する。
論文 参考訳(メタデータ) (2024-02-29T16:55:44Z) - Exploring Social Bias in Downstream Applications of Text-to-Image
Foundation Models [72.06006736916821]
合成画像を用いて、社会的バイアスに対するテキスト・画像モデル、画像編集と分類の2つの応用を探索する。
提案手法を用いて,最先端のオープンソーステキスト・ツー・イメージ・モデルであるtextitStable Diffusion における有意義かつ有意義なセクション間社会的バイアスを明らかにする。
本研究は、下流業務・サービスにおけるテキスト・ツー・イメージ基盤モデルの導入について、未発表の点に注意を払っている。
論文 参考訳(メタデータ) (2023-12-05T14:36:49Z) - FaceStudio: Put Your Face Everywhere in Seconds [23.381791316305332]
アイデンティティを保存する画像合成は、パーソナライズされたスタイリスティックなタッチを加えながら、被験者のアイデンティティを維持することを目指している。
Textual InversionやDreamBoothといった従来の手法は、カスタムイメージ作成に力を入れている。
本研究は,人間の画像に焦点をあてたアイデンティティ保存合成への新たなアプローチを提案する。
論文 参考訳(メタデータ) (2023-12-05T11:02:45Z) - HIVE: Harnessing Human Feedback for Instructional Visual Editing [137.91257049136362]
本稿では,ヒューマンフィードバックを利用した指導視覚編集(HIVE)のための新しいフレームワークを提案する。
具体的には、編集された画像に対する人間のフィードバックを収集し、報酬関数を学習して、基礎となるユーザの好みをキャプチャする。
次に、推定報酬に基づいて人間の好みを組み込むスケーラブルな拡散モデル微調整手法を提案する。
論文 参考訳(メタデータ) (2023-03-16T19:47:41Z) - Text-to-image Diffusion Models in Generative AI: A Survey [75.32882187215394]
本稿では,テキストコンディショニング画像合成における最先端手法,すなわちテキスト・トゥ・イメージについて概観する。
我々はテキスト・ツー・イメージ・ジェネレーションを超える応用について論じる:テキスト・ガイド・クリエイティブ・ジェネレーションとテキスト・ガイド・イメージ・編集。
論文 参考訳(メタデータ) (2023-03-14T13:49:54Z) - Human Image Generation: A Comprehensive Survey [60.63589576693112]
本稿では,人間の画像生成技術を3つのパラダイム,すなわちデータ駆動手法,知識誘導手法,ハイブリッド手法に分割する。
異なる手法の利点と特徴は、モデルアーキテクチャと入出力要求の観点から要約される。
幅広い応用可能性のために、合成された人間の画像の典型的なダウンストリーム利用、すなわち、個人認識タスクのためのデータ拡張と、ファッション顧客のためのバーチャルトライオンの2つがカバーされている。
論文 参考訳(メタデータ) (2022-12-17T15:19:45Z) - Disentangled Contrastive Learning for Social Recommendation [28.606016662435117]
社会的レコメンデーションは、社会的関係を利用して、レコメンデーションのための表現学習を強化する。
本稿では,ソーシャルレコメンデーションDcRecのための新しいコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-18T09:15:18Z) - Enhancing Social Relation Inference with Concise Interaction Graph and
Discriminative Scene Representation [56.25878966006678]
我々はtextbfSocial rtextbfElation (PRISE) における textbfPractical textbfInference のアプローチを提案する。
人の対話的特徴と全体主義的な場面の識別的特徴を簡潔に学習する。
PRISEはPIPAデータセットにおけるドメイン分類の改善を6.8$%で達成している。
論文 参考訳(メタデータ) (2021-07-30T04:20:13Z) - Deep Image Synthesis from Intuitive User Input: A Review and
Perspectives [23.01321275304037]
ユーザは、テキスト、スケッチ、ストローク、グラフ、レイアウトなどの直感的な非画像入力を提供することが望ましい。
GAN(Generative Adversarial Network)やVAE(VAE)、フローベース手法といった深層生成モデルの最近の進歩は、より強力で汎用的な画像生成タスクを可能にしている。
本稿では,直感的なユーザ入力による画像合成,入力の汎用性の向上,画像生成手法,ベンチマークデータセット,評価指標について概説する。
論文 参考訳(メタデータ) (2021-07-09T06:31:47Z) - Adversarial Text-to-Image Synthesis: A Review [7.593633267653624]
我々は,5年前に始まった対人テキスト・画像合成モデルの状況,その発展を文脈的に把握し,その監督レベルに基づく分類法を提案する。
我々は,より優れたデータセットや評価指標の開発から,アーキテクチャ設計やモデルトレーニングの改善の可能性に至るまで,テキスト・ツー・イメージ合成モデルの評価,欠点の強調,新たな研究領域の特定に向けた現在の戦略を批判的に検討する。
本総説は, テキストと画像の合成に焦点をあてた, 生成的敵ネットワークに関する過去の調査を補完するものである。
論文 参考訳(メタデータ) (2021-01-25T09:58:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。