論文の概要: The power of pictures: using ML assisted image generation to engage the
crowd in complex socioscientific problems
- arxiv url: http://arxiv.org/abs/2010.12324v2
- Date: Mon, 28 Dec 2020 16:31:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 05:03:39.108972
- Title: The power of pictures: using ML assisted image generation to engage the
crowd in complex socioscientific problems
- Title(参考訳): 画像のパワー:ml支援画像生成を用いた複雑な社会科学問題における群衆の関与
- Authors: Janet Rafner, Lotte Philipsen, Sebastian Risi, Joel Simon, Jacob
Sherson
- Abstract要約: 我々は,ML支援画像生成のアクティビティを,複雑な社会科学的問題に対する大規模対話の触媒に変換する。
目的は、研究への公的な参加のためのゲートウェイを作ることである。
- 参考スコア(独自算出の注目度): 6.472260320446158
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human-computer image generation using Generative Adversarial Networks (GANs)
is becoming a well-established methodology for casual entertainment and open
artistic exploration. Here, we take the interaction a step further by weaving
in carefully structured design elements to transform the activity of
ML-assisted imaged generation into a catalyst for large-scale popular dialogue
on complex socioscientific problems such as the United Nations Sustainable
Development Goals (SDGs) and as a gateway for public participation in research.
- Abstract(参考訳): generative adversarial network (gans) を用いたヒューマンコンピュータ画像生成は,カジュアルエンタテインメントとオープンアート探索の確立された方法論になりつつある。
本稿では, ml支援画像生成の活動を, 国連持続可能な開発目標(sdgs)や研究参加の入り口として, 大規模社会科学的な複雑な問題に対する, 大衆的な対話の触媒として, 注意深く構造化されたデザイン要素を織り込むことにより, インタラクションをさらに進めていく。
関連論文リスト
- Social Reward: Evaluating and Enhancing Generative AI through
Million-User Feedback from an Online Creative Community [63.949893724058846]
コミュニティ認識の一形態としての社会的報酬は、オンラインプラットフォームのユーザーがコンテンツに関わり、貢献する動機の強い源泉となる。
この作業はパラダイムシフトの先駆者であり、革新的な報酬モデリングフレームワークであるSocial Rewardを発表した。
私たちは、オンラインビジュアル作成と編集プラットフォームであるPicsartから、データセットのキュレーションと洗練の広範な旅に乗り出した。
論文 参考訳(メタデータ) (2024-02-15T10:56:31Z) - Kosmos-G: Generating Images in Context with Multimodal Large Language
Models [124.00253348311792]
本稿では,マルチモーダル大規模言語モデル(MLLM)の高度な認識能力を利用したKosmos-Gを提案する。
提案手法は,テキストモダリティをアンカーとして用いたMLLMとCLIPの出力空間を整列し,キュレートされたデータに対して合成指導を行う。
Kosmos-Gは、ゼロショットマルチエンタリティの主観的生成のユニークな能力を実証している。
論文 参考訳(メタデータ) (2023-10-04T17:28:44Z) - RenAIssance: A Survey into AI Text-to-Image Generation in the Era of
Large Model [93.8067369210696]
テキスト・ツー・イメージ生成(テキスト・トゥ・イメージ・ジェネレーション、英: Text-to-image Generation、TTI)とは、テキスト入力を処理し、テキスト記述に基づいて高忠実度画像を生成するモデルである。
拡散モデル (diffusion model) は、繰り返しステップによるノイズの体系的導入を通じて画像の生成に使用される顕著な生成モデルである。
大規模モデルの時代、モデルサイズを拡大し、大規模言語モデルとの統合により、TTIモデルの性能がさらに向上した。
論文 参考訳(メタデータ) (2023-09-02T03:27:20Z) - Interactive Data Synthesis for Systematic Vision Adaptation via
LLMs-AIGCs Collaboration [48.54002313329872]
本稿では,ChatGenImageというアノテーション付きデータ拡張の新しいパラダイムを提案する。
その中核となる考え方は、多様なモデルの補完的な強みを活用して、インタラクティブなデータ拡張のための高効率でユーザフレンドリなパイプラインを確立することである。
筆者らはChatGenImageフレームワークから得られた興味深い結果を提示し, 系統的視覚適応のための合成データの強力なポテンシャルを実証する。
論文 参考訳(メタデータ) (2023-05-22T07:53:36Z) - GM-NeRF: Learning Generalizable Model-based Neural Radiance Fields from
Multi-view Images [79.39247661907397]
本稿では,自由視点画像の合成に有効なフレームワークであるGeneralizable Model-based Neural Radiance Fieldsを提案する。
具体的には、多視点2D画像からの出現コードを幾何学的プロキシに登録するための幾何学誘導型アテンション機構を提案する。
論文 参考訳(メタデータ) (2023-03-24T03:32:02Z) - Interpreting Generative Adversarial Networks for Interactive Image
Generation [36.539339220652046]
この章では、深層生成モデルの解釈に関する最近の研究の概要を紹介する。
学習表現に現れる人間の理解可能な概念をどのように識別し、インタラクティブな画像生成と編集に利用できるかを確認する。
論文 参考訳(メタデータ) (2021-08-10T19:42:20Z) - Diamond in the rough: Improving image realism by traversing the GAN
latent space [0.0]
改良されたフォトリアリズムと整合する潜在空間の方向を求める教師なし手法を提案する。
提案手法は,生成画像の忠実度を高めつつ,ネットワークを不変にしておく。
私たちは、イメージ空間の最小の変化をもたらす潜在空間の方向を見つけるために、単純なジェネレータインバージョンを使用します。
論文 参考訳(メタデータ) (2021-04-12T14:45:29Z) - Improved Image Generation via Sparse Modeling [27.66648389933265]
生成器は、Convolutional Sparse Coding (CSC) とそのMulti-Layeredバージョン (ML-CSC) 合成プロセスの発現として見ることができる。
この観測は、発電機内の適切な選択された活性化層にスパーシファイング正規化を明示的に強制することによって活用する。
論文 参考訳(メタデータ) (2021-04-01T13:52:40Z) - Medical Image Generation using Generative Adversarial Networks [0.0]
GAN(Generative Adversarial Network)は、コンピュータビジョンコミュニティにおいて、教師なしのディープラーニングアプローチである。
GANはリアルな医療画像とそれに対応するアノテーションを生成する。
Deep Convolutional GAN (DCGAN)、Laplacian GAN (LAPGAN)、Pix2pix、CycleGAN、unsupervised image-to-image translation model (UNIT)など、医学画像の解釈で人気を得たガンの様々なフレームワーク
論文 参考訳(メタデータ) (2020-05-19T20:31:57Z) - Fine-grained Image-to-Image Transformation towards Visual Recognition [102.51124181873101]
我々は,入力画像の同一性を保った画像を生成するために,微細なカテゴリで画像を変換することを目的としている。
我々は、画像のアイデンティティと非関連要因をアンハングルするために、生成的敵ネットワークに基づくモデルを採用する。
CompCarsとMulti-PIEデータセットの実験では、我々のモデルが生成した画像のアイデンティティを、最先端の画像-画像変換モデルよりもはるかによく保存していることが示された。
論文 参考訳(メタデータ) (2020-01-12T05:26:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。