論文の概要: Towards Creativity Characterization of Generative Models via Group-based
Subset Scanning
- arxiv url: http://arxiv.org/abs/2203.00523v2
- Date: Thu, 3 Mar 2022 08:38:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-04 13:24:19.194417
- Title: Towards Creativity Characterization of Generative Models via Group-based
Subset Scanning
- Title(参考訳): グループベースサブセットスキャンによる生成モデルの創造性評価
- Authors: Celia Cintas, Payel Das, Brian Quanz, Girmaw Abebe Tadesse, Skyler
Speakman, Pin-Yu Chen
- Abstract要約: 創造的プロセスを特定し,定量化し,特徴付けるグループベースサブセットスキャンを提案する。
創造的なサンプルは、データセット全体にわたる通常のサンプルや非創造的なサンプルよりも大きな異常のサブセットを生成する。
- 参考スコア(独自算出の注目度): 64.6217849133164
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep generative models, such as Variational Autoencoders (VAEs) and
Generative Adversarial Networks (GANs), have been employed widely in
computational creativity research. However, such models discourage
out-of-distribution generation to avoid spurious sample generation, thereby
limiting their creativity. Thus, incorporating research on human creativity
into generative deep learning techniques presents an opportunity to make their
outputs more compelling and human-like. As we see the emergence of generative
models directed toward creativity research, a need for machine learning-based
surrogate metrics to characterize creative output from these models is
imperative. We propose group-based subset scanning to identify, quantify, and
characterize creative processes by detecting a subset of anomalous
node-activations in the hidden layers of the generative models. Our experiments
on the standard image benchmarks, and their "creatively generated" variants,
reveal that the proposed subset scores distribution is more useful for
detecting creative processes in the activation space rather than the pixel
space. Further, we found that creative samples generate larger subsets of
anomalies than normal or non-creative samples across datasets. The node
activations highlighted during the creative decoding process are different from
those responsible for the normal sample generation. Lastly, we assess if the
images from the subsets selected by our method were also found creative by
human evaluators, presenting a link between creativity perception in humans and
node activations within deep neural nets.
- Abstract(参考訳): 可変オートエンコーダ (VAE) やGAN (Generative Adversarial Networks) のような深層生成モデルは、計算創造性研究に広く利用されている。
しかし、このようなモデルは散逸したサンプル生成を避けるために分散生成を妨げ、創造性を制限している。
このように、人間の創造性の研究を生成的深層学習技術に取り入れることで、アウトプットをより魅力的で人間らしくする機会が得られる。
創造性研究に向けた生成モデルの出現を見る限り、これらのモデルから創造的なアウトプットを特徴づける機械学習ベースのサロゲートメトリクスの必要性は不可欠である。
生成モデルの隠れ層における異常なノードアクティベーションのサブセットを検出し,創造プロセスを識別,定量化し,特徴付けるグループベースサブセットスキャンを提案する。
標準画像ベンチマークおよびそれらの「創造的生成」変異を用いた実験により,提案するサブセットスコア分布は,画素空間よりも活性化空間における創造的プロセスの検出に有用であることを明らかにした。
さらに, 創造的なサンプルは, 通常のサンプルや非創造的なサンプルよりも大きな異常部分を生成することがわかった。
創造的復号プロセスで強調されるノードアクティベーションは、通常のサンプル生成に責任を持つものとは異なる。
最後に,本手法で選択したサブセットのイメージが人間の評価者によって創造的であるかどうかを検証し,人間の創造性知覚と深部神経網内のノード活性化との関連性を示した。
関連論文リスト
- Deep Generative Models in Robotics: A Survey on Learning from Multimodal Demonstrations [52.11801730860999]
近年、ロボット学習コミュニティは、大規模なデータセットの複雑さを捉えるために、深層生成モデルを使うことへの関心が高まっている。
本稿では,エネルギーベースモデル,拡散モデル,アクションバリューマップ,生成的敵ネットワークなど,コミュニティが探求してきたさまざまなモデルについて述べる。
また,情報生成から軌道生成,コスト学習に至るまで,深層生成モデルを用いた様々なアプリケーションについて述べる。
論文 参考訳(メタデータ) (2024-08-08T11:34:31Z) - Creativity Has Left the Chat: The Price of Debiasing Language Models [1.223779595809275]
大規模言語モデル(LLM)の創造性に対する人間からのフィードバックからの強化学習の意図しない結果について検討する。
我々の発見は、コピーライティング、広告作成、顧客ペルソナ生成といったクリエイティブなタスクにLLMを頼っているマーケターにとって大きな意味を持つ。
論文 参考訳(メタデータ) (2024-06-08T22:14:51Z) - Generative Active Learning for Image Synthesis Personalization [57.01364199734464]
本稿では,伝統的に識別モデルを用いて研究されてきた能動的学習の生成モデルへの応用について検討する。
生成モデル上でアクティブな学習を行う上での最大の課題は、クエリのオープンな性質にある。
問合せ処理を半開問題に変換するために,アンカー方向の概念を導入する。
論文 参考訳(メタデータ) (2024-03-22T06:45:45Z) - Generator Born from Classifier [66.56001246096002]
データサンプルに頼ることなく、イメージジェネレータを再構築することを目指している。
本稿では,ネットワークパラメータの収束条件を満たすために,ジェネレータを訓練する新しい学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-12-05T03:41:17Z) - Prototype Generation: Robust Feature Visualisation for Data Independent
Interpretability [1.223779595809275]
プロトタイプ生成は、画像分類モデルのモデルに依存しない、データに依存しない解釈可能性のための、より厳密でより堅牢な特徴可視化形式である。
我々は、不自然な内部活性化のため、特徴可視化アルゴリズムが信頼できないという以前の主張に対抗して、自然な活性化経路をもたらすインプットを生成する能力を示す。
論文 参考訳(メタデータ) (2023-09-29T11:16:06Z) - An Unsupervised Way to Understand Artifact Generating Internal Units in
Generative Neural Networks [19.250873974729817]
そこで本稿では,アーティファクト生成を監視せずに検出するローカルアクティベーションの概念を提案する。
提案手法は, 各種データセットを用いて, GANからのアーティファクト生成を検出し, 補正することができることを実証的に検証する。
論文 参考訳(メタデータ) (2021-12-16T11:59:26Z) - Active Divergence with Generative Deep Learning -- A Survey and Taxonomy [0.6435984242701043]
本報告では, 能動発散技術の現状について, 分類学および包括的調査を行う。
我々は、計算創造性研究者がこれらの手法を進歩させ、真に創造的なシステムで深層生成モデルを使用する可能性を強調した。
論文 参考訳(メタデータ) (2021-07-12T17:29:28Z) - Towards creativity characterization of generative models via group-based
subset scanning [51.84144826134919]
創造的プロセスを定量化し,検出し,特徴付けるグループベースサブセットスキャンを提案する。
創造的なサンプルは、データセットをまたいだ通常または非創造的なサンプルよりも大きな異常のサブセットを生成する。
論文 参考訳(メタデータ) (2021-04-01T14:07:49Z) - Reverse Engineering Configurations of Neural Text Generation Models [86.9479386959155]
モデル選択の結果、機械が生成したテキストに現れるアーティファクトの研究は、新しい研究領域である。
我々は、モデリング選択が検出可能なアーティファクトを生成テキストに残すかどうかを確認するために、広範囲な診断テストを実行する。
我々の重要な発見は、厳密な実験によって裏付けられ、そのような成果物が存在することと、生成されたテキストのみを観察することで異なるモデリング選択を推測できることである。
論文 参考訳(メタデータ) (2020-04-13T21:02:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。