論文の概要: CoCoG-2: Controllable generation of visual stimuli for understanding human concept representation
- arxiv url: http://arxiv.org/abs/2407.14949v1
- Date: Sat, 20 Jul 2024 17:52:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-23 19:58:07.192291
- Title: CoCoG-2: Controllable generation of visual stimuli for understanding human concept representation
- Title(参考訳): CoCoG-2:人間の概念表現を理解するための視覚刺激の制御可能な生成
- Authors: Chen Wei, Jiachen Zou, Dietmar Heinke, Quanying Liu,
- Abstract要約: 本稿では,生成した視覚刺激を類似性判定タスクに統合するCoCoG-2という新しいフレームワークを提案する。
CoCoG-2は、トレーニング不要誘導アルゴリズムを使用して、生成の柔軟性を向上させる。
- 参考スコア(独自算出の注目度): 6.097452771678942
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Humans interpret complex visual stimuli using abstract concepts that facilitate decision-making tasks such as food selection and risk avoidance. Similarity judgment tasks are effective for exploring these concepts. However, methods for controllable image generation in concept space are underdeveloped. In this study, we present a novel framework called CoCoG-2, which integrates generated visual stimuli into similarity judgment tasks. CoCoG-2 utilizes a training-free guidance algorithm to enhance generation flexibility. CoCoG-2 framework is versatile for creating experimental stimuli based on human concepts, supporting various strategies for guiding visual stimuli generation, and demonstrating how these stimuli can validate various experimental hypotheses. CoCoG-2 will advance our understanding of the causal relationship between concept representations and behaviors by generating visual stimuli. The code is available at \url{https://github.com/ncclab-sustech/CoCoG-2}.
- Abstract(参考訳): 人間は、食品の選択やリスク回避といった意思決定作業を容易にする抽象概念を用いて、複雑な視覚刺激を解釈する。
類似性判定タスクはこれらの概念を探索するのに有効である。
しかし,概念空間における制御可能な画像生成法は未開発である。
本研究では,生成した視覚刺激を類似性判定タスクに統合するCoCoG-2という新しいフレームワークを提案する。
CoCoG-2は、トレーニング不要誘導アルゴリズムを使用して、生成の柔軟性を向上させる。
CoCoG-2フレームワークは、人間の概念に基づいて実験的刺激を創出し、視覚刺激の発生を導く様々な戦略を支援し、これらの刺激が様々な実験的仮説をどのように検証するかを示すのに最適である。
CoCoG-2は視覚刺激を発生させることにより,概念表現と行動の因果関係の理解を深める。
コードは \url{https://github.com/ncclab-sustech/CoCoG-2} で公開されている。
関連論文リスト
- Non-confusing Generation of Customized Concepts in Diffusion Models [135.4385383284657]
テキスト誘導拡散モデル(TGDM)を用いた合成概念生成における概念間視覚混乱の共通課題に取り組む。
既存のカスタマイズされた生成方法は、第2ステージの微調整のみに焦点を当て、第1ステージを見下ろしている。
本稿では,CLIF(CLIF)と呼ばれる単純かつ効果的な画像言語微調整法を提案する。
論文 参考訳(メタデータ) (2024-05-11T05:01:53Z) - CoCoG: Controllable Visual Stimuli Generation based on Human Concept Representations [6.097452771678942]
本稿では,Concept based Controllable Generation (CoCoG) フレームワークを提案する。
CoCoGは、解釈可能な概念を抽出するためのシンプルで効率的なAIエージェントである2つのコンポーネントで構成されている。
人間の行動予測精度と制御可能な生成能力の2つの側面からCoCoGの性能を定量化する。
論文 参考訳(メタデータ) (2024-04-25T10:10:48Z) - Pix2Code: Learning to Compose Neural Visual Concepts as Programs [23.122886870560247]
プログラム合成を視覚的リレーショナル推論に拡張するフレームワークPix2Codeを提案する。
Pix2Codeの表現は人間の解釈可能であり、性能向上のために容易に修正可能であることを示す。
論文 参考訳(メタデータ) (2024-02-13T08:14:10Z) - ConceptBed: Evaluating Concept Learning Abilities of Text-to-Image
Diffusion Models [79.10890337599166]
本研究では,284のユニークな視覚概念と33Kの合成テキストプロンプトからなる大規模データセットであるConceptBedを紹介する。
我々は、対象、属性、スタイルのいずれかである視覚概念を評価し、また、構成性の4つの次元(計数、属性、関係、行動)を評価する。
私たちの結果は、概念を学ぶことと、既存のアプローチが克服に苦労する構成性を維持することのトレードオフを示しています。
論文 参考訳(メタデータ) (2023-06-07T18:00:38Z) - Hierarchical Contrastive Learning Enhanced Heterogeneous Graph Neural
Network [59.860534520941485]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、異種情報ネットワーク(HIN)を扱う能力に優れていた。
近年,自己指導型学習は最もエキサイティングな学習パラダイムの1つとなり,ラベルがない場合に大きな可能性を示す。
本稿では,自己教師型HGNNの問題点を考察し,HGNNのための新しいコントラスト学習機構であるHeCoを提案する。
論文 参考訳(メタデータ) (2023-04-24T16:17:21Z) - Generalization Beyond Feature Alignment: Concept Activation-Guided
Contrastive Learning [34.52414482636396]
概念コントラスト(CoCo)は、ニューロンに符号化された高レベルな概念と対比することにより、要素的特徴アライメントを緩和する。
CoCoは一貫してモデルの一般化機能を改善している。
論文 参考訳(メタデータ) (2022-11-13T08:16:19Z) - Cross-View Panorama Image Synthesis [68.35351563852335]
PanoGANは、新しい敵対的フィードバックGANフレームワークである。
PanoGANは、最先端のアプローチよりもより説得力のある、高品質なパノラマ画像生成を可能にする。
論文 参考訳(メタデータ) (2022-03-22T15:59:44Z) - Convolutional Cobweb: A Model of Incremental Learning from 2D Images [0.0]
本稿では,視覚画像のラベルを漸進的に学習し,予測できる新しい概念形成手法を提案する。
我々は、MNISTの桁認識タスクの漸進的な変化に適用することで、この新しいアプローチを実験的に評価する。
論文 参考訳(メタデータ) (2022-01-18T04:39:31Z) - Unsupervised Learning of Compositional Energy Concepts [70.11673173291426]
本稿では,概念を別個のエネルギー関数として発見し,表現するCOMETを提案する。
Cometは、統一されたフレームワークの下でのオブジェクトだけでなく、グローバルな概念も表現します。
論文 参考訳(メタデータ) (2021-11-04T17:46:12Z) - Toward a Visual Concept Vocabulary for GAN Latent Space [74.12447538049537]
本稿では,GANの潜在空間で表現される原始視覚概念のオープンエンド語彙を構築するための新しい手法を提案する。
提案手法は, 層選択性に基づく知覚的正当方向の自動識別, 自由形, 構成的自然言語記述による人為的アノテーションの3つの要素から構成される。
実験により、我々のアプローチで学んだ概念は信頼性があり、構成可能であることが示され、クラス、コンテキスト、オブザーバをまたいで一般化される。
論文 参考訳(メタデータ) (2021-10-08T17:58:19Z) - Self-supervised Heterogeneous Graph Neural Network with Co-contrastive
Learning [38.062495223111355]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、異種情報ネットワーク(HIN)を扱う能力に優れていた。
本稿では,自己教師型HGNNの問題点を考察し,HGNNのための新しいコントラスト学習機構であるHeCoを提案する。
論文 参考訳(メタデータ) (2021-05-19T13:15:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。