論文の概要: Simple Lines, Big Ideas: Towards Interpretable Assessment of Human Creativity from Drawings
- arxiv url: http://arxiv.org/abs/2511.12880v2
- Date: Thu, 20 Nov 2025 02:10:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-21 15:01:03.101937
- Title: Simple Lines, Big Ideas: Towards Interpretable Assessment of Human Creativity from Drawings
- Title(参考訳): 簡単な線と大きなアイデア: 図面からの人間の創造性の評価に向けて
- Authors: Zihao Lin, Zhenshan Shi, Sasa Zhao, Hanwei Zhu, Lingyu Zhu, Baoliang Chen, Lei Mo,
- Abstract要約: 図面からの自動的かつ解釈可能な創造性評価のためのデータ駆動型フレームワークを提案する。
6]で提案された認知的エビデンスにより、創造性は、引き出されたもの(コンテンツ)と引き出されたもの(スタイル)の両方から生ずることができ、創造性スコアをこれら2つの相補的な次元の関数として再解釈する。
- 参考スコア(独自算出の注目度): 18.09092203643732
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Assessing human creativity through visual outputs, such as drawings, plays a critical role in fields including psychology, education, and cognitive science. However, current assessment practices still rely heavily on expert-based subjective scoring, which is both labor-intensive and inherently subjective. In this paper, we propose a data-driven framework for automatic and interpretable creativity assessment from drawings. Motivated by the cognitive evidence proposed in [6] that creativity can emerge from both what is drawn (content) and how it is drawn (style), we reinterpret the creativity score as a function of these two complementary dimensions. Specifically, we first augment an existing creativity-labeled dataset with additional annotations targeting content categories. Based on the enriched dataset, we further propose a conditional model predicting content, style, and ratings simultaneously. In particular, the conditional learning mechanism that enables the model to adapt its visual feature extraction by dynamically tuning it to creativity-relevant signals conditioned on the drawing's stylistic and semantic cues. Experimental results demonstrate that our model achieves state-of-the-art performance compared to existing regression-based approaches and offers interpretable visualizations that align well with human judgments. The code and annotations will be made publicly available at https://github.com/WonderOfU9/CSCA_PRCV_2025
- Abstract(参考訳): 視覚的なアウトプットを通じて人間の創造性を評価することは、心理学、教育、認知科学などの分野において重要な役割を果たす。
しかし、現在の評価実践は、労働集約的かつ本質的に主観的である専門家ベースの主観的スコアに大きく依存している。
本稿では,図面からの自動的かつ解釈可能な創造性評価のためのデータ駆動型フレームワークを提案する。
6]で提案された認知的エビデンスにより、創造性は、引き出されたもの(コンテンツ)と引き出されたもの(スタイル)の両方から生ずることができ、創造性スコアをこれら2つの相補的な次元の関数として再解釈する。
具体的には、コンテンツカテゴリを対象としたアノテーションを付加した、既存のクリエイティビティラベル付きデータセットをまず強化する。
拡張データセットに基づいて、コンテンツ、スタイル、レーティングを同時に予測する条件付きモデルを提案する。
特に、モデルが視覚的特徴抽出に適応するための条件学習機構は、図面のスタイリスティックかつセマンティックなキューに条件付けされた創造性関連信号に動的にチューニングすることで実現される。
実験結果から,従来の回帰に基づく手法と比較して最先端の性能が向上し,人間の判断とよく一致した解釈可能な可視化が実現された。
コードとアノテーションはhttps://github.com/WonderOfU9/CSCA_PRCV_2025で公開される。
関連論文リスト
- CreativityPrism: A Holistic Benchmark for Large Language Model Creativity [64.18257552903151]
創造性はしばしば人間の知能の目印と見なされる。
さまざまなシナリオにまたがってクリエイティビティを評価するための総合的なフレームワークはまだ存在しません。
本稿では,創造性を質,新規性,多様性の3次元に分解する評価分析フレームワークであるCreativePrismを提案する。
論文 参考訳(メタデータ) (2025-10-23T00:22:10Z) - TraitSpaces: Towards Interpretable Visual Creativity for Human-AI Co-Creation [0.0]
心理学からアーティストや理論を実践する実践者へのインタビューに基づいて、私たちは、創造性の感情的、象徴的、文化的、倫理的次元を捉えた12の特徴を定義します。
環境対話性や空洞アークといったトラストは高い信頼性で予測される。
私たちの研究は、文化的・美的な洞察と計算モデリングを結びつけることで、創造性を数字に還元するのではなく、アーティスト、研究者、AIシステムが有意義に協力するための共通の言語と解釈可能なツールを提供することを目的としています。
論文 参考訳(メタデータ) (2025-09-29T06:24:18Z) - Compose Your Aesthetics: Empowering Text-to-Image Models with the Principles of Art [61.28133495240179]
本稿では,ユーザが特定した美学をT2I生成出力と整合させることを目的とした,美学アライメントの新しい課題を提案する。
アートワークが美学にアプローチするための貴重な視点を提供する方法にインスパイアされた私たちは、構成的枠組みのアーティストが採用する視覚的美学を定式化した。
我々は,T2I DMが,ユーザが特定したPoA条件により10の合成制御を効果的に提供することを実証した。
論文 参考訳(メタデータ) (2025-03-15T06:58:09Z) - APDDv2: Aesthetics of Paintings and Drawings Dataset with Artist Labeled Scores and Comments [45.57709215036539]
Aesthetics Paintings and Drawings dataset (APDD)は,24の異なる芸術カテゴリーと10の美的属性を含む最初の総合的な絵画コレクションである。
APDDv2は画像コーパスを拡張し、アノテーションの品質を改善し、詳細な言語コメントを特徴としている。
本稿では,ArtCLIP(Art Assessment Network for Specific Painting Styles)の改訂版について紹介する。
論文 参考訳(メタデータ) (2024-11-13T11:46:42Z) - Exploiting Contextual Uncertainty of Visual Data for Efficient Training of Deep Models [0.65268245109828]
アクティブラーニングCDALにおける文脈多様性の概念を導入する。
モデルバイアスを低減するために、文脈的に公正なデータをキュレートするデータ修復アルゴリズムを提案する。
我々は、野生生物カメラトラップ画像の画像検索システムと、質の悪い農村道路に対する信頼性の高い警告システムの開発に取り組んでいる。
論文 参考訳(メタデータ) (2024-11-04T09:43:33Z) - Computational Modeling of Artistic Inspiration: A Framework for Predicting Aesthetic Preferences in Lyrical Lines Using Linguistic and Stylistic Features [8.205321096201095]
芸術的なインスピレーションは、観客に深く響く作品を作る上で重要な役割を担っている。
この研究は、異なる個人における芸術的嗜好を計算的にモデル化するための新しい枠組みを提案する。
我々のフレームワークは、最先端のオープンソース言語モデルであるLLaMA-3-70bを18ポイント近く上回っている。
論文 参考訳(メタデータ) (2024-10-03T18:10:16Z) - Zero-Shot Object-Centric Representation Learning [72.43369950684057]
ゼロショット一般化のレンズによる現在の対象中心法について検討する。
8つの異なる合成および実世界のデータセットからなるベンチマークを導入する。
多様な実世界の画像のトレーニングにより、見えないシナリオへの転送性が向上することがわかった。
論文 参考訳(メタデータ) (2024-08-17T10:37:07Z) - Impressions: Understanding Visual Semiotics and Aesthetic Impact [66.40617566253404]
画像のセミオティックスを調べるための新しいデータセットであるImpressionsを提示する。
既存のマルチモーダル画像キャプションと条件付き生成モデルは、画像に対する可視的応答をシミュレートするのに苦労していることを示す。
このデータセットは、微調整と少数ショット適応により、画像の印象や美的評価をモデル化する能力を大幅に改善する。
論文 参考訳(メタデータ) (2023-10-27T04:30:18Z) - Knowledge-Aware Prompt Tuning for Generalizable Vision-Language Models [64.24227572048075]
本稿では,視覚言語モデルのためのKnowledge-Aware Prompt Tuning(KAPT)フレームワークを提案する。
我々のアプローチは、人間の知性からインスピレーションを得ており、外部知識は、通常、オブジェクトの新たなカテゴリを認識するために組み込まれています。
論文 参考訳(メタデータ) (2023-08-22T04:24:45Z) - Quantifying Learnability and Describability of Visual Concepts Emerging
in Representation Learning [91.58529629419135]
我々は、ディープニューラルネットワークによって自動的に発見された視覚的なグルーピングを特徴付ける方法を検討する。
本稿では、任意の画像グループ化の解釈可能性の定量化に使用できる視覚的学習可能性と記述可能性という2つの概念を紹介する。
論文 参考訳(メタデータ) (2020-10-27T18:41:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。