論文の概要: Empathic AI Painter: A Computational Creativity System with Embodied
Conversational Interaction
- arxiv url: http://arxiv.org/abs/2005.14223v1
- Date: Thu, 28 May 2020 18:35:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-27 05:36:48.717355
- Title: Empathic AI Painter: A Computational Creativity System with Embodied
Conversational Interaction
- Title(参考訳): empathic ai painter: 身体的な会話対話を伴う計算的創造性システム
- Authors: Ozge Nilay Yalcin, Nouf Abukhodair and Steve DiPaola
- Abstract要約: 本稿では,肖像画の創作過程をコンピュータでモデル化する試みについて述べる。
本システムは,ユーザの優越した性格カテゴリーを捉えるために,共感的な対話インタラクションコンポーネントを含む。
この分類を用いて、ユーザの肖像画をパーソナライズするパーソナライズするAIポートレイチャーシステム。
- 参考スコア(独自算出の注目度): 3.5450828190071655
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There is a growing recognition that artists use valuable ways to understand
and work with cognitive and perceptual mechanisms to convey desired experiences
and narrative in their created artworks (DiPaola et al., 2010; Zeki, 2001).
This paper documents our attempt to computationally model the creative process
of a portrait painter, who relies on understanding human traits (i.e.,
personality and emotions) to inform their art. Our system includes an empathic
conversational interaction component to capture the dominant personality
category of the user and a generative AI Portraiture system that uses this
categorization to create a personalized stylization of the user's portrait.
This paper includes the description of our systems and the real-time
interaction results obtained during the demonstration session of the NeurIPS
2019 Conference.
- Abstract(参考訳): アーティストは芸術作品(DiPaola et al., 2010; Zeki, 2001)において、望ましい経験や物語を伝えるための認知的・知覚的なメカニズムを理解し、作業するために貴重な方法を使用しているという認識が高まりつつある。
本稿では,人間の特性(人格や感情)を理解して芸術を知らせるポートレート画家の創造過程を計算的にモデル化する試みについて述べる。
我々のシステムには、ユーザの優越した性格カテゴリーをキャプチャする共感的な会話インタラクションコンポーネントと、この分類を用いてユーザの肖像画をパーソナライズする生成AIポートレイチャーシステムが含まれる。
本稿では,NeurIPS 2019 Conferenceのデモセッションで得られたシステムとリアルタイムインタラクション結果について述べる。
関連論文リスト
- How Do You Perceive My Face? Recognizing Facial Expressions in Multi-Modal Context by Modeling Mental Representations [5.895694050664867]
本稿では,単純な分類タスクを超越した新しい表情分類手法を提案する。
本モデルでは,認識された顔を正確に分類し,文脈で顔を観察する際,人間によって知覚される対応する心的表現を合成する。
本研究では,人間の心的表現の近似を効果的に生成することを示す。
論文 参考訳(メタデータ) (2024-09-04T09:32:40Z) - MetaDesigner: Advancing Artistic Typography through AI-Driven, User-Centric, and Multilingual WordArt Synthesis [65.78359025027457]
MetaDesignerは、Large Language Models(LLM)の強みを活用して、ユーザエンゲージメントを中心としたデザインパラダイムを推進することによって、芸術的なタイポグラフィに革命をもたらす。
総合的なフィードバックメカニズムは、マルチモーダルモデルとユーザ評価からの洞察を活用して、設計プロセスを反復的に洗練し、拡張する。
実証的な検証は、MetaDesignerが様々なWordArtアプリケーションに効果的に機能し、審美的に魅力的でコンテキストに敏感な結果を生み出す能力を強調している。
論文 参考訳(メタデータ) (2024-06-28T11:58:26Z) - Equivalence: An analysis of artists' roles with Image Generative AI from Conceptual Art perspective through an interactive installation design practice [16.063735487844628]
本研究では、アーティストが高度なテキストから画像生成AIモデルとどのように相互作用するかを検討する。
この枠組みを実証するために,「等価性」と題されたケーススタディでは,ユーザの音声入力を連続的に変化する絵画に変換する。
この研究は、アーティストの役割に対する理解を深め、画像生成AIで作成されたアートに固有の創造的側面に対する深い評価を促進することを目的としている。
論文 参考訳(メタデータ) (2024-04-29T02:45:23Z) - Impressions: Understanding Visual Semiotics and Aesthetic Impact [66.40617566253404]
画像のセミオティックスを調べるための新しいデータセットであるImpressionsを提示する。
既存のマルチモーダル画像キャプションと条件付き生成モデルは、画像に対する可視的応答をシミュレートするのに苦労していることを示す。
このデータセットは、微調整と少数ショット適応により、画像の印象や美的評価をモデル化する能力を大幅に改善する。
論文 参考訳(メタデータ) (2023-10-27T04:30:18Z) - Pathway to Future Symbiotic Creativity [76.20798455931603]
そこで本研究では, 5クラス階層の創造システムを分類し, 擬人アーティストから機械アーティストへの創造の道筋を示す。
芸術創造においては、機械は欲求、感謝、感情を含む人間の精神状態を理解する必要があるが、機械の創造的能力と限界も理解する必要がある。
我々は、人間互換のAIシステムが「ループ内人間」の原理に基づいているべきだという哲学を取り入れた、未来のマシンアーティストを構築するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-18T15:12:02Z) - AI-based artistic representation of emotions from EEG signals: a
discussion on fairness, inclusion, and aesthetics [2.6928226868848864]
我々は、人間と機械が芸術的に感情を表現するために対話するAIベースのBrain-Computer Interface(BCI)を提案する。
この相互作用のダイナミクスを理解して、公正性、包摂性、美学の共存性を改善することを目指している。
論文 参考訳(メタデータ) (2022-02-07T14:51:02Z) - SOLVER: Scene-Object Interrelated Visual Emotion Reasoning Network [83.27291945217424]
画像から感情を予測するために,SOLVER(Scene-Object Interrelated Visual Emotion Reasoning Network)を提案する。
異なるオブジェクト間の感情関係を掘り下げるために、まずセマンティックな概念と視覚的特徴に基づいて感情グラフを構築します。
また、シーンとオブジェクトを統合するScene-Object Fusion Moduleを設計し、シーンの特徴を利用して、提案したシーンベースのアテンションメカニズムでオブジェクトの特徴の融合プロセスを導出する。
論文 参考訳(メタデータ) (2021-10-24T02:41:41Z) - Generating Music and Generative Art from Brain activity [0.0]
本研究は,脳-コンピュータインタフェース(BCI)を用いた生成アート作成のための計算システムを提案する。
生成されたアートワークは、脳信号と幾何学、色、空間的位置の概念を使って、自律的な構築に複雑さを与えます。
論文 参考訳(メタデータ) (2021-08-09T19:33:45Z) - Enhancing Cognitive Models of Emotions with Representation Learning [58.2386408470585]
本稿では,きめ細かな感情の埋め込み表現を生成するための,新しいディープラーニングフレームワークを提案する。
本フレームワークは,コンテキスト型埋め込みエンコーダとマルチヘッド探索モデルを統合する。
本モデルは共感対話データセット上で評価され,32種類の感情を分類する最新結果を示す。
論文 参考訳(メタデータ) (2021-04-20T16:55:15Z) - ArtEmis: Affective Language for Visual Art [46.643106054408285]
我々は視覚アートワークによって引き起こされる情緒体験に焦点を当てる。
ある画像に対して感じている支配的な感情を示すために、注釈を付けます。
これにより、目的コンテンツとイメージの感情的影響の両方に対して、リッチな信号セットが導かれる。
論文 参考訳(メタデータ) (2021-01-19T01:03:40Z) - The BIRAFFE2 Experiment. Study in Bio-Reactions and Faces for
Emotion-based Personalization for AI Systems [0.0]
異なる人物の感情的反応を捉えるための統一パラダイムを提案する。
機械学習手法のために、簡単に使用・開発できるフレームワークを提供する。
論文 参考訳(メタデータ) (2020-07-29T18:35:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。