論文の概要: Between Predictability and Randomness: Seeking Artistic Inspiration from AI Generative Models
- arxiv url: http://arxiv.org/abs/2506.12634v1
- Date: Sat, 14 Jun 2025 21:34:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:46.598465
- Title: Between Predictability and Randomness: Seeking Artistic Inspiration from AI Generative Models
- Title(参考訳): 予測可能性とランダム性:AI生成モデルから芸術的インスピレーションを求める
- Authors: Olga Vechtomova,
- Abstract要約: 本稿では,創造性の刺激としてAIが生成した詩行を用いる方法について検討する。
LSTM-VAE線は,共振画像と生産的不確定性の組み合わせにより,その誘発的影響を実証する。
- 参考スコア(独自算出の注目度): 6.744385328015561
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artistic inspiration often emerges from language that is open to interpretation. This paper explores the use of AI-generated poetic lines as stimuli for creativity. Through analysis of two generative AI approaches--lines generated by Long Short-Term Memory Variational Autoencoders (LSTM-VAE) and complete poems by Large Language Models (LLMs)--I demonstrate that LSTM-VAE lines achieve their evocative impact through a combination of resonant imagery and productive indeterminacy. While LLMs produce technically accomplished poetry with conventional patterns, LSTM-VAE lines can engage the artist through semantic openness, unconventional combinations, and fragments that resist closure. Through the composition of an original poem, where narrative emerged organically through engagement with LSTM-VAE generated lines rather than following a predetermined structure, I demonstrate how these characteristics can serve as evocative starting points for authentic artistic expression.
- Abstract(参考訳): 芸術的なインスピレーションは、しばしば解釈にオープンな言語から現れる。
本稿では,創造性の刺激としてAIが生成した詩行を用いる方法について検討する。
Long Short-Term Memory Variational Autoencoders (LSTM-VAE) とLarge Language Models (LLMs) による完全詩の2つの生成AIアプローチの解析を通して、LSTM-VAEラインが共振画像と生産的不確定性の組み合わせにより、その誘発的影響を実証した。
LLMは技術的に達成された詩を伝統的なパターンで生成するが、LSTM-VAEの行は、意味的開放性、非伝統的な組み合わせ、閉鎖に抵抗する断片を通してアーティストを巻き込むことができる。
LSTM-VAEが生成した行に従わずに,物語が有機的に出現するオリジナル詩の合成を通して,これらの特徴が真の芸術表現の出発点としてどのように機能するかを実証する。
関連論文リスト
- OmniDRCA: Parallel Speech-Text Foundation Model via Dual-Resolution Speech Representations and Contrastive Alignment [48.17593420058064]
我々は,共同自己回帰モデルに基づく並列音声テキスト基盤モデルOmniDRCAを提案する。
コントラストアライメントによる音声理解を高めつつ,音声とテキストを並列に処理する手法を提案する。
論文 参考訳(メタデータ) (2025-06-11T02:57:22Z) - RePrompt: Reasoning-Augmented Reprompting for Text-to-Image Generation via Reinforcement Learning [88.14234949860105]
RePromptは、強化学習による迅速な強化プロセスに明示的な推論を導入する、新しいリプロンプトフレームワークである。
提案手法は,人手による注釈付きデータなしでエンドツーエンドのトレーニングを可能にする。
論文 参考訳(メタデータ) (2025-05-23T06:44:26Z) - Compose Your Aesthetics: Empowering Text-to-Image Models with the Principles of Art [61.28133495240179]
本稿では,ユーザが特定した美学をT2I生成出力と整合させることを目的とした,美学アライメントの新しい課題を提案する。
アートワークが美学にアプローチするための貴重な視点を提供する方法にインスパイアされた私たちは、構成的枠組みのアーティストが採用する視覚的美学を定式化した。
我々は,T2I DMが,ユーザが特定したPoA条件により10の合成制御を効果的に提供することを実証した。
論文 参考訳(メタデータ) (2025-03-15T06:58:09Z) - Mimetic Poet [6.999740786886536]
本稿では,創造的思考を促進するために生成AIを用いた新しいデバイスの設計と初期評価について述べる。
参加者は、デバイス表面に言葉を物理的に配置することで、短い詩文を作成できる。
テキストを構成する際、システムは大きな言語モデル(LLM)を使用して、e-ink画面に表示される応答を生成する。
論文 参考訳(メタデータ) (2024-06-04T02:50:15Z) - Unified Language-Vision Pretraining in LLM with Dynamic Discrete Visual Tokenization [52.935150075484074]
非言語的なイメージを外国語のような個別のトークン列に変換するために、よく設計されたビジュアルトークン化器を導入する。
結果として得られる視覚トークンは、単語に相応しいハイレベルな意味論を含み、画像から変化する動的シーケンス長もサポートする。
この統合によりLaVITは、マルチモーダルコンテンツの理解と生成を同時に行うための印象的な汎用インターフェースとして機能する。
論文 参考訳(メタデータ) (2023-09-09T03:01:38Z) - Neural Authorship Attribution: Stylometric Analysis on Large Language
Models [16.63955074133222]
GPT-4、PaLM、Llamaのような大規模言語モデル(LLM)は、AIによるテキスト生成を著しく推進している。
誤用の可能性に対する懸念が高まっているため、AI生成テキストの鑑識の必要性が高まっている。
論文 参考訳(メタデータ) (2023-08-14T17:46:52Z) - BACON: Deep-Learning Powered AI for Poetry Generation with Author
Linguistic Style Transfer [91.3755431537592]
本稿では,BACONについて述べる。BACONは,著者の言語スタイルを伝達する自動詩生成器のプロトタイプである。
有限状態機械、確率モデル、人工ニューラルネットワーク、深層学習の概念と技法を組み合わせて、任意の著者のスタイルで豊かな美的品質でオリジナルの詩を書く。
論文 参考訳(メタデータ) (2021-12-14T00:08:36Z) - Prose2Poem: The Blessing of Transformers in Translating Prose to Persian
Poetry [2.15242029196761]
我々は、古代ペルシア詩に散文を翻訳する新しいニューラル・マシン・トランスレーション(NMT)アプローチを導入する。
我々は、初期翻訳を得るために、スクラッチからトランスフォーマーモデルを訓練し、最終翻訳を得るためにBERTの様々なバリエーションを事前訓練した。
論文 参考訳(メタデータ) (2021-09-30T09:04:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。