論文の概要: Imagining a Future of Designing with AI: Dynamic Grounding, Constructive
Negotiation, and Sustainable Motivation
- arxiv url: http://arxiv.org/abs/2402.07342v1
- Date: Mon, 12 Feb 2024 00:20:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-13 16:08:09.458264
- Title: Imagining a Future of Designing with AI: Dynamic Grounding, Constructive
Negotiation, and Sustainable Motivation
- Title(参考訳): AIによるデザインの未来を想像する: 動的グラウンド、構成的ネゴシエーション、持続可能なモチベーション
- Authors: Priyan Vaithilingam, Ian Arawjo, Elena L. Glassman
- Abstract要約: 我々は、過去の技術と比較して、大きなAIモデルがデザインを提供することのできる新しい価値を分離することを目指している。
自然言語対応基盤モデルの潜在品質を要約した3つの余裕にたどり着きます。
我々の設計プロセス、用語、図は、AI技術の相対的な可利用性に関する将来の議論に貢献することを目的としています。
- 参考スコア(独自算出の注目度): 13.850610205757633
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We ideate a future design workflow that involves AI technology. Drawing from
activity and communication theory, we attempt to isolate the new value large AI
models can provide design compared to past technologies. We arrive at three
affordances -- dynamic grounding, constructive negotiation, and sustainable
motivation -- that summarize latent qualities of natural language-enabled
foundation models that, if explicitly designed for, can support the process of
design. Through design fiction, we then imagine a future interface as a
diegetic prototype, the story of Squirrel Game, that demonstrates each of our
three affordances in a realistic usage scenario. Our design process,
terminology, and diagrams aim to contribute to future discussions about the
relative affordances of AI technology with regard to collaborating with human
designers.
- Abstract(参考訳): 私たちは、AI技術を含む将来のデザインワークフローを考えます。
アクティビティとコミュニケーション理論から抽出し,過去の技術と比較して,大規模aiモデルがデザインを提供できる新たな価値の分離を試みる。
動的基盤化、建設交渉、持続可能なモチベーションという3つの余裕に到達し、自然言語対応基盤モデルの潜在品質を要約して、明示的に設計すれば、設計プロセスをサポートすることができます。
デザイン・フィクションを通じて、私たちは未来のインターフェースを、現実的なシナリオで我々の3つの余裕を実演するSquirrel Gameの試作品として想像する。
我々のデザインプロセス、用語、図表は、人間デザイナーとのコラボレーションに関して、AI技術の相対的な可利用性に関する将来の議論に寄与することを目的としています。
関連論文リスト
- Empowering Clients: Transformation of Design Processes Due to Generative AI [1.4003044924094596]
この研究は、AIがアイデアの迅速な視覚化を通じて、クライアントが設計プロセスに参加することを可能にすることによって、アイデアのフェーズを破壊できることを明らかにしている。
私たちの研究は、AIが設計に対して貴重なフィードバックを提供することができる一方で、そのような設計を生成できない可能性があることを示しています。
アーキテクチャの解釈的主権と,AIが設計プロセスのオーサシップをますます引き継ぐにつれて,意味とアイデンティティの喪失について,アーキテクトの間に不確実性があることも明らかになった。
論文 参考訳(メタデータ) (2024-11-22T16:48:15Z) - Diffusion-Based Visual Art Creation: A Survey and New Perspectives [51.522935314070416]
本調査は,拡散に基づく視覚芸術創造の新たな領域を探求し,その発展を芸術的,技術的両面から検討する。
本研究は,芸術的要件が技術的課題にどのように変換されるかを明らかにし,視覚芸術創造における拡散法の設計と応用を強調した。
我々は、AIシステムが芸術的知覚と創造性において人間の能力をエミュレートし、潜在的に増強するメカニズムに光を当てることを目指している。
論文 参考訳(メタデータ) (2024-08-22T04:49:50Z) - Inspired by AI? A Novel Generative AI System To Assist Conceptual Automotive Design [6.001793288867721]
デザインインスピレーションは、デザインの方向性を確立するだけでなく、感情を呼び起こし、概念設計プロセス中に意味を伝えるためにも不可欠である。
多くの実践的デザイナーはPinterestのようなプラットフォーム上でテキストベースの検索を使用してイメージのアイデアを集め、続いて紙にスケッチしたり、デジタルツールを使ってコンセプトを開発したりする。
拡散モデルのような新しい生成AI技術は、テキストとイメージインスピレーションインプットに基づいてデザイン概念を迅速に生成することで、これらのプロセスを合理化するための有望な道を提供する。
論文 参考訳(メタデータ) (2024-06-06T17:04:14Z) - iCONTRA: Toward Thematic Collection Design Via Interactive Concept
Transfer [16.35842298296878]
対話型Concept TRAnsferシステムであるiCONTRAを導入する。
iCONTRAは、経験豊富なデザイナーと初心者の両方が、創造的なデザインコンセプトを熱心に探求することを可能にする。
また、微調整モデルを必要としないゼロショット画像編集アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-13T17:48:39Z) - Grasping AI: experiential exercises for designers [8.95562850825636]
本稿では,AIシステムにおけるインタラクション・アベイランス,ユニークなリレーショナル可能性,より広範な社会的影響を探求し,考察する手法について検討する。
比喩や制定に関する演習は、トレーニングや学習、プライバシーと同意、自律性、エージェンシーをより具体的になる。
論文 参考訳(メタデータ) (2023-10-02T15:34:08Z) - Next Steps for Human-Centered Generative AI: A Technical Perspective [107.74614586614224]
我々はHuman-centered Generative AI(HGAI)の次のステップを提案する。
これらの次のステップを特定することで、HGAIにおける創発的なアイデアの一貫性を追求するため、学際的な研究チームを引き出すつもりです。
論文 参考訳(メタデータ) (2023-06-27T19:54:30Z) - Pathway to Future Symbiotic Creativity [76.20798455931603]
そこで本研究では, 5クラス階層の創造システムを分類し, 擬人アーティストから機械アーティストへの創造の道筋を示す。
芸術創造においては、機械は欲求、感謝、感情を含む人間の精神状態を理解する必要があるが、機械の創造的能力と限界も理解する必要がある。
我々は、人間互換のAIシステムが「ループ内人間」の原理に基づいているべきだという哲学を取り入れた、未来のマシンアーティストを構築するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-18T15:12:02Z) - TEMOS: Generating diverse human motions from textual descriptions [53.85978336198444]
テキスト記述から多種多様な人間の動作を生成するという課題に対処する。
本研究では,人間の動作データを用いた可変オートエンコーダ(VAE)トレーニングを利用したテキスト条件生成モデルTEMOSを提案する。
TEMOSフレームワークは,従来のような骨格に基づくアニメーションと,より表現力のあるSMPLボディモーションの両方を生成可能であることを示す。
論文 参考訳(メタデータ) (2022-04-25T14:53:06Z) - WenLan 2.0: Make AI Imagine via a Multimodal Foundation Model [74.4875156387271]
我々は,膨大なマルチモーダル(視覚的・テキスト的)データを事前学習した新しい基礎モデルを開発する。
そこで本研究では,様々な下流タスクにおいて,最先端の成果が得られることを示す。
論文 参考訳(メタデータ) (2021-10-27T12:25:21Z) - Human in the Loop for Machine Creativity [0.0]
我々は、創造的アプリケーションのための既存のHuman-in-the-loop(HITL)アプローチを概念化する。
モデル,インターフェース,機械の創造性に対する長期的影響について検討し,考察する。
テキスト,視覚,音,その他の情報を結合し,人や環境の自動解析を行うマルチモーダルHITLプロセスを提案する。
論文 参考訳(メタデータ) (2021-10-07T15:42:18Z) - Future Urban Scenes Generation Through Vehicles Synthesis [90.1731992199415]
本研究では,都市景観の視覚的外観を予測するためのディープラーニングパイプラインを提案する。
ループには解釈可能な情報が含まれ、各アクターは独立してモデル化される。
従来のCityFlowのシーン生成手法に比べて,このアプローチが優れていることを示す。
論文 参考訳(メタデータ) (2020-07-01T08:40:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。