論文の概要: Imagining Design Workflows in Agentic AI Futures
- arxiv url: http://arxiv.org/abs/2509.20731v1
- Date: Thu, 25 Sep 2025 04:23:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.689843
- Title: Imagining Design Workflows in Agentic AI Futures
- Title(参考訳): エージェントAIの未来における設計ワークフローを想像する
- Authors: Samangi Wadinambiarachchi, Jenny Waycott, Yvonne Rogers, Greg Wadley,
- Abstract要約: エージェントAIという新しいコンセプトが生まれつつある。
生成AIはプロンプトに応じて出力を生成するが、エージェントAIシステムは日常的なタスクを自律的に実行することを約束する。
我々は、デザイナーが協力的なエージェントAIプラットフォームとどのように対話したいかを検討した。
- 参考スコア(独自算出の注目度): 20.655623973620774
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As designers become familiar with Generative AI, a new concept is emerging: Agentic AI. While generative AI produces output in response to prompts, agentic AI systems promise to perform mundane tasks autonomously, potentially freeing designers to focus on what they love: being creative. But how do designers feel about integrating agentic AI systems into their workflows? Through design fiction, we investigated how designers want to interact with a collaborative agentic AI platform. Ten professional designers imagined and discussed collaborating with an AI agent to organise inspiration sources and ideate. Our findings highlight the roles AI agents can play in supporting designers, the division of authority between humans and AI, and how designers' intent can be explained to AI agents beyond prompts. We synthesise our findings into a conceptual framework that identifies authority distribution among humans and AI agents and discuss directions for utilising AI agents in future design workflows.
- Abstract(参考訳): デザイナーがジェネレーティブAIに慣れるにつれて、新しいコンセプトが生まれつつある。
生成AIはプロンプトに反応してアウトプットを生成するが、エージェントAIシステムは日常的なタスクを自律的に実行することを約束し、デザイナーが好きなもの、すなわち創造性にフォーカスすることを解放する可能性がある。
しかし、デザイナはワークフローにエージェントAIシステムを統合することについてどう感じますか?
デザインフィクションを通じて、設計者が協調エージェントAIプラットフォームとどのように対話したいかを調査した。
10人のプロのデザイナーが、インスピレーションソースとアイデアを組織化するためのAIエージェントとのコラボレーションを想像し、議論した。
我々の発見は、AIエージェントがデザイナを支援する上で果たす役割、人間とAIの権威の分断、そしてデザイナの意図がプロンプトを超えてAIエージェントにどのように説明されるかを強調した。
我々は,この知見を,人間とAIエージェント間の権威分布を識別する概念的な枠組みに合成し,将来の設計ワークフローにおけるAIエージェント活用の方向性について議論する。
関連論文リスト
- Actionable AI: Enabling Non Experts to Understand and Configure AI Systems [5.534140394498714]
Actionable AIでは、非専門家がブラックボックスエージェントを設定することができる。
不確実な条件下では、非専門家は高いレベルの性能を達成する。
我々は、AIベースのエージェントへのアクセスをオープンにする手段として、Actionable AIを提案する。
論文 参考訳(メタデータ) (2025-03-09T23:09:04Z) - AI Automatons: AI Systems Intended to Imitate Humans [54.19152688545896]
人々の行動、仕事、能力、類似性、または人間性を模倣するように設計されたAIシステムが増加している。
このようなAIシステムの研究、設計、展開、可用性は、幅広い法的、倫理的、その他の社会的影響に対する懸念を喚起している。
論文 参考訳(メタデータ) (2025-03-04T03:55:38Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - Grasping AI: experiential exercises for designers [8.95562850825636]
本稿では,AIシステムにおけるインタラクション・アベイランス,ユニークなリレーショナル可能性,より広範な社会的影響を探求し,考察する手法について検討する。
比喩や制定に関する演習は、トレーニングや学習、プライバシーと同意、自律性、エージェンシーをより具体的になる。
論文 参考訳(メタデータ) (2023-10-02T15:34:08Z) - The Rise and Potential of Large Language Model Based Agents: A Survey [91.71061158000953]
大規模言語モデル(LLM)は、人工知能(AGI)の潜在的な火花と見なされる
まず、エージェントの概念を哲学的起源からAI開発まで追跡し、LLMがエージェントに適した基盤である理由を説明します。
単一エージェントシナリオ,マルチエージェントシナリオ,ヒューマンエージェント協調の3つの側面において,LLMベースのエージェントの広範な応用について検討する。
論文 参考訳(メタデータ) (2023-09-14T17:12:03Z) - Designing Participatory AI: Creative Professionals' Worries and
Expectations about Generative AI [8.379286663107845]
生成AI(英: Generative AI)とは、テキストのプロンプトに基づいて視覚的または書き起こされたコンテンツを自動生成する一連の技術で、複雑さが飛躍的に増加し、わずか数年で広く利用できるようになる技術である。
本稿では,創造的プロフェッショナルが生成AIをどのように考えるかに関する質的研究の結果を報告する。
論文 参考訳(メタデータ) (2023-03-15T20:57:03Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Toward AI Assistants That Let Designers Design [0.0]
デザイナを支援するAIは、再考する必要がある。デザイナの創造性と問題解決を支援し、活用することで、自動化ではなく協力することを目指している。
私たちは、設計者の目標、推論、能力に関する推論を可能にする生成的ユーザモデルを中心に構築された、そのようなAIを作成するためのフレームワークとして、AI支援設計を提示します。
論文 参考訳(メタデータ) (2021-07-22T10:29:36Z) - Questioning the AI: Informing Design Practices for Explainable AI User
Experiences [33.81809180549226]
説明可能なAI(XAI)への関心の高まりは、このトピックに関する膨大なアルゴリズム作業の収集につながった。
私たちは、説明可能なAI製品を作成するための現在のXAIアルゴリズム作業とプラクティスのギャップを特定しようとしています。
我々は,ユーザが説明責任を表現できるXAI質問バンクを開発した。
論文 参考訳(メタデータ) (2020-01-08T12:34:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。