論文の概要: The Workflow as Medium: A Framework for Navigating Human-AI Co-Creation
- arxiv url: http://arxiv.org/abs/2511.18182v1
- Date: Sat, 22 Nov 2025 20:36:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.678021
- Title: The Workflow as Medium: A Framework for Navigating Human-AI Co-Creation
- Title(参考訳): 中途半端なワークフロー:人間とAIのコクレーションをナビゲートするためのフレームワーク
- Authors: Lee Ackerman,
- Abstract要約: クリエイティブインテリジェンスループ(CIL、Creative Intelligence Loop)は、人間とAIの共創に責任を負うための新しい社会技術フレームワークである。
CILは、多様なAIチームメイトの戦略的統合を導く、動的な人間-AIコラボレーションのための規律付き構造を提案する。
CILは、2つのグラフィックノベルラの実践による創造によって実証的に実証された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This paper introduces the Creative Intelligence Loop (CIL), a novel socio-technical framework for responsible human-AI co-creation. Rooted in the 'Workflow as Medium' paradigm, the CIL proposes a disciplined structure for dynamic human-AI collaboration, guiding the strategic integration of diverse AI teammates who function as collaborators while the human remains the final arbiter for ethical alignment and creative integrity. The CIL was empirically demonstrated through the practice-led creation of two graphic novellas, investigating how AI could serve as an effective creative colleague within a subjective medium lacking objective metrics. The process required navigating multifaceted challenges including AI's 'jagged frontier' of capabilities, sycophancy, and attention-scarce feedback environments. This prompted iterative refinement of teaming practices, yielding emergent strategies: a multi-faceted critique system integrating adversarial AI roles to counter sycophancy, and prioritizing 'feedback-ready' concrete artifacts to elicit essential human critique. The resulting graphic novellas analyze distinct socio-technical governance failures: 'The Steward' examines benevolent AI paternalism in smart cities, illustrating how algorithmic hubris can erode freedom; 'Fork the Vote' probes democratic legitimacy by comparing centralized AI opacity with emergent collusion in federated networks. This work contributes a self-improving framework for responsible human-AI co-creation and two graphic novellas designed to foster AI literacy and dialogue through accessible narrative analysis of AI's societal implications.
- Abstract(参考訳): 本稿では,CIL(Creative Intelligence Loop)について紹介する。
ワークフロー・アズ・ミディアム」のパラダイムに則って、CILはダイナミックな人間とAIのコラボレーションのための規律ある構造を提案し、人間は倫理的整合性と創造的整合性のための最終目標でありながら、協力者として機能する多様なAIチームメイトの戦略的統合を導く。
CILは、2つのグラフィックノベルラを実践的に作り出し、AIが客観的な指標を欠いた主観的な媒体の中で効果的な創造的同僚としてどのように機能するかを実証的に実証した。
このプロセスでは、AIの'ジャグリングフロンティア'機能、薬局、注目度の高いフィードバック環境など、多面的な課題をナビゲートする必要がありました。
このことはチームリングの実践を反復的に洗練させ、創発的な戦略を生み出した: 逆境のAIの役割を統合する多面的批判システムと、人間にとって不可欠な批判を引き出すための「フィードバック対応」具体的なアーティファクトの優先順位付けである。
The Steward"はスマートシティにおける愛国的なAI父性主義を検証し、アルゴリズムのハブがいかに自由を損なうかを説明し、"Fork the Vote"は、中央集権的なAI不透明度とフェデレートされたネットワークにおける創発的な共謀とを比較して、民主的な正当性を調査する。
この研究は、AIの社会的意味に関する物語分析を通じて、AIのリテラシーと対話を促進するために設計された2つのグラフィックノベルラと、人間とAIの共創を責任付けるための自己改善フレームワークに貢献する。
関連論文リスト
- Humanizing AI Grading: Student-Centered Insights on Fairness, Trust, Consistency and Transparency [0.6138671548064355]
本研究では,学部コンピュータサイエンス科における人工知能(AI)学習システムに対する学生の認識について検討する。
発見は、AIの文脈的理解とパーソナライゼーションの欠如に関する懸念を明らかにする。
この研究は、学生の声を増幅し、デザインされた学習環境でAIを人間化するための設計原則を提供することにより、倫理中心のアセスメントプラクティスに寄与する。
論文 参考訳(メタデータ) (2026-02-08T01:18:10Z) - From Passive Tool to Socio-cognitive Teammate: A Conceptual Framework for Agentic AI in Human-AI Collaborative Learning [0.0]
我々は、ツールとしてのAIから、コラボレーションパートナとしてのAIへの移行をグラフ化する、新しい概念的フレームワークを提案する。
真の意識や共有意図を欠いたAIが真の協力者であるかどうかを検討する。
この区別は、教育におけるAIの教育、教育設計、そして将来の研究課題に重要な意味を持つ。
論文 参考訳(メタデータ) (2025-08-20T16:17:32Z) - Exploring Societal Concerns and Perceptions of AI: A Thematic Analysis through the Lens of Problem-Seeking [0.0]
本研究では,AIとは対照的に人間の知能の特徴を明らかにするために,問題解決から問題解決を区別する新しい概念的枠組みを提案する。
このフレームワークは、AIは効率と最適化において優れているが、接地と人間の認識に固有のエンボディメントの柔軟性から派生したオリエンテーションは欠如している、と強調している。
論文 参考訳(メタデータ) (2025-05-29T18:24:34Z) - A Multi-Layered Research Framework for Human-Centered AI: Defining the Path to Explainability and Trust [2.4578723416255754]
人間中心型AI(HCAI)は人間の価値観との整合性を強調し、説明可能なAI(XAI)はAI決定をより理解しやすくすることで透明性を高める。
本稿では,HCAI と XAI を橋渡し,構造的説明可能性パラダイムを確立する新しい3層フレームワークを提案する。
我々の発見は、透明性、適応性、倫理的に整合したAIシステムを育成するHCXAI(Human-Centered Explainable AI)を前進させた。
論文 参考訳(メタデータ) (2025-04-14T01:29:30Z) - Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
我々は人間の知恵について知られているものを調べ、そのAIのビジョンをスケッチする。
AIシステムは特にメタ認知に苦しむ。
スマートAIのベンチマーク、トレーニング、実装について論じる。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Converging Paradigms: The Synergy of Symbolic and Connectionist AI in LLM-Empowered Autonomous Agents [55.63497537202751]
コネクショニストと象徴的人工知能(AI)の収束を探求する記事
従来、コネクショナリストAIはニューラルネットワークにフォーカスし、シンボリックAIはシンボリック表現とロジックを強調していた。
大型言語モデル(LLM)の最近の進歩は、人間の言語をシンボルとして扱う際のコネクショナリストアーキテクチャの可能性を強調している。
論文 参考訳(メタデータ) (2024-07-11T14:00:53Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Exploration with Principles for Diverse AI Supervision [88.61687950039662]
次世代の予測を用いた大規模トランスフォーマーのトレーニングは、AIの画期的な進歩を生み出した。
この生成AIアプローチは印象的な結果をもたらしたが、人間の監督に大きく依存している。
この人間の監視への強い依存は、AIイノベーションの進歩に重大なハードルをもたらす。
本稿では,高品質なトレーニングデータを自律的に生成することを目的とした,探索型AI(EAI)という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-10-13T07:03:39Z) - Responsible AI Implementation: A Human-centered Framework for
Accelerating the Innovation Process [0.8481798330936974]
本稿では,人工知能(AI)の実装に関する理論的枠組みを提案する。
提案されたフレームワークは、アジャイル共同創造プロセスのための相乗的ビジネス技術アプローチを強調している。
このフレームワークは,AIの人間中心の設計とアジャイル開発を通じて,信頼の確立と維持を重視している。
論文 参考訳(メタデータ) (2022-09-15T06:24:01Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。