論文の概要: Nine Potential Pitfalls when Designing Human-AI Co-Creative Systems
- arxiv url: http://arxiv.org/abs/2104.00358v1
- Date: Thu, 1 Apr 2021 09:27:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-02 13:28:31.398939
- Title: Nine Potential Pitfalls when Designing Human-AI Co-Creative Systems
- Title(参考訳): ヒューマンai共同創造システム設計における9つの落とし穴
- Authors: Daniel Buschek, Lukas Mecke, Florian Lehmann, Hai Dang
- Abstract要約: このポジショニングペーパーは、ジェネレーションモデルによる人間-AI共創の実現に向けての潜在的な落とし穴を検討する。
それぞれの落とし穴を例で説明し、それに取り組むためのアイデアを提案します。
私たちは、共同創造的な相互作用における人間とAIの役割に関する批判的で建設的な議論に貢献したいと考えています。
- 参考スコア(独自算出の注目度): 19.90876596716716
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This position paper examines potential pitfalls on the way towards achieving
human-AI co-creation with generative models in a way that is beneficial to the
users' interests. In particular, we collected a set of nine potential pitfalls,
based on the literature and our own experiences as researchers working at the
intersection of HCI and AI. We illustrate each pitfall with examples and
suggest ideas for addressing it. Reflecting on all pitfalls, we discuss and
conclude with implications for future research directions. With this
collection, we hope to contribute to a critical and constructive discussion on
the roles of humans and AI in co-creative interactions, with an eye on related
assumptions and potential side-effects for creative practices and beyond.
- Abstract(参考訳): 本稿では,利用者の興味に有益な生成モデルによる人間とAIの共創の実現に向けた潜在的な落とし穴について検討する。
特に、文献と、HCIとAIの交差点で働く研究者としての経験に基づいて、9つの潜在的な落とし穴のセットを収集しました。
それぞれの落とし穴を例で説明し、それに取り組むためのアイデアを提案する。
すべての落とし穴を振り返って,今後の研究の方向性について考察し,結論づける。
このコレクションでは、創造的な実践などに対する、関連する仮定と潜在的な副作用に注目しながら、共同創造的な相互作用における人間とAIの役割に関する批判的で建設的な議論に貢献したいと考えています。
関連論文リスト
- Understanding Opportunities and Risks of Synthetic Relationships: Leveraging the Power of Longitudinal Research with Customised AI Tools [0.0]
我々は,合成関係の機会とリスクを探索するために,AIツールをカスタマイズした縦型行動研究の利点について論じる。
これらの関係は、健康、教育、職場を改善する可能性があるが、微妙な操作やプライバシー、自律性への懸念も引き起こす。
我々は,詳細な行動情報と自己報告データを統合可能な,自己組織化されたAIエージェントを用いた縦型研究設計を提案する。
論文 参考訳(メタデータ) (2024-12-12T09:13:43Z) - Now, Later, and Lasting: Ten Priorities for AI Research, Policy, and Practice [63.20307830884542]
今後数十年は、産業革命に匹敵する人類の転換点になるかもしれない。
10年前に立ち上げられたこのプロジェクトは、複数の専門分野の専門家による永続的な研究にコミットしている。
AI技術の短期的および長期的影響の両方に対処する、アクションのための10のレコメンデーションを提供します。
論文 参考訳(メタデータ) (2024-04-06T22:18:31Z) - The Social Impact of Generative AI: An Analysis on ChatGPT [0.7401425472034117]
ジェネレーティブAIモデルの急速な開発は、そのメリット、制限、関連するリスクに関する熱い議論を引き起こしている。
生成モデルは、医療、金融、教育など、複数の分野にまたがって大きな可能性を秘めている。
本稿では,ChatGPTの事例を中心に,生成型AIツールの社会的意味を探求する方法論を採用する。
論文 参考訳(メタデータ) (2024-03-07T17:14:22Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - Assessing AI Impact Assessments: A Classroom Study [14.768235460961876]
提案されたAIシステムへの影響を想像するための構造化プロセスを提供するツール群であるAIIA(Artificial Intelligence Impact Assessments)が、AIシステムを管理するための提案としてますます人気が高まっている。
近年、政府や民間団体の取り組みによりAIIAの多様なインスタンス化が提案されている。
我々は,AIの社会的・倫理的意味に焦点をあてた選択科目において,大規模な研究集約大学(R1)で授業研究を行う。
影響評価が参加者の潜在能力に対する認識に影響を及ぼすという予備的証拠を見いだす。
論文 参考訳(メタデータ) (2023-11-19T01:00:59Z) - Responsible AI Considerations in Text Summarization Research: A Review
of Current Practices [89.85174013619883]
私たちは、責任あるAIコミュニティがほとんど見落としている共通のNLPタスクである、テキスト要約に重点を置いています。
我々は,2020-2022年に出版されたACLアンソロジーから333の要約論文の多段階的質的分析を行った。
私たちは、どの、どの、どの責任あるAI問題がカバーされているか、どの関係するステークホルダーが考慮されているか、そして、述べられた研究目標と実現された研究目標のミスマッチに焦点を合わせます。
論文 参考訳(メタデータ) (2023-11-18T15:35:36Z) - Anticipating Impacts: Using Large-Scale Scenario Writing to Explore
Diverse Implications of Generative AI in the News Environment [3.660182910533372]
我々は、ジェネレーティブAIの潜在的なネガティブな影響について、3つの利害関係者グループの展望を広げ、期待を捉えることを目的としている。
シナリオ記述と参加観を用いて、認知的に多様な未来の想像力を掘り下げる。
生成的AI影響評価のためのツールボックスとして,シナリオ記述と参加予測の有用性について論じる。
論文 参考訳(メタデータ) (2023-10-10T06:59:27Z) - Predictable Artificial Intelligence [77.1127726638209]
本稿では予測可能なAIのアイデアと課題を紹介する。
それは、現在および将来のAIエコシステムの重要な妥当性指標を予測できる方法を探る。
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠である、と私たちは主張する。
論文 参考訳(メタデータ) (2023-10-09T21:36:21Z) - Human-Centered Responsible Artificial Intelligence: Current & Future
Trends [76.94037394832931]
近年、CHIコミュニティは人間中心のレスポンシブル人工知能の研究において著しい成長を遂げている。
この研究はすべて、人権と倫理に根ざしたまま、人類に利益をもたらすAIを開発し、AIの潜在的な害を減らすことを目的としている。
本研究グループでは,これらのトピックに関心のある学術・産業の研究者を集結させ,現在の研究動向と今後の研究動向を地図化することを目的とする。
論文 参考訳(メタデータ) (2023-02-16T08:59:42Z) - Identifying Ethical Issues in AI Partners in Human-AI Co-Creation [0.7614628596146599]
人間-AIのコクリエーションには、人間とAIが協力し、共同で創造的なプロダクトをパートナーとして提供する。
多くの既存のコクリエイティブシステムでは、ユーザーはボタンやスライダーを使用してAIと通信する。
本稿では,AIと人間のコミュニケーションが共同創造システムにおけるユーザ認識とエンゲージメントに与える影響について考察する。
論文 参考訳(メタデータ) (2022-04-15T20:41:54Z) - Stakeholder Participation in AI: Beyond "Add Diverse Stakeholders and
Stir" [76.44130385507894]
本稿では、既存の文献の参加と現在の実践の実証分析を通じて、AI設計における「参加的転換」を掘り下げることを目的としている。
本稿では,本論文の文献合成と実証研究に基づいて,AI設計への参加的アプローチを解析するための概念的枠組みを提案する。
論文 参考訳(メタデータ) (2021-11-01T17:57:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。