論文の概要: Agency and legibility for artists through Experiential AI
- arxiv url: http://arxiv.org/abs/2306.02327v1
- Date: Sun, 4 Jun 2023 11:00:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 18:26:27.118670
- Title: Agency and legibility for artists through Experiential AI
- Title(参考訳): 実験AIによるアーティストのエージェンシーと正当性
- Authors: Drew Hemment, Matjaz Vidmar, Daga Panas, Dave Murray-Rust, Vaishak
Belle and Aylett Ruth
- Abstract要約: Experiential AIは、AIを具体的で明示的なものにするという課題に対処する、新たな研究分野である。
本稿では,創造的データ探索を目的とした経験的AIシステムの実証事例について報告する。
実験的なAIがアーティストの妥当性とエージェンシーを高める方法について論じる。
- 参考スコア(独自算出の注目度): 12.941266914933454
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Experiential AI is an emerging research field that addresses the challenge of
making AI tangible and explicit, both to fuel cultural experiences for
audiences, and to make AI systems more accessible to human understanding. The
central theme is how artists, scientists and other interdisciplinary actors can
come together to understand and communicate the functionality of AI, ML and
intelligent robots, their limitations, and consequences, through informative
and compelling experiences. It provides an approach and methodology for the
arts and tangible experiences to mediate between impenetrable computer code and
human understanding, making not just AI systems but also their values and
implications more transparent, and therefore accountable. In this paper, we
report on an empirical case study of an experiential AI system designed for
creative data exploration of a user-defined dimension, to enable creators to
gain more creative control over the AI process. We discuss how experiential AI
can increase legibility and agency for artists, and how the arts can provide
creative strategies and methods which can add to the toolbox for human-centred
XAI.
- Abstract(参考訳): 体験AI(Experiential AI)は、AIを具体的で明示的なものにするという課題に対処する、新たな研究分野である。
中心となるテーマは、アーティスト、科学者、その他の学際的アクターが、情報的かつ魅力的な経験を通じて、AI、ML、インテリジェントなロボットの機能、それらの限界と結果を理解し、伝達する方法である。
それは、不透明なコンピュータコードと人間の理解を仲介する、芸術と有形体験のためのアプローチと方法論を提供し、AIシステムだけでなく、その価値と含意をより透明にし、従って説明責任を負う。
本稿では,ユーザ定義次元の創造的データ探索を目的とした経験的AIシステムの実証的ケーススタディについて報告する。
実験的なAIがアーティストの正当性とエージェンシーをどのように向上させるか、芸術が人間中心のXAIのツールボックスに追加可能な創造的戦略と方法を提供する方法について論じる。
関連論文リスト
- Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Untangling Critical Interaction with AI in Students Written Assessment [2.8078480738404]
重要な課題は、人間が必須の批判的思考とAIリテラシースキルを備えていることを保証することである。
本稿では,AIと批判的学習者インタラクションの概念を概念化するための第一歩を提供する。
理論的モデルと経験的データの両方を用いて、予備的な発見は、書き込みプロセス中にAIとのディープインタラクションが全般的に欠如していることを示唆している。
論文 参考訳(メタデータ) (2024-04-10T12:12:50Z) - Advancing Explainable AI Toward Human-Like Intelligence: Forging the
Path to Artificial Brain [0.7770029179741429]
説明可能なAI(XAI)における人工知能(AI)と神経科学の交差は、複雑な意思決定プロセスにおける透明性と解釈可能性を高めるために重要である。
本稿では,機能ベースから人間中心のアプローチまで,XAI方法論の進化について考察する。
生成モデルにおける説明可能性の達成、責任あるAIプラクティスの確保、倫理的意味への対処に関する課題について論じる。
論文 参考訳(メタデータ) (2024-02-07T14:09:11Z) - Grasping AI: experiential exercises for designers [8.95562850825636]
本稿では,AIシステムにおけるインタラクション・アベイランス,ユニークなリレーショナル可能性,より広範な社会的影響を探求し,考察する手法について検討する。
比喩や制定に関する演習は、トレーニングや学習、プライバシーと同意、自律性、エージェンシーをより具体的になる。
論文 参考訳(メタデータ) (2023-10-02T15:34:08Z) - Experiential AI: A transdisciplinary framework for legibility and agency
in AI [13.397979132753138]
実験AI(Experiential AI)は、科学者とアーティストが集まって人間と機械の絡み合いを調べる研究課題である。
本稿では、説明可能なAIの分野における進歩と限界について論じる。
論文 参考訳(メタデータ) (2023-06-01T12:59:06Z) - AI and the creative realm: A short review of current and future
applications [2.1320960069210484]
本研究は創造性と人工知能(AI)の概念を探求する。
より洗練されたAIモデルの開発と人間とコンピュータの相互作用ツールの普及により、芸術的創造におけるAIの新たな可能性が高まっている。
論文 参考訳(メタデータ) (2023-06-01T12:28:08Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Future Trends for Human-AI Collaboration: A Comprehensive Taxonomy of
AI/AGI Using Multiple Intelligences and Learning Styles [95.58955174499371]
我々は、複数の人間の知性と学習スタイルの様々な側面を説明し、様々なAI問題領域に影響を及ぼす可能性がある。
未来のAIシステムは、人間のユーザと互いにコミュニケーションするだけでなく、知識と知恵を効率的に交換できる。
論文 参考訳(メタデータ) (2020-08-07T21:00:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。