論文の概要: De-skilling, Cognitive Offloading, and Misplaced Responsibilities: Potential Ironies of AI-Assisted Design
- arxiv url: http://arxiv.org/abs/2503.03924v1
- Date: Wed, 05 Mar 2025 21:47:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-07 15:58:40.646848
- Title: De-skilling, Cognitive Offloading, and Misplaced Responsibilities: Potential Ironies of AI-Assisted Design
- Title(参考訳): 非スキル、認知的オフロード、過失責任:AI支援設計の皮肉の可能性
- Authors: Prakash Shukla, Phuong Bui, Sean S Levy, Max Kowalski, Ali Baigelenov, Paul Parsons,
- Abstract要約: UXにフォーカスしたサブレディットから120以上の記事や議論を分析しました。
以上の結果から,実践者は繰り返し作業の削減と創造性の向上に楽観的であることが示唆された。
UX専門家は、AIの役割を即時生産性の向上を超えて批判的に評価すべきである、と私たちは主張する。
- 参考スコア(独自算出の注目度): 3.6284577335311563
- License:
- Abstract: The rapid adoption of generative AI (GenAI) in design has sparked discussions about its benefits and unintended consequences. While AI is often framed as a tool for enhancing productivity by automating routine tasks, historical research on automation warns of paradoxical effects, such as de-skilling and misplaced responsibilities. To assess UX practitioners' perceptions of AI, we analyzed over 120 articles and discussions from UX-focused subreddits. Our findings indicate that while practitioners express optimism about AI reducing repetitive work and augmenting creativity, they also highlight concerns about over-reliance, cognitive offloading, and the erosion of critical design skills. Drawing from human-automation interaction literature, we discuss how these perspectives align with well-documented automation ironies and function allocation challenges. We argue that UX professionals should critically evaluate AI's role beyond immediate productivity gains and consider its long-term implications for creative autonomy and expertise. This study contributes empirical insights into practitioners' perspectives and links them to broader debates on automation in design.
- Abstract(参考訳): デザインにおける生成AI(GenAI)の急速な採用は、そのメリットと意図しない結果に関する議論を引き起こしている。
AIは、日常的なタスクを自動化することによって生産性を高めるツールとして扱われることが多いが、自動化に関する歴史的研究は、非熟練化や誤配置といったパラドックス的効果を警告している。
UX実践者のAIに対する認識を評価するために、UXに焦点を当てたサブレディットから120以上の記事や議論を分析した。
以上の結果から,AI実践者は繰り返し作業の削減や創造性の向上を楽観的に表現する一方で,過度な信頼性,認知的オフロード,重要な設計スキルの侵食といった懸念も浮き彫りにしている。
人-自動化インタラクションの文献から、これらの視点が、十分に文書化された自動化皮肉や機能割り当ての課題とどのように一致しているかについて議論する。
UXプロフェッショナルは、AIの役割を即時生産性の向上を超えて批判的に評価し、創造的な自律性と専門性に対する長期的な影響を考慮すべきである、と私たちは主張する。
本研究は,実践者の視点に対する経験的洞察に寄与し,それらを設計における自動化に関するより広範な議論と関連づけるものである。
関連論文リスト
- Engaging with AI: How Interface Design Shapes Human-AI Collaboration in High-Stakes Decision-Making [8.948482790298645]
各種意思決定支援機構がユーザエンゲージメント,信頼,人間とAIの協調タスクパフォーマンスに与える影響について検討する。
その結果,AIの信頼性レベルやテキスト説明,パフォーマンス視覚化などのメカニズムにより,人間とAIの協調作業性能が向上することが判明した。
論文 参考訳(メタデータ) (2025-01-28T02:03:00Z) - Augmenting Minds or Automating Skills: The Differential Role of Human Capital in Generative AI's Impact on Creative Tasks [4.39919134458872]
ジェネレーティブAIは、創造的な仕事を急速に作り直し、その受益者や社会的意味について批判的な疑問を提起している。
この研究は、創造的タスクにおいて、生成的AIが様々な形態の人的資本とどのように相互作用するかを探求することによって、一般的な仮定に挑戦する。
AIはクリエイティブツールへのアクセスを民主化するが、同時に認知的不平等を増幅する。
論文 参考訳(メタデータ) (2024-12-05T08:27:14Z) - Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - How Performance Pressure Influences AI-Assisted Decision Making [57.53469908423318]
我々は、プレッシャーと説明可能なAI(XAI)技術がAIアドバイステイク行動とどのように相互作用するかを示す。
我々の結果は、圧力とXAIの異なる組み合わせで複雑な相互作用効果を示し、AIアドバイスの行動を改善するか、悪化させるかのどちらかを示す。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Exploration with Principles for Diverse AI Supervision [88.61687950039662]
次世代の予測を用いた大規模トランスフォーマーのトレーニングは、AIの画期的な進歩を生み出した。
この生成AIアプローチは印象的な結果をもたらしたが、人間の監督に大きく依存している。
この人間の監視への強い依存は、AIイノベーションの進歩に重大なハードルをもたらす。
本稿では,高品質なトレーニングデータを自律的に生成することを目的とした,探索型AI(EAI)という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-10-13T07:03:39Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Intelligent Decision Assistance Versus Automated Decision-Making:
Enhancing Knowledge Work Through Explainable Artificial Intelligence [0.0]
我々は,新たなDSSクラス,すなわち知能決定支援(IDA)を提案する。
IDAは、自動意思決定を通じて知識労働者に影響を与えることなく、知識労働者をサポートする。
具体的には、具体的なAIレコメンデーションを保ちながら、説明可能なAI(XAI)の技術を使用することを提案する。
論文 参考訳(メタデータ) (2021-09-28T15:57:21Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。