論文の概要: Tracing the Invisible: Understanding Students' Judgment in AI-Supported Design Work
- arxiv url: http://arxiv.org/abs/2505.08939v1
- Date: Tue, 13 May 2025 20:08:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-15 21:44:09.288924
- Title: Tracing the Invisible: Understanding Students' Judgment in AI-Supported Design Work
- Title(参考訳): 見えないものを追跡する:AIによるデザイン作業における学生の判断を理解する
- Authors: Suchismita Naik, Prakash Shukla, Ike Obi, Jessica Backus, Nancy Rasche, Paul Parsons,
- Abstract要約: 本研究では、HCIデザインコースの33名の学生チームからの反射を分析し、AIツールを使用する際の学生の判断方法を検討する。
確立した設計判断形式(器楽曲,評価,品質など)と創発型(エージェント分配判定,信頼性判定)の両方を見出した。
我々の研究結果は、生成型AIがデザイン推論に新しい複雑なレイヤーを導入し、学生がいつどのように依存するかを反映するよう促すことを示唆している。
- 参考スコア(独自算出の注目度): 2.8038082486377114
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As generative AI tools become integrated into design workflows, students increasingly engage with these tools not just as aids, but as collaborators. This study analyzes reflections from 33 student teams in an HCI design course to examine the kinds of judgments students make when using AI tools. We found both established forms of design judgment (e.g., instrumental, appreciative, quality) and emergent types: agency-distribution judgment and reliability judgment. These new forms capture how students negotiate creative responsibility with AI and assess the trustworthiness of its outputs. Our findings suggest that generative AI introduces new layers of complexity into design reasoning, prompting students to reflect not only on what AI produces, but also on how and when to rely on it. By foregrounding these judgments, we offer a conceptual lens for understanding how students engage in co-creative sensemaking with AI in design contexts.
- Abstract(参考訳): ジェネレーティブなAIツールがデザインワークフローに統合されるにつれ、学生は支援者としてだけでなく、共同作業者としてもこれらのツールに携わるようになっている。
本研究では、HCIデザインコースにおける33人の学生チームの反射を分析し、AIツールを使用する際の学生の判断方法を検討する。
設計判断の確立した形態(器具,評価,品質)と創発型(エージェント分配判定と信頼性判定)の両方を見出した。
これらの新しいフォームは、学生がAIと創造的な責任を交渉する方法を捉え、アウトプットの信頼性を評価する。
我々の研究結果は、生成型AIがデザイン推論に新しい複雑さの層を導入し、学生がAIが生成するものだけでなく、どのように、いつ依存するかにも反映するよう促すことを示唆している。
これらの判断をフォアグラウンド化することにより、学生がデザインコンテキストにおけるAIと共創造的なセンスメイキングにどのように関与するかを理解するための概念レンズを提供する。
関連論文リスト
- Beyond Detection: Designing AI-Resilient Assessments with Automated Feedback Tool to Foster Critical Thinking [0.0]
本研究は, 検出ではなく, 評価設計に基づく能動的AIレジリエントソリューションを提案する。
WebベースのPythonツールで、Bloomの分類と高度な自然言語処理技術を統合する。
これは、タスクがリコールや要約のような下位の思考や、分析、評価、作成といった上位のスキルを目標にしているかどうかを教育者が判断するのに役立つ。
論文 参考訳(メタデータ) (2025-03-30T23:13:00Z) - AI Automatons: AI Systems Intended to Imitate Humans [54.19152688545896]
人々の行動、仕事、能力、類似性、または人間性を模倣するように設計されたAIシステムが増加している。
このようなAIシステムの研究、設計、展開、可用性は、幅広い法的、倫理的、その他の社会的影響に対する懸念を喚起している。
論文 参考訳(メタデータ) (2025-03-04T03:55:38Z) - Understanding Student Acceptance, Trust, and Attitudes Toward AI-Generated Images for Educational Purposes [1.0878040851637998]
本研究は,AI生成画像に対する学生の受容,信頼,肯定的な態度を教育課題として評価する。
その結果、使いやすさと潜在的学術的利益を重んじる学生の間では、高い受け入れ、信頼、肯定的な態度が示された。
これらの知見は、倫理的考察と知的財産問題に対処する包括的ガイドラインの策定の必要性を示唆している。
論文 参考訳(メタデータ) (2024-11-24T04:39:48Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Charting the Future of AI in Project-Based Learning: A Co-Design
Exploration with Students [35.05435052195561]
学習における人工知能(AI)の利用の増加は、学習成果を評価するための新たな課題を提示している。
本稿では,学生のAI活用データの新たな評価材料としての可能性を検討するための共同設計研究を紹介する。
論文 参考訳(メタデータ) (2024-01-26T14:49:29Z) - Grasping AI: experiential exercises for designers [8.95562850825636]
本稿では,AIシステムにおけるインタラクション・アベイランス,ユニークなリレーショナル可能性,より広範な社会的影響を探求し,考察する手法について検討する。
比喩や制定に関する演習は、トレーニングや学習、プライバシーと同意、自律性、エージェンシーをより具体的になる。
論文 参考訳(メタデータ) (2023-10-02T15:34:08Z) - Assigning AI: Seven Approaches for Students, with Prompts [0.0]
本稿では,Large Language Models(LLM)の教育における転換的役割とその学習ツールとしての可能性について考察する。
AI-tutor、AI-coach、AI-mentor、AI-teammate、AI-tool、AI-simulator、AI-studentの7つのアプローチを提案する。
論文 参考訳(メタデータ) (2023-06-13T03:36:36Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Stakeholder Participation in AI: Beyond "Add Diverse Stakeholders and
Stir" [76.44130385507894]
本稿では、既存の文献の参加と現在の実践の実証分析を通じて、AI設計における「参加的転換」を掘り下げることを目的としている。
本稿では,本論文の文献合成と実証研究に基づいて,AI設計への参加的アプローチを解析するための概念的枠組みを提案する。
論文 参考訳(メタデータ) (2021-11-01T17:57:04Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。