論文の概要: Student Perceptions of Large Language Models Use in Self-Reflection and Design Critique in Architecture Studio
- arxiv url: http://arxiv.org/abs/2602.00041v2
- Date: Tue, 03 Feb 2026 01:28:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 02:03:42.254306
- Title: Student Perceptions of Large Language Models Use in Self-Reflection and Design Critique in Architecture Studio
- Title(参考訳): 建築スタジオにおける自己回帰・設計批判における大規模言語モデルの学生認識
- Authors: Juan David Salazar Rodriguez, Sam Conrad Joyce, Nachamma Sockalingam, Khoo Eng Tat, Julfendi,
- Abstract要約: 本研究では,Large Language Models (LLM) のアーキテクチャ設計スタジオのフィードバック機構への統合について検討する。
この研究は、自己回帰、ピア批判、教授主導のレビューの3つの異なるフィードバック領域における学生の認識を分析している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study investigates the integration of Large Language Models (LLMs) into the feedback mechanisms of the architectural design studio, shifting the focus from generative production to reflective pedagogy. Employing a mixed-methods approach with surveys and semi structured interviews with 22 architecture students at the Singapore University of Technology and De-sign, the research analyzes student perceptions across three distinct feed-back domains: self-reflection, peer critique, and professor-led reviews. The findings reveal that students engage with LLMs not as authoritative in-structors, but as collaborative "cognitive mirrors" that scaffold critical thinking. In self-directed learning, LLMs help structure thoughts and over-come the "blank page" problem, though they are limited by a lack of contex-tual nuance. In peer critiques, the technology serves as a neutral mediator, mitigating social anxiety and the "fear of offending". Furthermore, in high-stakes professor-led juries, students utilize LLMs primarily as post-critique synthesis engines to manage cognitive overload and translate ab-stract academic discourse into actionable design iterations.
- Abstract(参考訳): 本研究では,Large Language Models (LLMs) のアーキテクチャ設計スタジオのフィードバック機構への統合について検討し,生成的生産から反射的教育へと焦点を移した。
シンガポール工科大学とデザイン学部の22人の建築学生を対象にした調査と半構造化インタビューで、この研究は3つの異なるフィードバックバックドメイン(自己回帰、ピア批判、教授主導のレビュー)の学生の認識を分析した。
その結果、学生はLLMを権威的インストラクタとしてではなく、足場批判的思考のための協調的な「認知ミラー」として扱うことが明らかとなった。
自己指向学習では、LLMはコンテキサンス・トゥルニュアンス(contex-tual nuance)の欠如によって制限されるが、思考の構造や「ブランク・ページ」の問題の克服に役立つ。
ピア批判では、この技術は中立的な仲介者として機能し、社会的不安を緩和し、「攻撃の恐れ」を和らげている。
さらに、高学歴の教授主導の審査では、学生はLLMを主に批判後の合成エンジンとして利用し、認知的過負荷を管理し、アカデミックな言説を実用的なデザインの反復に翻訳する。
関連論文リスト
- Thinking Like a Student: AI-Supported Reflective Planning in a Theory-Intensive Computer Science Course [1.5229257192293202]
新型コロナウイルスの感染拡大を受け、多くの大学が補足的な「強化」を実施。
本稿では,形式的手法と計算モデルに関する学部課程における強化セッションの再設計について報告する。
介入は学生からの肯定的なフィードバックを受け、自信の向上、不安の軽減、明快さの向上を示唆した。
論文 参考訳(メタデータ) (2025-10-31T12:35:18Z) - Fundamentals of Building Autonomous LLM Agents [64.39018305018904]
本稿では,大規模言語モデル(LLM)を用いたエージェントのアーキテクチャと実装手法について概説する。
この研究は、複雑なタスクを自動化し、人間の能力でパフォーマンスのギャップを埋めることのできる「アジェンティック」なLLMを開発するためのパターンを探求することを目的としている。
論文 参考訳(メタデータ) (2025-10-10T10:32:39Z) - Large Language Models in Architecture Studio: A Framework for Learning Outcomes [0.0]
本研究は,建築デザインスタジオにおける大規模言語モデル(LLM)の役割について考察する。
主な課題は、学生の自主性の管理、ピアフィードバックの緊張、技術知識の伝達と教育における創造性の刺激とのバランスの難しさである。
論文 参考訳(メタデータ) (2025-10-08T02:51:22Z) - Meta-Reflection: A Feedback-Free Reflection Learning Framework [57.14485943991588]
外部からのフィードバックを伴わずに単一の推論パスのみを必要とするフィードバックフリーリフレクション機構であるメタリフレクションを提案する。
過去のリフレクションを記憶し、取り出す人間の能力によって、メタリフレクションはコードブックに反射的な洞察を統合する。
実世界のシナリオにおけるメタリフレクションの実践性を徹底的に検討し,評価するために,E-Commerce Customer Intent Detectionという産業eコマースベンチマークを導入する。
論文 参考訳(メタデータ) (2024-12-18T12:20:04Z) - Critic-CoT: Boosting the reasoning abilities of large language model via Chain-of-thoughts Critic [48.94340387130627]
Critic-CoTは、LLMをSystem-2のような批判能力にプッシュするフレームワークである。
人間のアノテーションを使わずにCoT推論パラダイムと遠隔スーパービジョンデータの自動構築
GSM8KとMATHの実験は、我々の強化されたモデルがタスク解決性能を大幅に向上させることを示した。
論文 参考訳(メタデータ) (2024-08-29T08:02:09Z) - Cognitive LLMs: Towards Integrating Cognitive Architectures and Large Language Models for Manufacturing Decision-making [51.737762570776006]
LLM-ACTRは、ヒトに適応し、多目的な意思決定を提供する新しいニューロシンボリックアーキテクチャである。
我々のフレームワークは、ACT-Rの内部決定過程の知識を潜在神経表現として抽出し、組み込む。
デザイン・フォー・マニュファクチャリング・タスクに関する我々の実験は、タスク性能の向上と基礎的意思決定能力の向上を両立させたものである。
論文 参考訳(メタデータ) (2024-08-17T11:49:53Z) - Evaluating Large Language Models with Psychometrics [59.821829073478376]
本稿では,Large Language Models (LLMs) の心理的構造を定量化するための総合的ベンチマークを提案する。
私たちの研究は、13のデータセットで評価された5つの重要な心理的構成要素、人格、価値観、感情的知性、心の理論、自己効力性を特定します。
LLMの自己報告特性と実際のシナリオにおける応答パターンとの間に大きな相違が発見され,その挙動の複雑さが明らかになった。
論文 参考訳(メタデータ) (2024-06-25T16:09:08Z) - Creativity Support in the Age of Large Language Models: An Empirical
Study Involving Emerging Writers [33.3564201174124]
経験的ユーザスタディを通じて,プロのライターを支援するため,現代の大規模言語モデルの有用性について検討する。
筆者らは3種類の認知活動の全てにLLMの助けを求める一方で、LLMは翻訳やレビューに役立ちます。
論文 参考訳(メタデータ) (2023-09-22T01:49:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。