論文の概要: Large Language Models in Architecture Studio: A Framework for Learning Outcomes
- arxiv url: http://arxiv.org/abs/2510.15936v2
- Date: Wed, 22 Oct 2025 06:47:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:11.641356
- Title: Large Language Models in Architecture Studio: A Framework for Learning Outcomes
- Title(参考訳): アーキテクチャスタジオにおける大規模言語モデル - 成果を学習するためのフレームワーク
- Authors: Juan David Salazar Rodriguez, Sam Conrad Joyce, Nachamma Sockalingam, Khoo Eng Tat, Julfendi,
- Abstract要約: 本研究は,建築デザインスタジオにおける大規模言語モデル(LLM)の役割について考察する。
主な課題は、学生の自主性の管理、ピアフィードバックの緊張、技術知識の伝達と教育における創造性の刺激とのバランスの難しさである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The study explores the role of large language models (LLMs) in the context of the architectural design studio, understood as the pedagogical core of architectural education. Traditionally, the studio has functioned as an experiential learning space where students tackle design problems through reflective practice, peer critique, and faculty guidance. However, the integration of artificial intelligence (AI) in this environment has been largely focused on form generation, automation, and representation-al efficiency, neglecting its potential as a pedagogical tool to strengthen student autonomy, collaboration, and self-reflection. The objectives of this research were: (1) to identify pedagogical challenges in self-directed, peer-to-peer, and teacher-guided learning processes in architecture studies; (2) to propose AI interventions, particularly through LLM, that contribute to overcoming these challenges; and (3) to align these interventions with measurable learning outcomes using Bloom's taxonomy. The findings show that the main challenges include managing student autonomy, tensions in peer feedback, and the difficulty of balancing the transmission of technical knowledge with the stimulation of creativity in teaching. In response to this, LLMs are emerging as complementary agents capable of generating personalized feedback, organizing collaborative interactions, and offering adaptive cognitive scaffolding. Furthermore, their implementation can be linked to the cognitive levels of Bloom's taxonomy: facilitating the recall and understanding of architectural concepts, supporting application and analysis through interactive case studies, and encouraging synthesis and evaluation through hypothetical design scenarios.
- Abstract(参考訳): 本研究は,大規模言語モデル(LLM)が建築デザインスタジオの文脈で果たす役割について考察する。
伝統的に、このスタジオは実験的な学習空間として機能しており、学生は反射的実践、ピア・クオリティ、教員の指導を通じてデザイン問題に取り組む。
しかし、この環境における人工知能(AI)の統合は、学生の自律性、コラボレーション、自己回帰を強化する教育ツールとしての可能性を無視し、フォーム生成、自動化、表現効率に重点を置いている。
本研究の目的は,(1)建築研究における自己指導型,ピアツーピア型,および教師指導型学習プロセスにおける教育的課題を特定すること,(2)これらの課題の克服に寄与するAI介入,(3)ブルームの分類学を用いた測定可能な学習結果との整合性を示すことであった。
その結果, 学生の自律性管理, ピアフィードバックの緊張感, 技術知識の伝達と教育における創造性の刺激のバランスをとることの難しさなどが主な課題であることがわかった。
これに対応してLLMは、パーソナライズされたフィードバックを生成し、協調的な相互作用を組織化し、適応的な認知的足場を提供するための補完エージェントとして出現している。
さらに、それらの実装はブルームの分類学の認知レベルと関連付けられ、アーキテクチャ概念のリコールと理解を促進し、対話的なケーススタディを通じて応用と分析を支援し、仮説設計シナリオによる合成と評価を促進する。
関連論文リスト
- From Perception to Cognition: A Survey of Vision-Language Interactive Reasoning in Multimodal Large Language Models [66.36007274540113]
MLLM(Multimodal Large Language Models)は、物理的世界に対する深い人間的な理解と相互作用を達成するための試みである。
情報取得(知覚)や推論(認知)を行う際、しばしば浅く不整合な統合を示す。
この調査では、新しい統合分析フレームワーク「知覚から認知へ」を紹介した。
論文 参考訳(メタデータ) (2025-09-29T18:25:40Z) - Bridging the Gap Between Theoretical and Practical Reinforcement Learning in Undergraduate Education [0.0]
提案手法は,従来の講義と対話型ラボベースの学習を統合している。
このフレームワークは、OpenAI Gymnasiumのようなシミュレートされた環境を使って、リアルタイムのコーディング演習を通じて学生を巻き込む。
論文 参考訳(メタデータ) (2025-09-06T11:37:12Z) - Designing LMS and Instructional Strategies for Integrating Generative-Conversational AI [0.0]
本研究では,AIを活用した学習管理システムを構築するための構造化フレームワークを提案する。
生成AIと会話AIを統合し、適応的でインタラクティブで学習者中心の教育をサポートする。
論文 参考訳(メタデータ) (2025-08-31T06:01:50Z) - Unveiling the Learning Mind of Language Models: A Cognitive Framework and Empirical Study [50.065744358362345]
大規模言語モデル(LLM)は、数学、コーディング、推論といったタスクにまたがる印象的な機能を示している。
しかし、彼らの学習能力は、動的環境に適応し、新しい知識を得るのに不可欠であり、まだ過小評価されていない。
論文 参考訳(メタデータ) (2025-06-16T13:24:50Z) - AI Pedagogy: Dialogic Social Learning for Artificial Agents [0.6553587309274792]
本研究では,従来のAIトレーニング手法の限界に対処するために,社会的に媒介する学習パラダイムの可能性を探る。
そこで我々は,AI学習者エージェントが,知識のあるAI教師エージェントと教科の教育対話を行う,AIソーシャルガイム(AI Social Gym)と呼ばれる動的環境を導入する。
我々の調査は、異なる教育戦略が、買収の文脈におけるAI学習プロセスにどのように影響するかに焦点を当てている。
論文 参考訳(メタデータ) (2025-05-25T11:19:48Z) - Cognitive LLMs: Towards Integrating Cognitive Architectures and Large Language Models for Manufacturing Decision-making [51.737762570776006]
LLM-ACTRは、ヒトに適応し、多目的な意思決定を提供する新しいニューロシンボリックアーキテクチャである。
我々のフレームワークは、ACT-Rの内部決定過程の知識を潜在神経表現として抽出し、組み込む。
デザイン・フォー・マニュファクチャリング・タスクに関する我々の実験は、タスク性能の向上と基礎的意思決定能力の向上を両立させたものである。
論文 参考訳(メタデータ) (2024-08-17T11:49:53Z) - Enhancing LLM-Based Feedback: Insights from Intelligent Tutoring Systems and the Learning Sciences [0.0]
この研究は、ITSのフィードバック生成に関する以前の研究を通し、AIEDの研究を慎重に支援するものである。
本論文の主な貢献は次のとおりである。 生成AIの時代におけるフィードバック生成において、より慎重で理論的に基礎付けられた手法を適用すること。
論文 参考訳(メタデータ) (2024-05-07T20:09:18Z) - Behavior Priors for Efficient Reinforcement Learning [97.81587970962232]
本稿では,情報とアーキテクチャの制約を,確率論的モデリング文献のアイデアと組み合わせて行動の事前学習を行う方法について考察する。
このような潜伏変数の定式化が階層的強化学習(HRL)と相互情報と好奇心に基づく目的との関係について論じる。
シミュレーションされた連続制御領域に適用することで,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2020-10-27T13:17:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。