論文の概要: Can AI Chatbots Provide Coaching in Engineering? Beyond Information Processing Toward Mastery
- arxiv url: http://arxiv.org/abs/2601.03693v1
- Date: Wed, 07 Jan 2026 08:28:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-08 18:12:46.161318
- Title: Can AI Chatbots Provide Coaching in Engineering? Beyond Information Processing Toward Mastery
- Title(参考訳): AIチャットボットはエンジニアリングにおけるコーチングを提供するか?
- Authors: Junaid Qadir, Muhammad Adil Attique, Saleha Shoaib, Syed Ibrahim Ghaznavi,
- Abstract要約: エンジニアリング教育は、二重の破壊に直面している。判断と暗黙のスキルを養う伝統的な見習いモデルは、非公式のコーチングパートナーとして生成AIが出現するのと同じように、浸食している。
この収束は、AIの哲学と計算の限界、具体的合理性の性質、情報処理と知恵の区別に関する認知に関する長年の疑問を再燃させる。
我々は、専門知識、暗黙の知識、人間と機械の相互作用に関する何十年もの奨学金から批判的な視点を合成し、現代のAI駆動教育の文脈にそれらを置く。
本稿では,ループモデルに人間の知恵を組み込んだマルチプレックスコーチングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 1.4837859618020621
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Engineering education faces a double disruption: traditional apprenticeship models that cultivated judgment and tacit skill are eroding, just as generative AI emerges as an informal coaching partner. This convergence rekindles long-standing questions in the philosophy of AI and cognition about the limits of computation, the nature of embodied rationality, and the distinction between information processing and wisdom. Building on this rich intellectual tradition, this paper examines whether AI chatbots can provide coaching that fosters mastery rather than merely delivering information. We synthesize critical perspectives from decades of scholarship on expertise, tacit knowledge, and human-machine interaction, situating them within the context of contemporary AI-driven education. Empirically, we report findings from a mixed-methods study (N = 75 students, N = 7 faculty) exploring the use of a coaching chatbot in engineering education. Results reveal a consistent boundary: participants accept AI for technical problem solving (convergent tasks; M = 3.84 on a 1-5 Likert scale) but remain skeptical of its capacity for moral, emotional, and contextual judgment (divergent tasks). Faculty express stronger concerns over risk (M = 4.71 vs. M = 4.14, p = 0.003), and privacy emerges as a key requirement, with 64-71 percent of participants demanding strict confidentiality. Our findings suggest that while generative AI can democratize access to cognitive and procedural support, it cannot replicate the embodied, value-laden dimensions of human mentorship. We propose a multiplex coaching framework that integrates human wisdom within expert-in-the-loop models, preserving the depth of apprenticeship while leveraging AI scalability to enrich the next generation of engineering education.
- Abstract(参考訳): エンジニアリング教育は、二重の破壊に直面している。判断と暗黙のスキルを養う伝統的な見習いモデルは、非公式のコーチングパートナーとして生成AIが出現するのと同じように、浸食している。
この収束は、AIの哲学と計算の限界、具体的合理性の性質、情報処理と知恵の区別に関する認知に関する長年の疑問を再燃させる。
本稿では、この豊かな知的伝統に基づいて、AIチャットボットが、単に情報を提供するのではなく、熟達を育むためのコーチングを提供することができるかどうかを検討する。
我々は、専門知識、暗黙の知識、人間と機械の相互作用に関する何十年にもわたっての学問から批判的な視点を合成し、現代のAI駆動教育の文脈にそれらを置く。
筆者らは,工学教育におけるコーチングチャットボットの利用について,混合メソドス研究(N = 75人,N = 7人)の結果を実証的に報告した。
参加者は、技術的問題解決のためのAI(収束タスク; 1-5のようなスケールでのM = 3.84)を受け入れるが、道徳的、感情的、文脈的判断(分岐タスク)に対するその能力に懐疑的である。
学部はリスクに対する強い懸念(M = 4.71 vs. M = 4.14, p = 0.003)を示し、プライバシーは重要な要件として現れ、参加者の64-71パーセントが厳密な機密性を要求している。
我々の研究結果は、生成的AIは認知的および手続き的支援へのアクセスを民主化できるが、人間のメンターシップの具現化された価値に富んだ次元を再現することはできないことを示唆している。
我々は、AIのスケーラビリティを活用して次世代の工学教育を充実させながら、見習いの深さを保ちながら、エキスパート・イン・ザ・ループモデルに人間の知恵を統合するマルチプレックスコーチングフレームワークを提案する。
関連論文リスト
- Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
我々は人間の知恵について知られているものを調べ、そのAIのビジョンをスケッチする。
AIシステムは特にメタ認知に苦しむ。
スマートAIのベンチマーク、トレーニング、実装について論じる。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Visions of a Discipline: Analyzing Introductory AI Courses on YouTube [11.209406323898019]
われわれはYouTubeで最も視聴された20のAIコースを分析した。
導入型AIコースは、AIの倫理的または社会的課題に有意義に関わっていない。
我々は、よりバランスのとれた視点を示すために、AIの倫理的課題を強調しておくことを推奨する。
論文 参考訳(メタデータ) (2024-05-31T01:48:42Z) - Untangling Critical Interaction with AI in Students Written Assessment [2.8078480738404]
重要な課題は、人間が必須の批判的思考とAIリテラシースキルを備えていることを保証することである。
本稿では,AIと批判的学習者インタラクションの概念を概念化するための第一歩を提供する。
理論的モデルと経験的データの両方を用いて、予備的な発見は、書き込みプロセス中にAIとのディープインタラクションが全般的に欠如していることを示唆している。
論文 参考訳(メタデータ) (2024-04-10T12:12:50Z) - A Review on Objective-Driven Artificial Intelligence [0.0]
人間は、コミュニケーションにおける文脈、ニュアンス、微妙な手がかりを理解する能力を持っている。
人間は、世界に関する論理的推論と予測を行うのに役立つ、常識的な知識の広大なリポジトリを持っています。
機械はこの本質的な理解に欠けており、人間が自明に感じる状況を理解するのに苦労することが多い。
論文 参考訳(メタデータ) (2023-08-20T02:07:42Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - The MineRL BASALT Competition on Learning from Human Feedback [58.17897225617566]
MineRL BASALTコンペティションは、この重要な種類の技術の研究を促進することを目的としている。
Minecraftでは、ハードコードされた報酬関数を書くのが難しいと期待する4つのタスクのスイートを設計しています。
これら4つのタスクのそれぞれについて、人間のデモのデータセットを提供するとともに、模擬学習ベースラインを提供する。
論文 参考訳(メタデータ) (2021-07-05T12:18:17Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Dynamic Cognition Applied to Value Learning in Artificial Intelligence [0.0]
この分野の数人の研究者が、堅牢で有益で安全な人工知能の概念を開発しようとしている。
人工知能エージェントが人間の価値観に合わせた価値を持っていることは、最も重要である。
この問題に対する可能なアプローチは、SEDのような理論モデルを使用することである。
論文 参考訳(メタデータ) (2020-05-12T03:58:52Z) - Human Evaluation of Interpretability: The Case of AI-Generated Music
Knowledge [19.508678969335882]
我々は、芸術と人文科学におけるAIが発見する知識/ルールを評価することに注力する。
本稿では,洗練された記号的/数値的対象として表現されたAI生成音楽理論/ルールの人間生成言語解釈を収集し,評価する実験手法を提案する。
論文 参考訳(メタデータ) (2020-04-15T06:03:34Z) - Explainable Active Learning (XAL): An Empirical Study of How Local
Explanations Impact Annotator Experience [76.9910678786031]
本稿では、最近急増している説明可能なAI(XAI)のテクニックをアクティブラーニング環境に導入することにより、説明可能なアクティブラーニング(XAL)の新たなパラダイムを提案する。
本研究は,機械教育のインタフェースとしてのAI説明の利点として,信頼度校正を支援し,リッチな形式の教示フィードバックを可能にすること,モデル判断と認知作業負荷による潜在的な欠点を克服する効果を示す。
論文 参考訳(メタデータ) (2020-01-24T22:52:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。