論文の概要: ChatGPT & Mechanical Engineering: Examining performance on the FE
Mechanical Engineering and Undergraduate Exams
- arxiv url: http://arxiv.org/abs/2309.15866v1
- Date: Tue, 26 Sep 2023 20:12:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-29 19:26:40.499361
- Title: ChatGPT & Mechanical Engineering: Examining performance on the FE
Mechanical Engineering and Undergraduate Exams
- Title(参考訳): chatgptとメカニカルエンジニアリング:feメカニカルエンジニアリングと学部試験におけるパフォーマンスの検討
- Authors: Matthew Frenkel, Hebah Emara
- Abstract要約: 本研究では,機械工学の分野におけるChatGPTの機能について検討する。
教室やプロの環境での利用事例や落とし穴を調べることを目的としている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The launch of ChatGPT at the end of 2022 generated large interest into
possible applications of artificial intelligence in STEM education and among
STEM professions. As a result many questions surrounding the capabilities of
generative AI tools inside and outside of the classroom have been raised and
are starting to be explored. This study examines the capabilities of ChatGPT
within the discipline of mechanical engineering. It aims to examine use cases
and pitfalls of such a technology in the classroom and professional settings.
ChatGPT was presented with a set of questions from junior and senior level
mechanical engineering exams provided at a large private university, as well as
a set of practice questions for the Fundamentals of Engineering Exam (FE) in
Mechanical Engineering. The responses of two ChatGPT models, one free to use
and one paid subscription, were analyzed. The paper found that the subscription
model (GPT-4) greatly outperformed the free version (GPT-3.5), achieving 76%
correct vs 51% correct, but the limitation of text only input on both models
makes neither likely to pass the FE exam. The results confirm findings in the
literature with regards to types of errors and pitfalls made by ChatGPT. It was
found that due to its inconsistency and a tendency to confidently produce
incorrect answers the tool is best suited for users with expert knowledge.
- Abstract(参考訳): 2022年末のChatGPTの立ち上げは、STEM教育やSTEM専門家の間で人工知能の応用の可能性に大きな関心を呼んだ。
その結果、教室内外における生成AIツールの能力に関する多くの疑問が提起され、探求が始まっている。
本研究は機械工学の分野におけるchatgptの能力について検討する。
教室や専門的な場面でこのような技術のユースケースや落とし穴を調べることを目的としている。
chatgptは、大規模な私立大学で提供された中等・上級機械工学試験の一連の質問と、機械工学における工学試験の基礎(fe)に関する実践的な質問を提示された。
2つのChatGPTモデル,1つの無償使用と1つの有償サブスクリプションの応答を解析した。
論文は、サブスクリプションモデル(GPT-4)がフリーバージョン(GPT-3.5)を大きく上回り、76%が正しいか51%が正しいと結論した。
その結果,chatgptによる誤りの種類と落とし穴について文献から知見が得られた。
その結果,不整合性や不正確な回答を確実に生成する傾向から,このツールが専門知識を持つユーザに適していることがわかった。
関連論文リスト
- Evaluating GPT-4 at Grading Handwritten Solutions in Math Exams [48.99818550820575]
我々は、最先端のマルチモーダルAIモデル、特にGPT-4oを利用して、大学レベルの数学試験に対する手書きの応答を自動的に評価する。
確率論試験における質問に対する実際の学生の反応を用いて, GPT-4oのスコアと, 様々なプロンプト技術を用いて, 人間の学級のスコアとの整合性を評価する。
論文 参考訳(メタデータ) (2024-11-07T22:51:47Z) - The potential of large language models for improving probability
learning: A study on ChatGPT3.5 and first-year computer engineering students [0.565395466029518]
ChatGPTは確率問題を解くための大規模言語モデルである。
ChatGPTは、一般にコンピュータ工学試験で提示される確率問題の解決に使用される。
モデルが高品質な説明を提供し、どんなプログラミング言語でもソリューションを説明する能力は、大きな言語モデルが学習アシスタントとして機能する可能性を示唆している。
論文 参考訳(メタデータ) (2023-10-09T12:54:58Z) - ChatGPT: A Study on its Utility for Ubiquitous Software Engineering
Tasks [2.084078990567849]
ChatGPT (Chat Generative Pre-trained Transformer) - OpenAIが2022年11月30日に立ち上げた。
本研究では,ChatGPTが一般的なソフトウェアエンジニアリングタスクにどのように役立つかを検討する。
論文 参考訳(メタデータ) (2023-05-26T11:29:06Z) - ChatGPT-Crawler: Find out if ChatGPT really knows what it's talking
about [15.19126287569545]
本研究では,異なる対話型QAコーパスからChatGPTが生成する応答について検討する。
この研究はBERT類似度スコアを用いて、これらの回答を正しい回答と比較し、自然言語推論(NLI)ラベルを得る。
調査では、ChatGPTが質問に対する誤った回答を提供し、モデルがエラーを起こしやすい領域について洞察を与えている事例を特定した。
論文 参考訳(メタデータ) (2023-04-06T18:42:47Z) - One Small Step for Generative AI, One Giant Leap for AGI: A Complete
Survey on ChatGPT in AIGC Era [95.2284704286191]
GPT-4(別名ChatGPT Plus)は、生成型AI(GAI)の1つの小さなステップであるが、人工知能(AGI)の1つの大きな飛躍である。
2022年11月に公式リリースされて以来、ChatGPTは急速に多くのユーザーを惹きつけてきた。
この研究は、ChatGPTを基盤技術、アプリケーション、課題に関する包括的なレビューで調査した初めてのものである。
論文 参考訳(メタデータ) (2023-04-04T06:22:09Z) - To ChatGPT, or not to ChatGPT: That is the question! [78.407861566006]
本研究は,ChatGPT検出における最新の手法を包括的かつ現代的に評価するものである。
我々は、ChatGPTと人間からのプロンプトからなるベンチマークデータセットをキュレートし、医療、オープンQ&A、ファイナンスドメインからの多様な質問を含む。
評価の結果,既存の手法ではChatGPT生成内容を効果的に検出できないことがわかった。
論文 参考訳(メタデータ) (2023-04-04T03:04:28Z) - Can AI Chatbots Pass the Fundamentals of Engineering (FE) and Principles
and Practice of Engineering (PE) Structural Exams? [1.0554048699217669]
ChatGPT-4 と Bard はそれぞれ FE 試験で 70.9% と 39.2% を獲得し、PE 試験で 46.2% と 41% を獲得した。
現在のChatGPT-4はFE試験に合格する可能性があることは明らかである。
論文 参考訳(メタデータ) (2023-03-31T15:37:17Z) - On the Educational Impact of ChatGPT: Is Artificial Intelligence Ready
to Obtain a University Degree? [0.0]
大学教育におけるChatGPTの効果を評価する。
コンピュータサイエンスの高等教育は、ChatGPTのようなツールにどのように適応すべきかについて議論する。
論文 参考訳(メタデータ) (2023-03-20T14:27:37Z) - BiasTestGPT: Using ChatGPT for Social Bias Testing of Language Models [73.29106813131818]
テスト文は限られた手動テンプレートから生成されるか、高価なクラウドソーシングを必要とするため、現時点ではバイアステストは煩雑である。
ソーシャルグループと属性の任意のユーザ指定の組み合わせを考慮し、テスト文の制御可能な生成にChatGPTを使うことを提案する。
本稿では,HuggingFace上にホストされているオープンソースの総合的バイアステストフレームワーク(BiasTestGPT)について紹介する。
論文 参考訳(メタデータ) (2023-02-14T22:07:57Z) - Is ChatGPT a General-Purpose Natural Language Processing Task Solver? [113.22611481694825]
大規模言語モデル(LLM)は、さまざまな自然言語処理(NLP)タスクをゼロショットで実行できることを実証している。
近年、ChatGPTのデビューは自然言語処理(NLP)コミュニティから大きな注目を集めている。
ChatGPTが多くのNLPタスクをゼロショットで実行できるジェネラリストモデルとして機能するかどうかはまだ分かっていない。
論文 参考訳(メタデータ) (2023-02-08T09:44:51Z) - A Categorical Archive of ChatGPT Failures [47.64219291655723]
OpenAIが開発したChatGPTは、大量のデータを使って訓練され、人間の会話をシミュレートしている。
それは、広範囲の人間の問い合わせに効果的に答える能力のために、大きな注目を集めている。
しかし、ChatGPTの失敗の包括的分析は欠落しており、これが本研究の焦点となっている。
論文 参考訳(メタデータ) (2023-02-06T04:21:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。