論文の概要: Short-term AI literacy intervention does not reduce over-reliance on incorrect ChatGPT recommendations
- arxiv url: http://arxiv.org/abs/2503.10556v1
- Date: Thu, 13 Mar 2025 17:10:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-14 15:53:42.122071
- Title: Short-term AI literacy intervention does not reduce over-reliance on incorrect ChatGPT recommendations
- Title(参考訳): 短期的なAIリテラシー介入は、誤ったChatGPT勧告に対する信頼度を低下させるものではない
- Authors: Brett Puppart, Jaan Aru,
- Abstract要約: 短期間のAIリテラシー介入は、過度な信頼性を著しく低下させることはなかった。
我々は、過度な信頼性に対抗するためにAIリテラシーを高めるのは簡単ではないと結論付けている。
- 参考スコア(独自算出の注目度): 1.1510009152620668
- License:
- Abstract: In this study, we examined whether a short-form AI literacy intervention could reduce the adoption of incorrect recommendations from large language models. High school seniors were randomly assigned to either a control or an intervention group, which received an educational text explaining ChatGPT's working mechanism, limitations, and proper use. Participants solved math puzzles with the help of ChatGPT's recommendations, which were incorrect in half of the cases. Results showed that students adopted incorrect suggestions 52.1% of the time, indicating widespread over-reliance. The educational intervention did not significantly reduce over-reliance. Instead, it led to an increase in ignoring ChatGPT's correct recommendations. We conclude that the usage of ChatGPT is associated with over-reliance and it is not trivial to increase AI literacy to counter over-reliance.
- Abstract(参考訳): 本研究では,短時間のAIリテラシー介入が,大規模言語モデルからの誤ったレコメンデーションの導入を減少させるかどうかを検討した。
高校生は、ChatGPTの動作機構、制限、適切な使用を説明する教育用テキストを受け取ったコントロールグループまたは介入グループにランダムに割り当てられた。
参加者はChatGPTのレコメンデーションの助けを借りて数学パズルを解いた。
その結果、学生は52.1%の誤った提案を採用しており、信頼度が高すぎることが示唆された。
教育介入は、過度な信頼性を著しく低下させることはなかった。
代わりに、ChatGPTの正しいレコメンデーションを無視した。
我々は、ChatGPTの使用は高信頼と結びつき、高信頼に対処するためにAIリテラシーを高めることは容易ではないと結論付けている。
関連論文リスト
- The use of ChatGPT in higher education: The advantages and disadvantages [0.0]
ChatGPTはOpenAIが開発した人工知能技術である。
本研究では,ChatGPTを高等教育に応用し,ハイレベルな授業の理解と作成について検討する。
論文 参考訳(メタデータ) (2024-03-28T09:00:05Z) - Exploring ChatGPT's Capabilities on Vulnerability Management [56.4403395100589]
我々は、70,346のサンプルを含む大規模なデータセットを用いて、完全な脆弱性管理プロセスを含む6つのタスクでChatGPTの機能を探求する。
注目すべき例として、ChatGPTのソフトウェアバグレポートのタイトル生成などのタスクにおける熟練度がある。
以上の結果から,ChatGPTが抱える障害が明らかとなり,将来的な方向性に光を当てた。
論文 参考訳(メタデータ) (2023-11-11T11:01:13Z) - Primacy Effect of ChatGPT [69.49920102917598]
本稿では,ChatGPTの優位性について検討する。
実験と分析により、より信頼性の高いChatGPTベースのソリューションを構築する上で、さらなる洞察が得られればと思っています。
論文 参考訳(メタデータ) (2023-10-20T00:37:28Z) - "ChatGPT, a Friend or Foe for Education?" Analyzing the User's
Perspectives on the Latest AI Chatbot Via Reddit [0.0]
この研究は、ChatGPTの教育利用に関するRedditのトップ投稿247件を分析した。
その結果,ユーザの大半が中立的な視点を採っていることがわかった。
教育におけるChatGPTの有用性については, 否定的よりも肯定的であった。
論文 参考訳(メタデータ) (2023-09-27T23:59:44Z) - Unreflected Acceptance -- Investigating the Negative Consequences of
ChatGPT-Assisted Problem Solving in Physics Education [4.014729339820806]
大規模言語モデル(LLM)が、教育などの日常生活のセンシティブな領域に与える影響は、いまだ不明である。
本研究は,高次物理学教育に焦点をあて,問題解決戦略を検討する。
論文 参考訳(メタデータ) (2023-08-21T16:14:34Z) - Performance of ChatGPT on USMLE: Unlocking the Potential of Large
Language Models for AI-Assisted Medical Education [0.0]
本研究は,ChatGPTが複雑な医学的および臨床的な疑問に答える上で,いかに信頼性が高いかを検討した。
本研究は2方向ANOVAとポストホック解析を用いて得られた結果について検討した。
ChatGPTによる回答は、通常のGoogle検索結果よりもコンテキスト指向であることが判明した。
論文 参考訳(メタデータ) (2023-06-30T19:53:23Z) - Transformative Effects of ChatGPT on Modern Education: Emerging Era of
AI Chatbots [36.760677949631514]
ChatGPTは、大量のデータの分析に基づいて、一貫性と有用な応答を提供するためにリリースされた。
予備評価の結果,ChatGPTは財務,コーディング,数学など各分野において異なる性能を示した。
不正確なデータや偽データを生成する可能性など、その使用には明らかな欠点がある。
ChatGPTを教育のツールとして使用すれば、学術的規制と評価のプラクティスを更新する必要がある。
論文 参考訳(メタデータ) (2023-05-25T17:35:57Z) - Consistency Analysis of ChatGPT [65.268245109828]
本稿では,ChatGPTとGPT-4の論理的一貫した行動に対する信頼性について検討する。
その結果,両モデルとも言語理解能力と推論能力が向上しているように見えるが,論理的に一貫した予測が得られないことが示唆された。
論文 参考訳(メタデータ) (2023-03-11T01:19:01Z) - Can ChatGPT Understand Too? A Comparative Study on ChatGPT and
Fine-tuned BERT [103.57103957631067]
チャットGPTは、人間の質問に対する流動的で高品質な応答を生成できるため、大きな注目を集めている。
そこで我々は,ChatGPTの理解能力を,最も人気のあるGLUEベンチマークで評価し,より詳細な4種類のBERTスタイルのモデルと比較した。
2)ChatGPTは,感情分析や質問応答タスクにおいて,BERTと同等のパフォーマンスを達成している。
論文 参考訳(メタデータ) (2023-02-19T12:29:33Z) - Is ChatGPT a General-Purpose Natural Language Processing Task Solver? [113.22611481694825]
大規模言語モデル(LLM)は、さまざまな自然言語処理(NLP)タスクをゼロショットで実行できることを実証している。
近年、ChatGPTのデビューは自然言語処理(NLP)コミュニティから大きな注目を集めている。
ChatGPTが多くのNLPタスクをゼロショットで実行できるジェネラリストモデルとして機能するかどうかはまだ分かっていない。
論文 参考訳(メタデータ) (2023-02-08T09:44:51Z) - A Categorical Archive of ChatGPT Failures [47.64219291655723]
OpenAIが開発したChatGPTは、大量のデータを使って訓練され、人間の会話をシミュレートしている。
それは、広範囲の人間の問い合わせに効果的に答える能力のために、大きな注目を集めている。
しかし、ChatGPTの失敗の包括的分析は欠落しており、これが本研究の焦点となっている。
論文 参考訳(メタデータ) (2023-02-06T04:21:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。