論文の概要: DoYouTrustAI: A Tool to Teach Students About AI Misinformation and Prompt Engineering
- arxiv url: http://arxiv.org/abs/2504.13859v1
- Date: Sat, 22 Mar 2025 19:11:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:52.616524
- Title: DoYouTrustAI: A Tool to Teach Students About AI Misinformation and Prompt Engineering
- Title(参考訳): DoYouTrustAI:AIの誤情報とプロンプトエンジニアリングを学生に教えるツール
- Authors: Phillip Driscoll, Priyanka Kumar,
- Abstract要約: DoYouTrustAIは、学生が主要な歴史人物に関するLLM応答で誤解を招く情報を識別することで批判的思考を強化するウェブベースのアプリケーションである。
このツールは、ユーザーがテストに慣れ親しんだ個人を選び、ランダムな推測を減らし、既知の事実と共に誤情報を提示し、信頼性を維持する。
また、AI応答に異なるプロンプトがどのように影響するかを示すために、事前に設定されたプロンプト命令も提供する。
- 参考スコア(独自算出の注目度): 2.3020018305241337
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: AI, especially Large Language Models (LLMs) like ChatGPT, have rapidly developed and gained widespread adoption in the past five years, shifting user preference from traditional search engines. However, the generative nature of LLMs raises concerns about presenting misinformation as fact. To address this, we developed a web-based application that helps K-12 students enhance critical thinking by identifying misleading information in LLM responses about major historical figures. In this paper, we describe the implementation and design details of the DoYouTrustAI tool, which can be used to provide an interactive lesson which teaches students about the dangers of misinformation and how believable generative AI can make it seem. The DoYouTrustAI tool utilizes prompt engineering to present the user with AI generated summaries about the life of a historical figure. These summaries can be either accurate accounts of that persons life, or an intentionally misleading alteration of their history. The user is tasked with determining the validity of the statement without external resources. Our research questions for this work were:(RQ1) How can we design a tool that teaches students about the dangers of misleading information and of how misinformation can present itself in LLM responses? (RQ2) Can we present prompt engineering as a topic that is easily understandable for students? Our findings highlight the need to correct misleading information before users retain it. Our tool lets users select familiar individuals for testing to reduce random guessing and presents misinformation alongside known facts to maintain believability. It also provides pre-configured prompt instructions to show how different prompts affect AI responses. Together, these features create a controlled environment where users learn the importance of verifying AI responses and understanding prompt engineering.
- Abstract(参考訳): AI、特にChatGPTのようなLarge Language Models(LLM)は、過去5年間で急速に発展し、広く採用され、従来の検索エンジンからユーザの好みにシフトしている。
しかし、LLMの生成的性質は、誤情報を事実として提示することへの懸念を提起する。
そこで我々は,K-12の学生がLLMの回答に誤解を招く情報を識別し,批判的思考を強化するためのWebベースのアプリケーションを開発した。
本稿では,学生に誤報の危険性と生成可能なAIがどのように見えるかを教えるインタラクティブな授業を提供するDoYouTrustAIツールの実装と設計の詳細を説明する。
DoYouTrustAIツールは、プロンプトエンジニアリングを利用して、歴史人物の生活に関するAI生成された要約をユーザに提示する。
これらの要約は、その人の生活の正確な説明、または故意にその歴史の改変を導いたものである。
ユーザは、外部リソースを使わずに、ステートメントの妥当性を判断する。
RQ1) 誤解を招く情報の危険性を学生に教えるツールをどう設計するか、そしてどのように誤報がLLM応答に現れるか。
(RQ2)
学生にとって理解しやすい話題として,プロンプトエンジニアリングを提示できるだろうか?
この発見は、ユーザーが保持する前に誤解を招く情報を訂正する必要性を浮き彫りにした。
提案ツールでは,無作為な推測を抑えるために慣れ親しんだ個人を選別し,既知事実とともに誤情報を提示し,信頼性を維持する。
また、AI応答に異なるプロンプトがどのように影響するかを示すために、事前に設定されたプロンプト命令も提供する。
これらの機能は共に、AI応答を検証することの重要性と、プロンプトエンジニアリングを理解することの重要性を学ぶ、制御された環境を作り出します。
関連論文リスト
- Analyzing User Perceptions of Large Language Models (LLMs) on Reddit: Sentiment and Topic Modeling of ChatGPT and DeepSeek Discussions [0.0]
本研究の目的は、感情モデルとトピックモデリングを用いて、ChatGPTとDeepSeekに関するRedditの議論を分析することである。
レポートは、ユーザーがこのテクノロジーを信じているかどうか、そして彼らが未来と見なしているものについて言及している。
論文 参考訳(メタデータ) (2025-02-22T17:00:42Z) - How Do Programming Students Use Generative AI? [7.863638253070439]
プログラミングの学生がChatGPTのような生成AIツールを実際にどのように使っているかを検討した。
一般的な概念に関する知識を探り,ソリューションを直接生成する,という2つの一般的な利用戦略を観察した。
その結果,ジェネレーティブAIによるプログラマエージェンシーの潜在的な減少と生産性に関する懸念が正当であることが示唆された。
論文 参考訳(メタデータ) (2025-01-17T10:25:41Z) - Emotional Manipulation Through Prompt Engineering Amplifies
Disinformation Generation in AI Large Language Models [0.0]
本研究では,OpenAIのLarge Language Models (LLMs) による合成偽情報の創出と,その感情的刺激に対する応答性について検討する。
ソーシャルメディア投稿を合成した19のコーパスから,OpenAI による全ての LLM が偽情報の生成に成功していることが明らかとなった。
丁寧に刺激すると、全てのLLMは一貫して高周波で偽情報を発生させる。
しかし、偽情報生成の頻度は減少し、モデルはしばしば偽情報の生成を拒み、そのツールがそのような目的を意図していないことをユーザーに警告する。
論文 参考訳(メタデータ) (2024-03-06T08:50:25Z) - Farsight: Fostering Responsible AI Awareness During AI Application Prototyping [32.235398722593544]
私たちはFarsightという、プロトタイピング中のAIアプリケーションから潜在的な害を識別する新しい対話型ツールを紹介します。
ユーザのプロンプトに基づいて、Farsightは関連するAIインシデントに関するニュース記事を強調し、LLM生成したユースケースやステークホルダ、障害を調査、編集することを可能にする。
10人のAIプロトタイプを用いた共同設計研究と42人のAIプロトタイプを用いたユーザスタディから得られた知見を報告する。
論文 参考訳(メタデータ) (2024-02-23T14:38:05Z) - Beyond Factuality: A Comprehensive Evaluation of Large Language Models
as Knowledge Generators [78.63553017938911]
大規模言語モデル(LLM)は、下流の知識集約タスクのための情報検索技術より優れている。
しかし、コミュニティの懸念は、この無検閲の知識を使用することの事実と潜在的意味について多岐にわたる。
本研究では,6つの重要な視点から生成した知識を評価するために設計されたCONNERを紹介する。
論文 参考訳(メタデータ) (2023-10-11T08:22:37Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - A Survey of Machine Unlearning [56.017968863854186]
最近の規制では、要求に応じて、ユーザに関する個人情報をコンピュータシステムから削除する必要がある。
MLモデルは古いデータをよく記憶します。
機械学習に関する最近の研究は、この問題を完全に解決することはできなかった。
論文 参考訳(メタデータ) (2022-09-06T08:51:53Z) - Transcending XAI Algorithm Boundaries through End-User-Inspired Design [27.864338632191608]
エンドユーザに対する説明責任重視の機能サポートの欠如は、高度なドメインにおけるAIの安全で責任ある使用を妨げる可能性がある。
我々の研究は、エンドユーザーがXAIを使用する際の技術的な問題を根底から解決することで、新たな研究課題がもたらされることを示している。
このようなエンドユーザにインスパイアされた研究質問は、AIを民主化し、クリティカルドメインにおけるAIの責任ある使用を保証することによって、社会的善を促進できる可能性がある。
論文 参考訳(メタデータ) (2022-08-18T09:44:51Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z) - Explainable Active Learning (XAL): An Empirical Study of How Local
Explanations Impact Annotator Experience [76.9910678786031]
本稿では、最近急増している説明可能なAI(XAI)のテクニックをアクティブラーニング環境に導入することにより、説明可能なアクティブラーニング(XAL)の新たなパラダイムを提案する。
本研究は,機械教育のインタフェースとしてのAI説明の利点として,信頼度校正を支援し,リッチな形式の教示フィードバックを可能にすること,モデル判断と認知作業負荷による潜在的な欠点を克服する効果を示す。
論文 参考訳(メタデータ) (2020-01-24T22:52:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。