論文の概要: Learning to Prompt in the Classroom to Understand AI Limits: A pilot
study
- arxiv url: http://arxiv.org/abs/2307.01540v1
- Date: Tue, 4 Jul 2023 07:51:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-06 17:59:38.235706
- Title: Learning to Prompt in the Classroom to Understand AI Limits: A pilot
study
- Title(参考訳): AIの限界を理解するために教室でプロンプトを学ぶ:パイロットスタディ
- Authors: Emily Theophilou, Cansu Koyuturk, Mona Yavari, Sathya Bursic, Gregor
Donabauer, Alessia Telari, Alessia Testa, Raffaele Boiano, Davinia
Hernandez-Leo, Martin Ruskov, Davide Taibi, Alessandro Gabbiadini, Dimitri
Ognibene
- Abstract要約: 我々は、AIの受容に影響を与える要因を研究し、より制御された環境でこの活動を洗練し、繰り返すことを目指している。
パイロット教育は30人の生徒を抱えた高校で実施された。
i)知性、AI、LLMに関する高レベルの概念を提示し、(ii)ChatGPTを非自明なタスクで初歩的に実践し、そして(iii)現在受け入れられているプロンプト戦略を適用した。
- 参考スコア(独自算出の注目度): 45.77781050318336
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial intelligence's progress holds great promise in assisting society
in addressing pressing societal issues. In particular Large Language Models
(LLM) and the derived chatbots, like ChatGPT, have highly improved the natural
language processing capabilities of AI systems allowing them to process an
unprecedented amount of unstructured data. The consequent hype has also
backfired, raising negative sentiment even after novel AI methods' surprising
contributions. One of the causes, but also an important issue per se, is the
rising and misleading feeling of being able to access and process any form of
knowledge to solve problems in any domain with no effort or previous expertise
in AI or problem domain, disregarding current LLMs limits, such as
hallucinations and reasoning limits. Acknowledging AI fallibility is crucial to
address the impact of dogmatic overconfidence in possibly erroneous suggestions
generated by LLMs. At the same time, it can reduce fear and other negative
attitudes toward AI. AI literacy interventions are necessary that allow the
public to understand such LLM limits and learn how to use them in a more
effective manner, i.e. learning to "prompt". With this aim, a pilot educational
intervention was performed in a high school with 30 students. It involved (i)
presenting high-level concepts about intelligence, AI, and LLM, (ii) an initial
naive practice with ChatGPT in a non-trivial task, and finally (iii) applying
currently-accepted prompting strategies. Encouraging preliminary results have
been collected such as students reporting a) high appreciation of the activity,
b) improved quality of the interaction with the LLM during the educational
activity, c) decreased negative sentiments toward AI, d) increased
understanding of limitations and specifically We aim to study factors that
impact AI acceptance and to refine and repeat this activity in more controlled
settings.
- Abstract(参考訳): 人工知能の進歩は社会を援助し、社会問題に取り組む上で大きな可能性を秘めている。
特に大きな言語モデル(llm)とチャットボット(chatgptなど)は、aiシステムの自然言語処理機能を高度に改善し、前例のない量の非構造化データを処理できるようになった。
一連の誇大広告も反発し、新しいaiメソッドの驚くべき貢献の後でもネガティブな感情が高まった。
原因の1つは、AIや問題領域のこれまでの専門知識を使わずに、あらゆる領域のあらゆる種類の知識にアクセスし、処理でき、そして、幻覚や推論の限界のような現在のLSMの限界を無視している、という誤解を招くことにある。
AIの誤認を認めることは、LLMが生成した誤った提案において、犬の過信の影響に対処するために重要である。
同時に、AIに対する恐怖やその他の否定的な態度を減らすことができる。
AIリテラシーの介入は、大衆がそのようなLCMの限界を理解して、より効果的な方法でそれらを使用する方法、すなわち「急進的な」学習を学ぶために必要である。
この目的により、30人の生徒を抱えた高校でパイロット教育の介入が行われた。
関係してます
一 知能、AI、LLMに関する高レベルの概念を提示すること。
(ii)非自明なタスクにおけるchatgptによる初期ナイーブな実践、そして最後に
(iii)現在認められている推進戦略を適用すること。
学生報告などの事前結果を収集した。
a) 活動の高く評価すること
b)教育活動におけるLLMとの相互作用の質の向上。
c) aiに対する否定的な感情の低下。
d) 制限に対する理解の高まり,具体的には,AIの受容に影響を与える要因を調査し,より制御された環境でこの活動を洗練・繰り返すことを目的としている。
関連論文リスト
- Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Do great minds think alike? Investigating Human-AI Complementarity in Question Answering with CAIMIRA [43.116608441891096]
人間は知識に基づく帰納的、概念的推論においてAIシステムより優れています。
GPT-4やLLaMAのような最先端のLLMは、ターゲット情報検索において優れた性能を示す。
論文 参考訳(メタデータ) (2024-10-09T03:53:26Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Exploration with Principles for Diverse AI Supervision [88.61687950039662]
次世代の予測を用いた大規模トランスフォーマーのトレーニングは、AIの画期的な進歩を生み出した。
この生成AIアプローチは印象的な結果をもたらしたが、人間の監督に大きく依存している。
この人間の監視への強い依存は、AIイノベーションの進歩に重大なハードルをもたらす。
本稿では,高品質なトレーニングデータを自律的に生成することを目的とした,探索型AI(EAI)という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-10-13T07:03:39Z) - Assigning AI: Seven Approaches for Students, with Prompts [0.0]
本稿では,Large Language Models(LLM)の教育における転換的役割とその学習ツールとしての可能性について考察する。
AI-tutor、AI-coach、AI-mentor、AI-teammate、AI-tool、AI-simulator、AI-studentの7つのアプローチを提案する。
論文 参考訳(メタデータ) (2023-06-13T03:36:36Z) - Voluminous yet Vacuous? Semantic Capital in an Age of Large Language
Models [0.0]
大きな言語モデル(LLM)は、自然言語処理の領域において変換力として出現し、人間のようなテキストを生成する力を持つ。
本稿では、これらのモデルの進化、能力、限界について考察し、それらが引き起こす倫理的懸念を強調した。
論文 参考訳(メタデータ) (2023-05-29T09:26:28Z) - Principle-Driven Self-Alignment of Language Models from Scratch with
Minimal Human Supervision [84.31474052176343]
ChatGPTのような最近のAIアシスタントエージェントは、人間のアノテーションと人間のフィードバックからの強化学習を教師付き微調整(SFT)に頼り、アウトプットを人間の意図に合わせる。
この依存は、人間の監督を得るために高いコストがかかるため、AIアシスタントエージェントの真の可能性を大幅に制限することができる。
本稿では,AIエージェントの自己調整と人間監督の最小化のために,原則駆動推論とLLMの生成能力を組み合わせたSELF-ALIGNという新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-04T17:59:28Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Blessing from Human-AI Interaction: Super Reinforcement Learning in
Confounded Environments [19.944163846660498]
本稿では,データ駆動シーケンシャル意思決定に人間-AIインタラクションを活用する超強化学習のパラダイムを紹介する。
未測定のコンファウンディングを伴う意思決定プロセスでは、過去のエージェントによって取られたアクションは、未開示の情報に対する貴重な洞察を提供することができる。
我々は、いくつかの超政治学習アルゴリズムを開発し、その理論的性質を体系的に研究する。
論文 参考訳(メタデータ) (2022-09-29T16:03:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。