論文の概要: "Like a Nesting Doll": Analyzing Recursion Analogies Generated by CS Students using Large Language Models
- arxiv url: http://arxiv.org/abs/2403.09409v1
- Date: Thu, 14 Mar 2024 14:01:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-15 20:27:28.799054
- Title: "Like a Nesting Doll": Analyzing Recursion Analogies Generated by CS Students using Large Language Models
- Title(参考訳): ネスティング・ドールのような」:大規模言語モデルを用いたCS学生による再帰アナロジーの分析
- Authors: Seth Bernstein, Paul Denny, Juho Leinonen, Lauren Kan, Arto Hellas, Matt Littlefield Sami Sarsa, Stephen MacNeil,
- Abstract要約: 優れたアナロジーは、馴染みのない概念と慣れ親しんだ概念のギャップを埋めることができ、理解を助ける魅力的な方法を提供する。
大規模言語モデル(LLM)、特にChatGPTが、需要に応じた個人関連アナロジーにどの程度アクセスできるかを検討する。
- 参考スコア(独自算出の注目度): 5.162225137921625
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Grasping complex computing concepts often poses a challenge for students who struggle to anchor these new ideas to familiar experiences and understandings. To help with this, a good analogy can bridge the gap between unfamiliar concepts and familiar ones, providing an engaging way to aid understanding. However, creating effective educational analogies is difficult even for experienced instructors. We investigate to what extent large language models (LLMs), specifically ChatGPT, can provide access to personally relevant analogies on demand. Focusing on recursion, a challenging threshold concept, we conducted an investigation analyzing the analogies generated by more than 350 first-year computing students. They were provided with a code snippet and tasked to generate their own recursion-based analogies using ChatGPT, optionally including personally relevant topics in their prompts. We observed a great deal of diversity in the analogies produced with student-prescribed topics, in contrast to the otherwise generic analogies, highlighting the value of student creativity when working with LLMs. Not only did students enjoy the activity and report an improved understanding of recursion, but they described more easily remembering analogies that were personally and culturally relevant.
- Abstract(参考訳): 複雑なコンピューティングの概念をグラッピングすることは、これらの新しいアイデアを慣れ親しんだ経験や理解に定着させるのに苦労する学生にとって、しばしば課題となる。
これを支援するために、優れたアナロジーは、馴染みのない概念と慣れ親しんだ概念のギャップを埋めることができ、理解を助ける魅力的な方法を提供します。
しかし、経験者でも効果的な教育的類推を作ることは困難である。
本稿では,大規模言語モデル(LLM),特にChatGPTが,需要に応じた個人関連アナロジーへのアクセスをどの程度可能かを検討する。
課題となるしきい値の概念である再帰に着目し,350人以上の1年生が生成したアナロジーを解析した。
コードスニペットが提供され、ChatGPTを使って独自の再帰ベースのアナロジーを生成するよう指示された。
LLMで作業する際の学生の創造性の価値を強調し、他の一般的な類推とは対照的に、学生が規定するトピックによる類推の多様性を多数観察した。
学生たちはこの活動を楽しみ、再帰についての理解を深めたことを報告しただけでなく、個人的・文化的に関係のある類推を思い出すのがより簡単であった。
関連論文リスト
- Boosting Scientific Concepts Understanding: Can Analogy from Teacher Models Empower Student Models? [12.164449420121189]
本研究では,教師言語モデル(LM)による類推が,科学概念の理解にどのように役立つかを検討する。
以上の結果から,自由形式類似は概念理解におけるLMの助けとなることが示唆された。
論文 参考訳(メタデータ) (2024-06-17T09:51:38Z) - AnaloBench: Benchmarking the Identification of Abstract and Long-context Analogies [19.613777134600408]
アナロジー思考は、人間が創造的な方法で問題を解決することを可能にする。
言語モデル(LM)も同じことができますか?
ベンチマークアプローチは、人間に共通するこの能力の側面に焦点を当てます。
論文 参考訳(メタデータ) (2024-02-19T18:56:44Z) - Thread of Thought Unraveling Chaotic Contexts [133.24935874034782]
思考のスレッド(ThoT)戦略は、人間の認知プロセスからインスピレーションを得ている。
実験では、他のプロンプト技術と比較して、ThoTは推論性能を著しく改善する。
論文 参考訳(メタデータ) (2023-11-15T06:54:44Z) - StoryAnalogy: Deriving Story-level Analogies from Large Language Models
to Unlock Analogical Understanding [72.38872974837462]
大規模ストーリーレベルの類似語コーパスを構築することにより,類似語を識別・生成する能力を評価する。
textscStory Analogyには、さまざまなドメインから24Kストーリーペアが含まれており、拡張された構造マッピング理論の2つの類似点に人間のアノテーションがある。
我々は、textscStory Analogyのデータは、大言語モデルにおけるアナログ生成の品質を向上させることができることを観察した。
論文 参考訳(メタデータ) (2023-10-19T16:29:23Z) - Large Language Models as Analogical Reasoners [155.9617224350088]
CoT(Chain-of- Thought)は、言語モデルのプロンプトとして、推論タスク全体で素晴らしいパフォーマンスを示す。
そこで本稿では,大規模言語モデルの推論プロセスを自動的にガイドする,新たなプロンプト手法であるアナログプロンプトを導入する。
論文 参考訳(メタデータ) (2023-10-03T00:57:26Z) - ARN: Analogical Reasoning on Narratives [13.707344123755126]
我々は、物語要素を用いて表面マッピングとシステムマッピングを作成する、アナロジーの支配的理論を運用するフレームワークを開発する。
すべてのLLMがほぼ類似点を認識できるが、最大でもゼロショット環境では極端に類似点に苦戦している。
論文 参考訳(メタデータ) (2023-10-02T08:58:29Z) - Why Do We Need Neuro-symbolic AI to Model Pragmatic Analogies? [6.8107181513711055]
知性の目印は、慣れ親しんだドメインを使用して、アナログ推論として知られる、あまり親しみのないドメインについての推論を行う能力である。
語彙的類推,構文的類推,意味的類推,実用的類推の4つの異なるレベルにおける類推について論じる。
我々は、統計とシンボルAIを組み合わせたニューロシンボリックAI技術を採用し、構造化されていないテキストの表現を通知し、関連コンテンツを強調し、拡張し、抽象化を提供し、マッピングプロセスを導く。
論文 参考訳(メタデータ) (2023-08-02T21:13:38Z) - Beneath Surface Similarity: Large Language Models Make Reasonable
Scientific Analogies after Structure Abduction [46.2032673640788]
人間の認知における類推的推論の不可欠な役割は、共用関係構造を通して親しみやすい概念とリンクすることで、新しい概念を把握できることである。
この研究は、Large Language Models (LLM) がこれらの類似の基盤となる構造をしばしば見落としていることを示唆している。
本稿では,2つのシステム間の類似性を形成する構造を導出するための,認知心理学に基づく類推的構造推論の課題を紹介する。
論文 参考訳(メタデータ) (2023-05-22T03:04:06Z) - Analogy-Making as a Core Primitive in the Software Engineering Toolbox [7.396342576390398]
我々は、アナログ作成はソフトウェア工学における中核的なプリミティブと見なされるべきである、と論じている。
我々は、ソフトウェア工学アプリケーションに適した新しいアナログ生成アルゴリズムであるSifterを用いて、このアイデアを実証する。
論文 参考訳(メタデータ) (2020-09-14T17:24:15Z) - Few-shot Visual Reasoning with Meta-analogical Contrastive Learning [141.2562447971]
本稿では,類似推論に頼って,数ショット(または低ショット)の視覚推論問題を解くことを提案する。
両領域の要素間の構造的関係を抽出し、類似学習と可能な限り類似するように強制する。
RAVENデータセット上での本手法の有効性を検証し, トレーニングデータが少ない場合, 最先端の手法より優れることを示す。
論文 参考訳(メタデータ) (2020-07-23T14:00:34Z) - A Knowledge-Enhanced Pretraining Model for Commonsense Story Generation [98.25464306634758]
本稿では,外部知識ベースからのコモンセンス知識を利用して,合理的なストーリーを生成することを提案する。
我々は,真と偽のストーリーを識別するための差別的目的を組み合わせたマルチタスク学習を採用している。
我々のモデルは、特に論理学とグローバルコヒーレンスの観点から、最先端のベースラインよりも合理的なストーリーを生成することができる。
論文 参考訳(メタデータ) (2020-01-15T05:42:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。