論文の概要: LLaVA-Docent: Instruction Tuning with Multimodal Large Language Model to
Support Art Appreciation Education
- arxiv url: http://arxiv.org/abs/2402.06264v1
- Date: Fri, 9 Feb 2024 09:25:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-12 17:27:23.803777
- Title: LLaVA-Docent: Instruction Tuning with Multimodal Large Language Model to
Support Art Appreciation Education
- Title(参考訳): LLaVA-Docent:芸術鑑賞教育を支援するマルチモーダル大言語モデルによる授業チューニング
- Authors: Unggi Lee, Minji Jeon, Yunseo Lee, Gyuri Byun, Yoorim Son, Jaeyoon
Shin, Hongkyu Ko, Hyeoncheol Kim
- Abstract要約: 美術鑑賞教育は、芸術資源へのアクセスが制限されていること、特に不利な学生にとって、しばしば妨げられている。
本研究では,LLaVA-Docentの開発に焦点をあて,マルチモーダル大規模言語モデル(MLLM)の美術鑑賞教育への応用について検討する。
- 参考スコア(独自算出の注目度): 0.8204217278232556
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Art appreciation is vital in nurturing critical thinking and emotional
intelligence among learners. However, traditional art appreciation education
has often been hindered by limited access to art resources, especially for
disadvantaged students, and an imbalanced emphasis on STEM subjects in
mainstream education. In response to these challenges, recent technological
advancements have paved the way for innovative solutions. This study explores
the application of multi-modal large language models (MLLMs) in art
appreciation education, focusing on developing LLaVA-Docent, a model that
leverages these advancements. Our approach involved a comprehensive literature
review and consultations with experts in the field, leading to developing a
robust data framework. Utilizing this framework, we generated a virtual
dialogue dataset that was leveraged by GPT-4. This dataset was instrumental in
training the MLLM, named LLaVA-Docent. Six researchers conducted quantitative
and qualitative evaluations of LLaVA-Docent to assess its effectiveness,
benchmarking it against the GPT-4 model in a few-shot setting. The evaluation
process revealed distinct strengths and weaknesses of the LLaVA-Docent model.
Our findings highlight the efficacy of LLaVA-Docent in enhancing the
accessibility and engagement of art appreciation education. By harnessing the
potential of MLLMs, this study makes a significant contribution to the field of
art education, proposing a novel methodology that reimagines the way art
appreciation is taught and experienced.
- Abstract(参考訳): 芸術鑑賞は、学習者の批判的思考と感情的知性を育む上で不可欠である。
しかし、伝統的な美術鑑賞教育は、特に不利な学生の芸術資源へのアクセスが制限されることや、主流の教育におけるSTEM科目への不均衡がしばしば妨げられている。
これらの課題に応えて、最近の技術進歩は革新的な解決策の道を開いた。
本研究では,これらの進歩を生かしたLLaVA-Docentの開発に焦点をあて,マルチモーダル大言語モデル(MLLM)を芸術鑑賞教育に適用することを検討する。
我々のアプローチは、この分野の専門家との包括的な文献レビューと相談を伴い、堅牢なデータフレームワークの開発に繋がった。
このフレームワークを利用して,GPT-4で活用した仮想対話データセットを作成した。
このデータセットは、LLaVA-Docentという名前のMLLMのトレーニングに役立った。
6人の研究者がllava-docentの定量的・質的評価を行い、数発でgpt-4モデルと比較した。
評価結果からLLaVA-Docentモデルの強度と弱点が明らかとなった。
LLaVA-Docentは,美術鑑賞教育のアクセシビリティとエンゲージメントを高めるのに有効である。
本研究は,MLLMの潜在能力を生かして,芸術教育の分野に多大な貢献をし,芸術鑑賞の指導・経験方法を再考する新たな方法論を提案する。
関連論文リスト
- FoundaBench: Evaluating Chinese Fundamental Knowledge Capabilities of Large Language Models [64.11333762954283]
本稿では,中国のLLMの基本知識能力を厳格に評価するための先駆的ベンチマークであるFoundaBenchを紹介する。
本稿では、従来の評価手法とCircularEvalプロトコルの両方を用いて、モデル応答の潜在的なバイアスを軽減するため、FoundaBenchを用いた12の最先端LCMの広範な評価を行う。
以上の結果から,中国のコーパスで事前学習したモデルの性能が向上し,モデル推論とメモリリコール能力の相違が明らかとなった。
論文 参考訳(メタデータ) (2024-04-29T01:49:07Z) - Exploring the landscape of large language models: Foundations, techniques, and challenges [8.042562891309414]
この記事では、コンテキスト内学習の力学と微調整アプローチのスペクトルについて光を当てている。
革新的な強化学習フレームワークを通じて、LLMが人間の好みとより緊密に連携する方法について検討する。
LLMデプロイメントの倫理的側面は議論され、マインドフルで責任あるアプリケーションの必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-04-18T08:01:20Z) - Large Language Models for Education: A Survey and Outlook [69.02214694865229]
各視点の技術的進歩を体系的にレビューし、関連するデータセットとベンチマークを整理し、教育におけるLSMの展開に伴うリスクと課題を特定する。
本調査は、LLMの力を利用して教育実践を変革し、より効果的なパーソナライズされた学習環境を育むための、教育者、研究者、政策立案者のための総合的な技術図を提供することを目的とする。
論文 参考訳(メタデータ) (2024-03-26T21:04:29Z) - Rethinking Machine Unlearning for Large Language Models [87.85043572895296]
大規模言語モデル(LLM)の領域における機械学習の研究
このイニシアチブは、望ましくないデータの影響(機密情報や違法情報など)と関連するモデル機能を排除することを目的としている。
論文 参考訳(メタデータ) (2024-02-13T20:51:58Z) - Taking the Next Step with Generative Artificial Intelligence: The
Transformative Role of Multimodal Large Language Models in Science Education [14.679589098673416]
MLLM(Multimodal Large Language Models)は、テキスト、音声、視覚入力を含むマルチモーダルデータを処理できる。
本稿では,科学教育の中心的な側面におけるMLLMの変革的役割について,模範的な革新的な学習シナリオを提示することによって考察する。
論文 参考訳(メタデータ) (2024-01-01T18:11:43Z) - Large Language Models in Education: Vision and Opportunities [23.399139761508934]
本稿では,大規模言語モデル(LLM)の研究背景とモチベーションを紹介する。
次に、デジタル教育とEduLLMの関係について論じ、教育大規模モデルの現在の研究状況について要約する。
主な貢献は、研究背景の体系的概要とビジョン、大規模教育モデル(LLM4Edu)のモチベーションと応用である。
論文 参考訳(メタデータ) (2023-11-22T05:04:20Z) - Exploring the Cognitive Knowledge Structure of Large Language Models: An
Educational Diagnostic Assessment Approach [50.125704610228254]
大規模言語モデル(LLM)は、様々なタスクにまたがる例外的なパフォーマンスを示すだけでなく、知性の火花も示している。
近年の研究では、人間の試験における能力の評価に焦点が当てられ、異なる領域における彼らの印象的な能力を明らかにしている。
ブルーム分類に基づく人体検査データセットであるMoocRadarを用いて評価を行った。
論文 参考訳(メタデータ) (2023-10-12T09:55:45Z) - Aligning Large Language Models with Human: A Survey [53.6014921995006]
広範囲なテキストコーパスで訓練されたLarge Language Models (LLM) は、幅広い自然言語処理(NLP)タスクの先導的なソリューションとして登場した。
その顕著な性能にもかかわらず、これらのモデルは、人間の指示を誤解したり、偏見のあるコンテンツを生成したり、事実的に誤った情報を生成するといった、ある種の制限を受ける傾向にある。
本調査では,これらのアライメント技術の概要について概観する。
論文 参考訳(メタデータ) (2023-07-24T17:44:58Z) - A Comprehensive Overview of Large Language Models [68.22178313875618]
大規模言語モデル(LLM)は、最近自然言語処理タスクにおいて顕著な機能を示した。
本稿では, LLM関連概念の幅広い範囲について, 既存の文献について概説する。
論文 参考訳(メタデータ) (2023-07-12T20:01:52Z) - Scaling Evidence-based Instructional Design Expertise through Large
Language Models [0.0]
本稿では,大規模言語モデル(LLM),特にGPT-4を教育設計の分野で活用することを検討する。
本研究は,エビデンスに基づく教育設計の専門知識のスケールアップに着目し,理論教育学と実践実践のギャップを埋めることを目的としている。
我々は,AIによるコンテンツ生成のメリットと限界について論じ,教育資料の品質確保に人的監督が必要であることを強調した。
論文 参考訳(メタデータ) (2023-05-31T17:54:07Z) - Practical and Ethical Challenges of Large Language Models in Education:
A Systematic Scoping Review [5.329514340780243]
大規模言語モデル(LLM)は、テキストコンテンツの生成と分析の面倒なプロセスを自動化する可能性がある。
これらの革新の実践性と倫理性には懸念がある。
我々は2017年以降に発行された118件の査読論文の体系的スコーピングレビューを行い、研究の現状を明らかにした。
論文 参考訳(メタデータ) (2023-03-17T18:14:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。