論文の概要: Teaching MLOps in Higher Education through Project-Based Learning
- arxiv url: http://arxiv.org/abs/2302.01048v1
- Date: Thu, 2 Feb 2023 12:22:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-03 14:11:57.998126
- Title: Teaching MLOps in Higher Education through Project-Based Learning
- Title(参考訳): プロジェクトベース学習による高等教育におけるmlops教育
- Authors: Filippo Lanubile, Silverio Mart\'inez-Fern\'andez, Luigi Quaranta
- Abstract要約: MLOpsを教えるためのプロジェクトベースの学習手法を提案する。
このアプローチに基づくコースの設計について検討する。
コースの第1版から予備結果について報告する。
- 参考スコア(独自算出の注目度): 7.294965109944707
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Building and maintaining production-grade ML-enabled components is a complex
endeavor that goes beyond the current approach of academic education, focused
on the optimization of ML model performance in the lab. In this paper, we
present a project-based learning approach to teaching MLOps, focused on the
demonstration and experience with emerging practices and tools to automatize
the construction of ML-enabled components. We examine the design of a course
based on this approach, including laboratory sessions that cover the end-to-end
ML component life cycle, from model building to production deployment.
Moreover, we report on preliminary results from the first edition of the
course. During the present year, an updated version of the same course is being
delivered in two independent universities; the related learning outcomes will
be evaluated to analyze the effectiveness of project-based learning for this
specific subject.
- Abstract(参考訳): プロダクショングレードのML対応コンポーネントの構築とメンテナンスは、研究室におけるMLモデルパフォーマンスの最適化に焦点を当てた、現在の学術教育のアプローチを超えた、複雑な取り組みである。
本稿では,ml対応コンポーネント構築の自動化を目的とした,新たなプラクティスやツールの実証と経験に焦点を当てた,mlops教育のためのプロジェクトベース学習手法を提案する。
本稿では,モデル構築から製品展開まで,エンドツーエンドのMLコンポーネントライフサイクルをカバーする実験室セッションを含む,このアプローチに基づくコースの設計について検討する。
また,本コースの第1版から予備結果について報告する。
本年中、同科の更新版が2つの独立大学に提供され、関連する学習成果を評価し、この特定の科目に対するプロジェクトベース学習の有効性を分析する。
関連論文リスト
- MME-Survey: A Comprehensive Survey on Evaluation of Multimodal LLMs [97.94579295913606]
MLLM(Multimodal Large Language Models)は、産業と学術の両方から注目を集めている。
開発プロセスでは、モデルの改善に関する直感的なフィードバックとガイダンスを提供するため、評価が重要である。
この研究は、研究者に異なるニーズに応じてMLLMを効果的に評価する方法を簡単に把握し、より良い評価方法を促すことを目的としている。
論文 参考訳(メタデータ) (2024-11-22T18:59:54Z) - Quantifying the Effectiveness of Student Organization Activities using Natural Language Processing [0.0]
本研究では,学生組織活動の有効性を定量化する機械学習ワークフローを開発することを目的とする。
この研究では、Hugging FaceのTransformer Pipelineとして、pysentimientoツールキットを介して呼ばれるBERT(Large Language Model)の双方向表現を使用している。
その結果,BERT LLMは製品レビューや投稿コメント以外の感情分析にも有効であることがわかった。
論文 参考訳(メタデータ) (2024-08-16T12:16:59Z) - Integrating HCI Datasets in Project-Based Machine Learning Courses: A College-Level Review and Case Study [0.7499722271664147]
本研究では,HCI(Human-Computer Interface)データセットを用いた実世界の機械学習プロジェクトの統合について検討する。
論文 参考訳(メタデータ) (2024-08-06T23:05:15Z) - CoMMIT: Coordinated Instruction Tuning for Multimodal Large Language Models [68.64605538559312]
本稿では,MLLM命令のチューニングを理論的・経験的両面から解析する。
そこで本研究では,学習バランスを定量的に評価する尺度を提案する。
さらに,MLLMの生成分布の更新を促進する補助的損失正規化手法を提案する。
論文 参考訳(メタデータ) (2024-07-29T23:18:55Z) - Evaluating Language Models for Generating and Judging Programming Feedback [4.743413681603463]
大規模言語モデル(LLM)は、幅広い領域で研究と実践を変革してきた。
我々は,オープンソースのLCMのプログラミング課題に対する高品質なフィードバック生成における効率性を評価する。
論文 参考訳(メタデータ) (2024-07-05T21:44:11Z) - Comprehensive Reassessment of Large-Scale Evaluation Outcomes in LLMs: A Multifaceted Statistical Approach [64.42462708687921]
評価の結果、スケーリング、トレーニングタイプ、アーキテクチャなどの要因がLLMのパフォーマンスに大きな影響を与えていることが明らかになった。
本研究は, これらのLCMの徹底的な再検討に着手し, 現状評価手法における不整合性に着目した。
これには、ANOVA、Tukey HSDテスト、GAMM、クラスタリング技術などが含まれる。
論文 参考訳(メタデータ) (2024-03-22T14:47:35Z) - Evaluating and Optimizing Educational Content with Large Language Model Judgments [52.33701672559594]
言語モデル(LM)を教育専門家として活用し,学習結果に対する様々な指導の影響を評価する。
本稿では,一方のLMが他方のLMの判断を報酬関数として利用して命令材料を生成する命令最適化手法を提案する。
ヒトの教師によるこれらのLM生成ワークシートの評価は、LM判定と人間の教師の嗜好との間に有意な整合性を示す。
論文 参考訳(メタデータ) (2024-03-05T09:09:15Z) - From Summary to Action: Enhancing Large Language Models for Complex
Tasks with Open World APIs [62.496139001509114]
大規模な現実世界のAPIを制御するために設計された新しいツール呼び出しパイプラインを導入します。
このパイプラインは人間のタスク解決プロセスを反映し、複雑な実際のユーザクエリに対処する。
ToolBenchベンチマークにおけるSum2Actパイプラインの実証的な評価は、大幅なパフォーマンス向上を示している。
論文 参考訳(メタデータ) (2024-02-28T08:42:23Z) - Exploring MLOps Dynamics: An Experimental Analysis in a Real-World
Machine Learning Project [0.0]
この実験には総合的なMLOpsワークフローが含まれており、問題定義、データ取得、データ準備、モデル開発、モデルデプロイメント、監視、管理、スケーラビリティ、ガバナンスとコンプライアンスといった重要なフェーズをカバーしている。
体系的な追跡手法を用いて、焦点を絞ったメインフェーズから特定のフェーズへの修正を文書化し、そのような修正の理由を捉えた。
その結果得られたデータは、MLOpsプロセスの相互依存性と実験フレームワーク内の反復的な特性を視覚的に表現する。
論文 参考訳(メタデータ) (2023-07-22T10:33:19Z) - Iterative Forward Tuning Boosts In-Context Learning in Language Models [88.25013390669845]
本研究では,大規模言語モデル(LLM)における文脈内学習を促進する新しい2段階フレームワークを提案する。
具体的には、当社のフレームワークでは、ICLプロセスをDeep-ThinkingとTest Stageの2つの別々のステージに分類しています。
ディープシンキング段階にはユニークな注意機構、すなわち反復的な注意強化機構が組み込まれており、複数の情報の蓄積を可能にしている。
論文 参考訳(メタデータ) (2023-05-22T13:18:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。