論文の概要: How do Machine Learning Models Change?
- arxiv url: http://arxiv.org/abs/2411.09645v1
- Date: Thu, 14 Nov 2024 18:14:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-15 15:25:31.025090
- Title: How do Machine Learning Models Change?
- Title(参考訳): 機械学習モデルはどのように変化するか?
- Authors: Joel Castaño, Rafael Cabañas, Antonio Salmerón, David Lo, Silverio Martínez-Fernández,
- Abstract要約: 本研究は,Huging Face (HF) 上の5万モデルから20万件以上のコミットと1200件のリリースを,リポジトリマイニングと縦断解析の両方を用いて調査する。
コミットを分類するためにML変更分類を複製して拡張し、ベイジアンネットワークを使用してコミットとリリースのアクティビティのパターンを時間とともに明らかにします。
その結果,コミット活動はCRISP-DMなどの確立したデータサイエンス方法論と一致し,反復的改善と継続的改善が強調された。
さらに、リリースパターンは重要なアップデート、特にドキュメントにおいて、細かい変更とマイルストーンベースのリリースを区別する傾向があります。
- 参考スコア(独自算出の注目度): 7.543685248926161
- License:
- Abstract: The proliferation of Machine Learning (ML) models and their open-source implementations has transformed Artificial Intelligence research and applications. Platforms like Hugging Face (HF) enable the development, sharing, and deployment of these models, fostering an evolving ecosystem. While previous studies have examined aspects of models hosted on platforms like HF, a comprehensive longitudinal study of how these models change remains underexplored. This study addresses this gap by utilizing both repository mining and longitudinal analysis methods to examine over 200,000 commits and 1,200 releases from over 50,000 models on HF. We replicate and extend an ML change taxonomy for classifying commits and utilize Bayesian networks to uncover patterns in commit and release activities over time. Our findings indicate that commit activities align with established data science methodologies, such as CRISP-DM, emphasizing iterative refinement and continuous improvement. Additionally, release patterns tend to consolidate significant updates, particularly in documentation, distinguishing between granular changes and milestone-based releases. Furthermore, projects with higher popularity prioritize infrastructure enhancements early in their lifecycle, and those with intensive collaboration practices exhibit improved documentation standards. These and other insights enhance the understanding of model changes on community platforms and provide valuable guidance for best practices in model maintenance.
- Abstract(参考訳): 機械学習(ML)モデルの普及と、そのオープンソース実装は、人工知能の研究と応用を変革した。
Hugging Face(HF)のようなプラットフォームは、これらのモデルの開発と共有、デプロイを可能にし、進化するエコシステムを育む。
これまでの研究では、HFのようなプラットフォーム上でホストされるモデルの側面について検討されてきたが、これらのモデルがどのように変化するかの包括的な縦断的研究は、まだ過小評価されていない。
本研究では, リポジトリマイニングと縦断解析の両手法を用いて, HF上の20万件以上のコミットと, 5万件以上のHFモデルからの1200件のリリースについて検討した。
コミットを分類するためにML変更分類を複製して拡張し、ベイジアンネットワークを使用してコミットとリリース活動のパターンを時間とともに明らかにします。
その結果,コミット活動はCRISP-DMなどの確立したデータサイエンス方法論と一致し,反復的改善と継続的改善が強調された。
さらに、リリースパターンは重要なアップデート、特にドキュメントにおいて、細かい変更とマイルストーンベースのリリースを区別する傾向があります。
さらに、人気の高いプロジェクトはライフサイクルの初期にインフラの強化を優先し、集中的なコラボレーションプラクティスを持つプロジェクトはドキュメント標準を改善している。
これらやその他の洞察は、コミュニティプラットフォームにおけるモデル変更の理解を促進し、モデルメンテナンスにおけるベストプラクティスのための貴重なガイダンスを提供する。
関連論文リスト
- Transfer Learning with Foundational Models for Time Series Forecasting using Low-Rank Adaptations [0.0]
本研究はLlama Lora-Integrated Autorregresive ModelであるLLIAMを提案する。
低ランク適応は、微調整フェーズとして知られる様々な時系列データセットでモデルの知識を高めるために使用される。
論文 参考訳(メタデータ) (2024-10-15T12:14:01Z) - Model Merging in LLMs, MLLMs, and Beyond: Methods, Theories, Applications and Opportunities [89.40778301238642]
モデルマージは、機械学習コミュニティにおける効率的なエンパワーメント技術である。
これらの手法の体系的かつ徹底的なレビューに関する文献には大きなギャップがある。
論文 参考訳(メタデータ) (2024-08-14T16:58:48Z) - Deep Generative Models in Robotics: A Survey on Learning from Multimodal Demonstrations [52.11801730860999]
近年、ロボット学習コミュニティは、大規模なデータセットの複雑さを捉えるために、深層生成モデルを使うことへの関心が高まっている。
本稿では,エネルギーベースモデル,拡散モデル,アクションバリューマップ,生成的敵ネットワークなど,コミュニティが探求してきたさまざまなモデルについて述べる。
また,情報生成から軌道生成,コスト学習に至るまで,深層生成モデルを用いた様々なアプリケーションについて述べる。
論文 参考訳(メタデータ) (2024-08-08T11:34:31Z) - Data Augmentation for Multivariate Time Series Classification: An Experimental Study [1.5390962520179197]
これらのデータセットのサイズは限られていますが、RocketとInceptionTimeモデルを使用して、13のデータセットのうち10の分類精度を向上しました。
これは、コンピュータビジョンで見られる進歩と並行して、効果的なモデルを訓練する上で、十分なデータの重要性を強調している。
論文 参考訳(メタデータ) (2024-06-10T17:58:02Z) - TSPP: A Unified Benchmarking Tool for Time-series Forecasting [3.5415344166235534]
本稿では,時系列予測モデルの開発に係わる重要なモデリングと機械学習の決定を明らかにする,統一的なベンチマークフレームワークを提案する。
このフレームワークは、モデルとデータセットのシームレスな統合を促進し、実践者と研究者の両方が開発作業を支援する。
このフレームワーク内で最近提案されたモデルをベンチマークし、最小限の努力で注意深く実装されたディープラーニングモデルは、勾配決定木に匹敵する可能性があることを実証した。
論文 参考訳(メタデータ) (2023-12-28T16:23:58Z) - Analyzing the Evolution and Maintenance of ML Models on Hugging Face [8.409033836300761]
Hugging Face(HF)は、マシンラーニング(ML)モデルの開発と共有のための重要なプラットフォームとして、自らを確立している。
このリポジトリマイニング調査は、HF Hub API経由で収集されたデータを使用して、380,000以上のモデルに分類し、HFにホストされたモデルに関するコミュニティの関与、進化、メンテナンスを探求することを目的としている。
論文 参考訳(メタデータ) (2023-11-22T13:20:25Z) - ZhiJian: A Unifying and Rapidly Deployable Toolbox for Pre-trained Model
Reuse [59.500060790983994]
本稿では、PyTorchバックエンドを利用して、モデル再利用のための包括的でユーザフレンドリなツールボックスであるZhiJianを紹介する。
ZhiJianは、PTMによるターゲットアーキテクチャ構築、PTMによるターゲットモデルチューニング、およびPTMに基づく推論を含む、モデル再利用に関するさまざまな視点を統一する新しいパラダイムを提示している。
論文 参考訳(メタデータ) (2023-08-17T19:12:13Z) - Universal Domain Adaptation from Foundation Models: A Baseline Study [58.51162198585434]
基礎モデルを用いた最先端UniDA手法の実証的研究を行った。
CLIPモデルからターゲット知識を抽出するためのパラメータフリーな手法であるtextitCLIP 蒸留を導入する。
単純な手法ではあるが、ほとんどのベンチマークタスクでは従来の手法よりも優れている。
論文 参考訳(メタデータ) (2023-05-18T16:28:29Z) - Scaling Vision-Language Models with Sparse Mixture of Experts [128.0882767889029]
提案手法は, 等価計算コストの高密度モデルに対して, 様々なベンチマークにおいて, 最先端性能を実現することができることを示す。
我々の研究は、MoEモデルのトレーニングの安定化、モデル解釈可能性に対するMoEの影響の理解、ビジョン言語モデルをスケールする際の計算性能間のトレードオフのバランスに関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2023-03-13T16:00:31Z) - Learning to Augment via Implicit Differentiation for Domain
Generalization [107.9666735637355]
ドメイン一般化(DG)は、複数のソースドメインを活用してドメイン一般化可能なモデルを学ぶことで、この問題を克服することを目的としている。
本稿では,AugLearnと呼ばれる新しい拡張型DG手法を提案する。
AugLearnは、PACS、Office-Home、Digits-DGの3つの標準DGベンチマークで効果を示す。
論文 参考訳(メタデータ) (2022-10-25T18:51:51Z) - Bayesian Active Learning for Discrete Latent Variable Models [19.852463786440122]
アクティブラーニングは、モデルのパラメータに適合するために必要なデータ量を削減しようとする。
潜在変数モデルは神経科学、心理学、その他の様々な工学、科学分野において重要な役割を果たす。
論文 参考訳(メタデータ) (2022-02-27T19:07:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。