論文の概要: Exploring Naming Conventions (and Defects) of Pre-trained Deep Learning
Models in Hugging Face and Other Model Hubs
- arxiv url: http://arxiv.org/abs/2310.01642v1
- Date: Mon, 2 Oct 2023 21:13:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-04 18:49:15.091100
- Title: Exploring Naming Conventions (and Defects) of Pre-trained Deep Learning
Models in Hugging Face and Other Model Hubs
- Title(参考訳): ハグ顔やその他のモデルハブにおける事前学習深層学習モデルの命名規約(および欠陥)の探索
- Authors: Wenxin Jiang, Chingwo Cheung, George K. Thiruvathukal, James C. Davis
- Abstract要約: 本報告では, PTM命名規則と関連する PTM 命名欠陥について報告する。
本研究は, PTMの命名規則を提唱し, PTMエコシステムにおける研究・実践関係のシグナルとして命名規則を定めている。
- 参考スコア(独自算出の注目度): 3.9194285733422123
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As innovation in deep learning continues, many engineers want to adopt
Pre-Trained deep learning Models (PTMs) as components in computer systems. PTMs
are part of a research-to-practice pipeline: researchers publish PTMs, which
engineers adapt for quality or performance and then deploy. If PTM authors
choose appropriate names for their PTMs, it could facilitate model discovery
and reuse. However, prior research has reported that model names are not always
well chosen, and are sometimes erroneous. The naming conventions and naming
defects for PTM packages have not been systematically studied - understanding
them will add to our knowledge of how the research-to-practice process works
for PTM packages
In this paper, we report the first study of PTM naming conventions and the
associated PTM naming defects. We define the components of a PTM package name,
comprising the package name and claimed architecture from the metadata. We
present the first study focused on characterizing the nature of naming in PTM
ecosystem. To this end, we developed a novel automated naming assessment
technique that can automatically extract the semantic and syntactic patterns.
To identify potential naming defects, we developed a novel algorithm, automated
DNN ARchitecture Assessment pipeline (DARA), to cluster PTMs based on
architectural differences. Our study suggests the naming conventions for PTMs,
and frames the naming conventions as signal of the research-to-practice
relationships in the PTM ecosystem. We envision future works on further
empirical study on leveraging meta-features of PTMs to support model search and
reuse.
- Abstract(参考訳): ディープラーニングのイノベーションが進むにつれて、多くのエンジニアが、事前訓練されたディープラーニングモデル(ptm)をコンピュータシステムのコンポーネントとして採用したいと考えている。
PTMは、研究者がPTMを公開し、エンジニアが品質やパフォーマンスに適応し、デプロイする、調査から実践までのパイプラインの一部である。
もし PTM の著者が PTM の適切な名前を選択すると、モデル発見と再利用が容易になる。
しかしながら、以前の研究では、モデル名が必ずしも良い選択ではなく、時には誤ったものであると報告されている。
PTMパッケージの命名規則と命名欠陥は体系的に研究されていないが,本論文では,PTMパッケージの命名規則と関連するPTM命名規則に関する最初の研究を報告する。
メタデータからパッケージ名と要求アーキテクチャを含む,PTMパッケージ名のコンポーネントを定義した。
本研究は, PTMエコシステムにおける命名の性質を特徴付けることに焦点を当てた最初の研究である。
そこで我々は,意味的および構文的パターンを自動的に抽出する自動命名評価手法を開発した。
そこで我々は,DNNARchitecture Assessment Pipeline (DARA) を設計上の違いに基づいてクラスタリングするための新しいアルゴリズムを開発した。
本研究は, PTMの命名規則を提唱し, PTMエコシステムにおける研究・実践関係のシグナルとして命名規則を定めている。
今後,ptmのメタ機能を活用したモデル検索と再利用に関するさらなる実証研究を行う予定である。
関連論文リスト
- Towards a Classification of Open-Source ML Models and Datasets for Software Engineering [52.257764273141184]
オープンソースの事前訓練モデル(PTM)とデータセットは、さまざまな機械学習(ML)タスクに広範なリソースを提供する。
これらのリソースには、ソフトウェア工学(SE)のニーズに合わせた分類がない。
我々は、人気のあるオープンソースのMLリポジトリであるHugging Face (HF)上で、SE指向の分類をPTMとデータセットに適用し、時間とともにPTMの進化を分析する。
論文 参考訳(メタデータ) (2024-11-14T18:52:05Z) - Automated categorization of pre-trained models for software engineering: A case study with a Hugging Face dataset [9.218130273952383]
ソフトウェアエンジニアリング活動は、事前訓練されたモデル(PTM)の出現によって革新した。
Hugging Face (HF)プラットフォームは、いくつかのモデルを収集、保存、キュレーションすることで、PTMの使用を単純化する。
本稿では,SEタスクに対するPTMの自動分類を実現するためのアプローチを提案する。
論文 参考訳(メタデータ) (2024-05-21T20:26:17Z) - PeaTMOSS: Mining Pre-Trained Models in Open-Source Software [6.243303627949341]
PeaTMOSSデータセットを提示する。 オープンソースソフトウェアにおける事前学習モデル。
PeaTMOSSには3つの部分がある: スナップショットは281,638 PTM、 (2) PTMを使用するオープンソースソフトウェアリポジトリ27,270、(3) PTMとそれを使用するプロジェクトの間のマッピング。
論文 参考訳(メタデータ) (2023-10-05T15:58:45Z) - ZhiJian: A Unifying and Rapidly Deployable Toolbox for Pre-trained Model
Reuse [59.500060790983994]
本稿では、PyTorchバックエンドを利用して、モデル再利用のための包括的でユーザフレンドリなツールボックスであるZhiJianを紹介する。
ZhiJianは、PTMによるターゲットアーキテクチャ構築、PTMによるターゲットモデルチューニング、およびPTMに基づく推論を含む、モデル再利用に関するさまざまな視点を統一する新しいパラダイムを提示している。
論文 参考訳(メタデータ) (2023-08-17T19:12:13Z) - Revisiting Class-Incremental Learning with Pre-Trained Models: Generalizability and Adaptivity are All You Need [84.3507610522086]
クラスインクリメンタルラーニング(Class-incremental Learning, CIL)は、古いクラスを忘れずに新しいクラスに適応することを目的としている。
近年の事前訓練は大きな進歩を遂げており、CILには膨大な事前訓練モデル(PTM)が利用できるようになった。
CILの中核となる要素は、モデル更新の適応性と知識伝達の一般化性である。
論文 参考訳(メタデータ) (2023-03-13T17:59:02Z) - An Empirical Study of Pre-Trained Model Reuse in the Hugging Face Deep
Learning Model Registry [2.1346819928536687]
機械学習エンジニアが大規模事前学習モデル(PTM)の再利用を開始
私たちは、最も人気のあるPTMエコシステムであるHugging Faceの実践者12人にインタビューして、PTM再利用のプラクティスと課題を学びました。
PTM再利用の3つの課題は、属性の欠如、クレームと実際のパフォーマンスの相違、モデルリスクである。
論文 参考訳(メタデータ) (2023-03-05T02:28:15Z) - Ranking and Tuning Pre-trained Models: A New Paradigm of Exploiting
Model Hubs [136.4492678691406]
本稿では,事前学習したモデルのランク付けとチューニングにより,モデルハブを利用する新しいパラダイムを提案する。
最高のランク付けされたPTMは、モデルのアーキテクチャを好まない場合は、微調整とデプロイが可能です。
チューニング部は、専用メソッドを超越した、複数 PTM チューニングのための新しい手法を導入する。
論文 参考訳(メタデータ) (2021-10-20T12:59:23Z) - Pre-Trained Models: Past, Present and Future [126.21572378910746]
大規模事前訓練モデル(PTM)は近年大きな成功を収め、人工知能(AI)分野におけるマイルストーンとなった。
知識を巨大なパラメータに格納し、特定のタスクを微調整することで、巨大なパラメータに暗黙的にエンコードされた豊富な知識は、さまざまな下流タスクの恩恵を受けることができる。
AIコミュニティが、モデルをスクラッチから学習するのではなく、下流タスクのバックボーンとしてPTMを採用することは、今、コンセンサスになっている。
論文 参考訳(メタデータ) (2021-06-14T02:40:32Z) - Evaluating Pre-Trained Models for User Feedback Analysis in Software
Engineering: A Study on Classification of App-Reviews [2.66512000865131]
アプリレビュー分類のための事前学習型ニューラルネットワークモデル(PTM)の精度と時間効率について検討した。
複数の設定でPTMを評価するために,異なる研究をセットアップした。
いずれの場合も、MicroとMacro Precision、Recall、F1スコアが使用されます。
論文 参考訳(メタデータ) (2021-04-12T23:23:45Z) - Pre-trained Models for Natural Language Processing: A Survey [75.95500552357429]
事前学習モデル(PTM)の出現は、自然言語処理(NLP)を新しい時代にもたらした。
この調査は、様々なNLPタスクに対するPTMの理解、利用、開発のためのハンズオンガイドになることを目的としている。
論文 参考訳(メタデータ) (2020-03-18T15:22:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。