論文の概要: PTMPicker: Facilitating Efficient Pretrained Model Selection for Application Developers
- arxiv url: http://arxiv.org/abs/2508.11179v1
- Date: Fri, 15 Aug 2025 03:09:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-18 14:51:23.722074
- Title: PTMPicker: Facilitating Efficient Pretrained Model Selection for Application Developers
- Title(参考訳): PTMPicker: アプリケーション開発者にとって効率的な事前トレーニングモデル選択を実現する
- Authors: Pei Liu, Terry Zhuo, Jiawei Deng, Zhenchang Xing, Qinghua Lu, Xiaoning Du, Hongyu Zhan,
- Abstract要約: 適切な事前学習モデル(PTM)を正確に同定するためのPTMPickerを提案する。
まず、PTMの共通属性と本質属性からなる構造化テンプレートを定義し、その後、PTMPickerは候補モデルとユーザ意図の機能の両方を表す。
キュレートされたPTMデータセットと合成されたモデル検索要求の実験は、PTMPickerがユーザーが効果的にモデルを特定するのに役立つことを示している。
- 参考スコア(独自算出の注目度): 18.12890396495365
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid emergence of pretrained models (PTMs) has attracted significant attention from both Deep Learning (DL) researchers and downstream application developers. However, selecting appropriate PTMs remains challenging because existing methods typically rely on keyword-based searches in which the keywords are often derived directly from function descriptions. This often fails to fully capture user intent and makes it difficult to identify suitable models when developers also consider factors such as bias mitigation, hardware requirements, or license compliance. To address the limitations of keyword-based model search, we propose PTMPicker to accurately identify suitable PTMs. We first define a structured template composed of common and essential attributes for PTMs and then PTMPicker represents both candidate models and user-intended features (i.e., model search requests) in this unified format. To determine whether candidate models satisfy user requirements, it computes embedding similarities for function-related attributes and uses well-crafted prompts to evaluate special constraints such as license compliance and hardware requirements. We scraped a total of 543,949 pretrained models from Hugging Face to prepare valid candidates for selection. PTMPicker then represented them in the predefined structured format by extracting their associated descriptions. Guided by the extracted metadata, we synthesized a total of 15,207 model search requests with carefully designed prompts, as no such search requests are readily available. Experiments on the curated PTM dataset and the synthesized model search requests show that PTMPicker can help users effectively identify models,with 85% of the sampled requests successfully locating appropriate PTMs within the top-10 ranked candidates.
- Abstract(参考訳): 事前学習モデル(PTM)の急速な台頭は、ディープラーニング(DL)研究者と下流アプリケーション開発者の両方から大きな注目を集めている。
しかし、既存の手法では、キーワードが関数記述から直接導出されることが多いキーワードベースの検索に依存しているため、適切なPTMを選択することは依然として困難である。
開発者がバイアス軽減やハードウェア要件,ライセンスコンプライアンスといった要因も考慮すれば,適切なモデルを特定するのが難しくなるのです。
キーワードベースモデル探索の限界に対処するため,適切なPTMを正確に識別するPTMPickerを提案する。
まず、PTMの共通属性と必須属性からなる構造化テンプレートを定義し、その後、PTMPickerは候補モデルとユーザ意図の機能(すなわち、モデル検索要求)の両方をこの統一フォーマットで表現する。
候補モデルがユーザ要求を満たすかどうかを判断するために、関数関連属性の埋め込み類似性を計算し、ライセンスコンプライアンスやハードウェア要件などの特別な制約を評価するために、巧妙なプロンプトを使用する。
私たちはHugging Faceから、合計543,949の事前訓練済みモデルを抽出して、選択の有効な候補を準備しました。
PTMPickerはそれに関連する記述を抽出することで、事前に定義された構造化フォーマットでそれらを表現した。
抽出したメタデータに導かれ, モデル検索要求の合計15,207件を精巧に設計したプロンプトで合成した。
キュレートされたPTMデータセットと合成されたモデル検索リクエストの実験によると、PTMPickerは、ユーザがモデルを効果的に識別するのに役立つ。
関連論文リスト
- How do Pre-Trained Models Support Software Engineering? An Empirical Study in Hugging Face [52.257764273141184]
オープンソースの事前訓練モデル(PTM)は、さまざまな機械学習(ML)タスクに広範なリソースを提供する。
これらのリソースには、ソフトウェア工学(SE)のニーズに合わせた分類がない。
私たちは147のSEタスクを含む分類法を導き、人気のあるオープンソースMLリポジトリであるHugging Face (HF)において、SE指向の分類をPTMに適用する。
PTMではコード生成が最も一般的なSEタスクであるのに対して、要件エンジニアリングとソフトウェア設計のアクティビティは限定的な注目を集めている。
論文 参考訳(メタデータ) (2025-06-03T15:51:17Z) - Benchmarking Unified Face Attack Detection via Hierarchical Prompt Tuning [58.16354555208417]
PADとFFDはそれぞれ物理メディアベースのプレゼンテーションアタックとデジタル編集ベースのDeepFakeから顔データを保護するために提案されている。
これら2つのカテゴリの攻撃を同時に処理する統一顔攻撃検出モデルがないことは、主に2つの要因に起因する。
本稿では,異なる意味空間から複数の分類基準を適応的に探索する,視覚言語モデルに基づく階層型プロンプトチューニングフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-19T16:35:45Z) - CGI: Identifying Conditional Generative Models with Example Images [14.453885742032481]
生成モデルは近年顕著なパフォーマンスを達成しており、モデルハブが出現している。
ユーザがモデル記述やサンプルイメージをレビューするのは簡単ではない。
本稿では,ユーザが提供するサンプル画像を用いて,最も適切なモデルを特定することを目的とした生成モデル同定(CGI)を提案する。
論文 参考訳(メタデータ) (2025-01-23T09:31:06Z) - Automated categorization of pre-trained models for software engineering: A case study with a Hugging Face dataset [9.218130273952383]
ソフトウェアエンジニアリング活動は、事前訓練されたモデル(PTM)の出現によって革新した。
Hugging Face (HF)プラットフォームは、いくつかのモデルを収集、保存、キュレーションすることで、PTMの使用を単純化する。
本稿では,SEタスクに対するPTMの自動分類を実現するためのアプローチを提案する。
論文 参考訳(メタデータ) (2024-05-21T20:26:17Z) - PeaTMOSS: A Dataset and Initial Analysis of Pre-Trained Models in
Open-Source Software [6.243303627949341]
本稿では,281,638PTMのメタデータと全PTMの詳細なスナップショットを含むPeaTMOSSデータセットを提案する。
データセットには15,129のダウンストリームGitHubリポジトリから2,530のPTMへの44,337のマッピングが含まれている。
我々の分析は、PTMサプライチェーンに関する最初の要約統計を提供し、PTM開発の動向とPTMパッケージドキュメンテーションの共通の欠点を示している。
論文 参考訳(メタデータ) (2024-02-01T15:55:50Z) - Efficient Federated Prompt Tuning for Black-box Large Pre-trained Models [62.838689691468666]
我々は,各ローカルデータセットを最適に活用するためのフェデレートブラックボックス・プロンプト・チューニング(Fed-BBPT)を提案する。
Fed-BBPTは、ローカルユーザーがレギュラーアグリゲーションを通じてプロンプトジェネレータを協調的に訓練するのを支援する中央サーバーに重点を置いている。
大規模な微調整とは対照的に、Fed-BBPTは、PTMストレージとローカルマシンの微調整に関連するメモリの課題を、十分にサイドステップで解決している。
論文 参考訳(メタデータ) (2023-10-04T19:30:49Z) - PAMI: partition input and aggregate outputs for model interpretation [69.42924964776766]
本研究では、深層学習モデルが局所的な特徴を集約してモデル予測を行うという観察に基づいて、PAMIと呼ばれるシンプルで効果的な可視化フレームワークを提案する。
基本的な考え方は、入力の大多数を隠蔽し、元のモデル予測に対する保存された入力部の相対的な寄与として対応するモデル出力を使用することである。
複数のタスクに対する大規模な実験により,提案手法は,クラス固有の入力領域をより正確に見つけるために,既存の可視化手法よりも優れていることを確認した。
論文 参考訳(メタデータ) (2023-02-07T08:48:34Z) - Decoder Tuning: Efficient Language Understanding as Decoding [84.68266271483022]
本稿では,タスク固有のデコーダネットワークを出力側で最適化するデコーダチューニング(DecT)を提案する。
勾配ベースの最適化により、DecTは数秒以内にトレーニングでき、サンプル毎に1つのPクエリしか必要としない。
我々は、広範囲にわたる自然言語理解実験を行い、DecTが200ドル以上のスピードアップで最先端のアルゴリズムを大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2022-12-16T11:15:39Z) - Ranking and Tuning Pre-trained Models: A New Paradigm of Exploiting
Model Hubs [136.4492678691406]
本稿では,事前学習したモデルのランク付けとチューニングにより,モデルハブを利用する新しいパラダイムを提案する。
最高のランク付けされたPTMは、モデルのアーキテクチャを好まない場合は、微調整とデプロイが可能です。
チューニング部は、専用メソッドを超越した、複数 PTM チューニングのための新しい手法を導入する。
論文 参考訳(メタデータ) (2021-10-20T12:59:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。