論文の概要: From Release to Adoption: Challenges in Reusing Pre-trained AI Models for Downstream Developers
- arxiv url: http://arxiv.org/abs/2506.23234v1
- Date: Sun, 29 Jun 2025 13:36:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.783127
- Title: From Release to Adoption: Challenges in Reusing Pre-trained AI Models for Downstream Developers
- Title(参考訳): リリースから採用へ - ダウンストリーム開発者のためのトレーニング済みAIモデルを再利用する上での課題
- Authors: Peerachai Banyongrakkul, Mansooreh Zahedi, Patanamon Thongtanunam, Christoph Treude, Haoyu Gao,
- Abstract要約: プレトレーニングモデル(PTM)は広く普及し、様々な分野で大きな成功を収めている。
しかしながら、ソフトウェアシステムでPTMを再利用する上で、下流開発者が直面している課題は、あまり調査されていない。
私たちは、31のOSS GitHubプロジェクトから840のPTM関連イシューレポートのデータセットを質的に作成し、分析しました。
- 参考スコア(独自算出の注目度): 10.230447995338055
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pre-trained models (PTMs) have gained widespread popularity and achieved remarkable success across various fields, driven by their groundbreaking performance and easy accessibility through hosting providers. However, the challenges faced by downstream developers in reusing PTMs in software systems are less explored. To bridge this knowledge gap, we qualitatively created and analyzed a dataset of 840 PTM-related issue reports from 31 OSS GitHub projects. We systematically developed a comprehensive taxonomy of PTM-related challenges that developers face in downstream projects. Our study identifies seven key categories of challenges that downstream developers face in reusing PTMs, such as model usage, model performance, and output quality. We also compared our findings with existing taxonomies. Additionally, we conducted a resolution time analysis and, based on statistical tests, found that PTM-related issues take significantly longer to be resolved than issues unrelated to PTMs, with significant variation across challenge categories. We discuss the implications of our findings for practitioners and possibilities for future research.
- Abstract(参考訳): 事前訓練されたモデル(PTM)は広く普及し、ホスティングプロバイダによるパフォーマンス向上とアクセシビリティの向上により、様々な分野で大きな成功を収めている。
しかしながら、ソフトウェアシステムでPTMを再利用する上で、下流開発者が直面している課題は、あまり調査されていない。
この知識ギャップを埋めるために、31のOSS GitHubプロジェクトから840のPTM関連イシューレポートのデータセットを質的に作成、分析しました。
我々は,下流プロジェクトにおいて開発者が直面するPTM関連課題の包括的分類を体系的に開発した。
本研究は, モデル利用, モデル性能, 出力品質など, 下流開発者が PTM を再利用する際に直面する課題の7つの重要なカテゴリを特定する。
また,既存の分類学と比較した。
さらに, 統計的検討の結果, PTMに関連する問題は, PTMとは無関係な問題よりも解決にかなり時間がかかることが判明した。
本研究の実践者への影響と今後の研究の可能性について論じる。
関連論文リスト
- Empowering Time Series Analysis with Synthetic Data: A Survey and Outlook in the Era of Foundation Models [104.17057231661371]
時系列解析は複雑なシステムの力学を理解するために重要である。
基本モデルの最近の進歩はタスク非依存の時系列基礎モデル (TSFM) と大規模言語モデルベース時系列モデル (TSLLM) につながっている。
彼らの成功は、規制、多様性、品質、量制約のために構築が困難である、大規模で多様で高品質なデータセットに依存する。
本調査では,TSFMとTLLLMの合成データの総合的なレビュー,データ生成戦略の分析,モデル事前学習におけるそれらの役割,微調整,評価,今後の研究方向性の特定について述べる。
論文 参考訳(メタデータ) (2025-03-14T13:53:46Z) - Lingma SWE-GPT: An Open Development-Process-Centric Language Model for Automated Software Improvement [62.94719119451089]
Lingma SWE-GPTシリーズは、現実世界のコード提出活動から学び、シミュレーションする。
Lingma SWE-GPT 72BはGitHubの30.20%の問題を解決する。
論文 参考訳(メタデータ) (2024-11-01T14:27:16Z) - MetaTrading: An Immersion-Aware Model Trading Framework for Vehicular Metaverse Services [94.61039892220037]
我々は、フェデレーション学習(FL)によるプライバシーを確保しつつ、サービスのデータ提供を容易にする没入型モデルトレーディングフレームワークを提案する。
我々は,資源制約下での高価値モデルに貢献するために,メタバースユーザ(MU)にインセンティブを与えるインセンティブ機構を設計する。
我々は、MUやその他のMSPに関するプライベート情報にアクセスすることなく、深層強化学習に基づく完全に分散された動的報酬アルゴリズムを開発する。
論文 参考訳(メタデータ) (2024-10-25T16:20:46Z) - Challenges of Using Pre-trained Models: the Practitioners' Perspective [16.042355796766124]
Stack OverflowにおけるPTM関連の質問の人気と難易度について分析する。
PTM関連の質問が徐々に人気になってきています。
この観察は, PTMの実用化に伴う難易度と難易度を強調した。
論文 参考訳(メタデータ) (2024-04-23T03:39:14Z) - PeaTMOSS: A Dataset and Initial Analysis of Pre-Trained Models in
Open-Source Software [6.243303627949341]
本稿では,281,638PTMのメタデータと全PTMの詳細なスナップショットを含むPeaTMOSSデータセットを提案する。
データセットには15,129のダウンストリームGitHubリポジトリから2,530のPTMへの44,337のマッピングが含まれている。
我々の分析は、PTMサプライチェーンに関する最初の要約統計を提供し、PTM開発の動向とPTMパッケージドキュメンテーションの共通の欠点を示している。
論文 参考訳(メタデータ) (2024-02-01T15:55:50Z) - Deep Learning Model Reuse in the HuggingFace Community: Challenges,
Benefit and Trends [12.645960268553686]
大規模事前学習モデル(PTM)の普及が進み、モデルハブやPTMをホストする専用のプラットフォームへの関心が高まっている。
本研究は, PTM の再利用に伴う課題とメリットの分類をコミュニティ内で提示する。
本研究は,初心者ユーザに対する限られたガイダンス,トレーニングや推論におけるモデルアウトプットの理解性の難しさ,モデル理解の欠如など,一般的な課題に注目した。
論文 参考訳(メタデータ) (2024-01-24T01:50:29Z) - Exploring Progress in Multivariate Time Series Forecasting: Comprehensive Benchmarking and Heterogeneity Analysis [70.78170766633039]
我々は、MTS予測提案を確実かつ公平に評価する手段の必要性に対処する。
BasicTS+は、MTS予測ソリューションの公平で包括的で再現可能な比較を可能にするために設計されたベンチマークである。
リッチデータセットとともにBasicTS+を適用し,45 MTS以上の予測ソリューションの性能を評価する。
論文 参考訳(メタデータ) (2023-10-09T19:52:22Z) - Does Synthetic Data Generation of LLMs Help Clinical Text Mining? [51.205078179427645]
臨床テキストマイニングにおけるOpenAIのChatGPTの可能性を検討する。
本稿では,高品質な合成データを大量に生成する新たな学習パラダイムを提案する。
提案手法により,下流タスクの性能が大幅に向上した。
論文 参考訳(メタデータ) (2023-03-08T03:56:31Z) - Pre-Trained Models: Past, Present and Future [126.21572378910746]
大規模事前訓練モデル(PTM)は近年大きな成功を収め、人工知能(AI)分野におけるマイルストーンとなった。
知識を巨大なパラメータに格納し、特定のタスクを微調整することで、巨大なパラメータに暗黙的にエンコードされた豊富な知識は、さまざまな下流タスクの恩恵を受けることができる。
AIコミュニティが、モデルをスクラッチから学習するのではなく、下流タスクのバックボーンとしてPTMを採用することは、今、コンセンサスになっている。
論文 参考訳(メタデータ) (2021-06-14T02:40:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。