論文の概要: Exploring the Efficacy of Transfer Learning in Mining Image-Based
Software Artifacts
- arxiv url: http://arxiv.org/abs/2003.01627v1
- Date: Tue, 3 Mar 2020 16:41:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 23:27:22.673860
- Title: Exploring the Efficacy of Transfer Learning in Mining Image-Based
Software Artifacts
- Title(参考訳): 画像ベースソフトウェアアーチファクトにおける伝達学習の有効性を探る
- Authors: Natalie Best, Jordan Ott, Erik Linstead
- Abstract要約: トランスファーラーニングにより、利用可能なデータの量に制限があっても、大量の学習パラメータを必要とするディープアーキテクチャをトレーニングすることができます。
本稿では,ソフトウェア図の分類問題に適用した非ソフトウェア工学データに基づいて事前学習したモデルを用いたトランスファーラーニングの適用可能性について検討する。
- 参考スコア(独自算出の注目度): 1.5285292154680243
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transfer learning allows us to train deep architectures requiring a large
number of learned parameters, even if the amount of available data is limited,
by leveraging existing models previously trained for another task. Here we
explore the applicability of transfer learning utilizing models pre-trained on
non-software engineering data applied to the problem of classifying software
UML diagrams. Our experimental results show training reacts positively to
transfer learning as related to sample size, even though the pre-trained model
was not exposed to training instances from the software domain. We contrast the
transferred network with other networks to show its advantage on different
sized training sets, which indicates that transfer learning is equally
effective to custom deep architectures when large amounts of training data is
not available.
- Abstract(参考訳): トランスファーラーニングにより、以前トレーニングされた既存のモデルを活用して、利用可能なデータ量が制限されている場合でも、大量の学習パラメータを必要とするディープアーキテクチャをトレーニングすることができます。
本稿では,ソフトウェアuml図の分類問題に適用可能な非ソフトウェア工学データを用いたモデルを用いたトランスファー学習の適用性について検討する。
実験の結果,事前学習したモデルがソフトウェアドメインのトレーニングインスタンスに公開されなかった場合でも,サンプルサイズに関連する学習の伝達に正の反応を示した。
我々は、トランスファーネットワークを他のネットワークと比較し、異なるサイズのトレーニングセットにおいてそのアドバンテージを示し、大量のトレーニングデータが利用できない場合、トランスファー学習はカスタムディープアーキテクチャに等しく有効であることを示す。
関連論文リスト
- Encapsulating Knowledge in One Prompt [56.31088116526825]
KiOPは、元のモデルを変更したり、トレーニングデータにアクセスする必要なしに、さまざまなモデルからの知識を単独のプロンプトにカプセル化する。
実用性の観点から、このパラダイムは、データアクセス不能なコンテキストにおけるVisual Promptの有効性を証明している。
様々なデータセットとモデルを用いた実験は、提案したKiOP知識伝達パラダイムの有効性を示す。
論文 参考訳(メタデータ) (2024-07-16T16:35:23Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - Fantastic Gains and Where to Find Them: On the Existence and Prospect of
General Knowledge Transfer between Any Pretrained Model [74.62272538148245]
事前訓練されたモデルの任意のペアリングに対して、一方のモデルは他方では利用できない重要なデータコンテキストを抽出する。
このような「補的」な知識を,性能劣化を伴わずに,あるモデルから別のモデルへ伝達できるかどうかを検討する。
論文 参考訳(メタデータ) (2023-10-26T17:59:46Z) - Novel transfer learning schemes based on Siamese networks and synthetic
data [6.883906273999368]
ディープネットワークに基づくトランスファーラーニングスキームは、コンピュータビジョンの最先端技術を提供する。
このようなアプリケーションは現在、適切なディープ・ネットワーク・モデルを簡単に利用できるアプリケーション・ドメインに限られている。
本稿では,最近導入されたTwin-VAEアーキテクチャを拡張したトランスファー学習手法を提案する。
論文 参考訳(メタデータ) (2022-11-21T09:48:21Z) - Training Deep Networks from Zero to Hero: avoiding pitfalls and going
beyond [59.94347858883343]
このチュートリアルでは、基本的なステップと、モデルを改善するためのより最近のオプションを取り上げている。
これは特に、課題のデータセットほど準備が不十分なデータセットで有用である。
論文 参考訳(メタデータ) (2021-09-06T21:31:42Z) - Transfer of Pretrained Model Weights Substantially Improves
Semi-Supervised Image Classification [3.492636597449942]
ディープニューラルネットワークは、多数のラベル付きサンプルでトレーニングされた場合、最先端の結果を生成する。
ディープニューラルネットワークは、少数のラベル付きサンプルがトレーニングに使用される場合、過度に適合する傾向がある。
ラベル付きサンプルがほとんどない場合、転送学習がモデルの精度を大幅に向上することを示す。
論文 参考訳(メタデータ) (2021-09-02T08:58:34Z) - What is being transferred in transfer learning? [51.6991244438545]
事前訓練した重量からトレーニングを行うと、モデルは損失景観の同じ流域に留まることを示す。
事前学習した重みからトレーニングする場合、モデルは損失ランドスケープの同じ流域に留まり、そのようなモデルの異なるインスタンスは特徴空間と類似しており、パラメータ空間は近接している。
論文 参考訳(メタデータ) (2020-08-26T17:23:40Z) - Adversarially-Trained Deep Nets Transfer Better: Illustration on Image
Classification [53.735029033681435]
トランスファーラーニングは、訓練済みのディープニューラルネットワークを画像認識タスクに新しいドメインに適用するための強力な方法論である。
本研究では,非逆学習モデルよりも逆学習モデルの方が優れていることを示す。
論文 参考訳(メタデータ) (2020-07-11T22:48:42Z) - Minimax Lower Bounds for Transfer Learning with Linear and One-hidden
Layer Neural Networks [27.44348371795822]
転送学習の限界を特徴付けるための統計的ミニマックスフレームワークを開発する。
ラベル付きソース数とターゲットデータの関数として,任意のアルゴリズムで達成可能なターゲット一般化誤差に対して,低いバウンドを導出する。
論文 参考訳(メタデータ) (2020-06-16T22:49:26Z) - The Utility of Feature Reuse: Transfer Learning in Data-Starved Regimes [6.419457653976053]
データ・スターベド・レシエーションを持つドメインに対する転送学習のユースケースについて述べる。
畳み込み特徴抽出と微調整の有効性を評価する。
我々はトランスファーラーニングがCNNアーキテクチャの性能を向上させることを結論付けている。
論文 参考訳(メタデータ) (2020-02-29T18:48:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。