論文の概要: Matching Pairs: Attributing Fine-Tuned Models to their Pre-Trained Large
Language Models
- arxiv url: http://arxiv.org/abs/2306.09308v1
- Date: Thu, 15 Jun 2023 17:42:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-16 13:25:40.802195
- Title: Matching Pairs: Attributing Fine-Tuned Models to their Pre-Trained Large
Language Models
- Title(参考訳): マッチングペア: 事前訓練された大規模言語モデルに微調整されたモデルをもたらす
- Authors: Myles Foley, Ambrish Rawat, Taesung Lee, Yufang Hou, Gabriele Picco,
Giulio Zizzo
- Abstract要約: 異なる知識レベルと属性戦略を考慮し、最良の方法で10の微調整されたモデルのうち8つを正確に追跡できることに気付きます。
- 参考スコア(独自算出の注目度): 11.57282859281814
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The wide applicability and adaptability of generative large language models
(LLMs) has enabled their rapid adoption. While the pre-trained models can
perform many tasks, such models are often fine-tuned to improve their
performance on various downstream applications. However, this leads to issues
over violation of model licenses, model theft, and copyright infringement.
Moreover, recent advances show that generative technology is capable of
producing harmful content which exacerbates the problems of accountability
within model supply chains. Thus, we need a method to investigate how a model
was trained or a piece of text was generated and what their pre-trained base
model was. In this paper we take the first step to address this open problem by
tracing back the origin of a given fine-tuned LLM to its corresponding
pre-trained base model. We consider different knowledge levels and attribution
strategies, and find that we can correctly trace back 8 out of the 10 fine
tuned models with our best method.
- Abstract(参考訳): ジェネレーティブ大言語モデル(llm)の幅広い適用性と適応性は、その急速な採用を可能にした。
事前学習されたモデルは多くのタスクを実行することができるが、これらのモデルは様々な下流アプリケーションのパフォーマンスを改善するために微調整されることが多い。
しかし、これはモデルライセンスの侵害、モデル盗難、著作権侵害といった問題につながる。
さらに,近年の進歩により,モデルサプライチェーンにおける説明責任の問題を悪化させる有害なコンテンツが生成可能となった。
したがって、モデルがどのようにトレーニングされたか、あるいはテキストが生成され、事前訓練されたベースモデルが何であったかを調べる方法が必要である。
本稿では、与えられた微調整LDMの起源を対応する事前学習ベースモデルに遡ることにより、このオープンな問題に対処する第一歩を踏み出す。
異なる知識レベルと属性戦略を考慮し、最良の方法で10の微調整されたモデルのうち8つを正確に追跡できることを見つけます。
関連論文リスト
- Reusing Pretrained Models by Multi-linear Operators for Efficient
Training [65.64075958382034]
大規模なモデルをスクラッチからトレーニングすることは、通常、かなりの量のリソースを必要とする。
bert2BERT や LiGO といった最近の研究は、大規模なモデルを初期化するために、小さな事前訓練されたモデルを再利用している。
本稿では,対象モデルの各重みを事前学習モデルの全重みに線形に相関させる手法を提案する。
論文 参考訳(メタデータ) (2023-10-16T06:16:47Z) - Adapting Large Language Models for Content Moderation: Pitfalls in Data
Engineering and Supervised Fine-tuning [79.53130089003986]
大規模言語モデル(LLM)は、様々なドメインでタスクを処理するための実現可能なソリューションとなっている。
本稿では、コンテンツモデレーションのためにプライベートにデプロイ可能なLLMモデルを微調整する方法を紹介する。
論文 参考訳(メタデータ) (2023-10-05T09:09:44Z) - RAFT: Reward rAnked FineTuning for Generative Foundation Model Alignment [32.752633250862694]
生成基礎モデルは、広範囲の教師なしのトレーニングデータから生じる暗黙のバイアスに影響を受けやすい。
我々は、生成モデルを効果的に整合させるために設計された新しいフレームワーク、Reward rAnked FineTuningを紹介する。
論文 参考訳(メタデータ) (2023-04-13T18:22:40Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [51.8162883997512]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - Model Reprogramming: Resource-Efficient Cross-Domain Machine Learning [65.268245109828]
視覚、言語、音声などのデータに富む領域では、ディープラーニングが高性能なタスク固有モデルを提供するのが一般的である。
リソース制限されたドメインでのディープラーニングは、(i)限られたデータ、(ii)制約付きモデル開発コスト、(iii)効果的な微調整のための適切な事前学習モデルの欠如など、多くの課題に直面している。
モデル再プログラミングは、ソースドメインから十分に訓練されたモデルを再利用して、モデル微調整なしでターゲットドメインのタスクを解くことで、リソース効率のよいクロスドメイン機械学習を可能にする。
論文 参考訳(メタデータ) (2022-02-22T02:33:54Z) - Bridging Pre-trained Models and Downstream Tasks for Source Code
Understanding [13.65914588243695]
本稿では,事前学習されたモデルとコード関連タスクをブリッジする手法を提案する。
我々は、下流データの多様性を豊かにする意味保存変換を利用する。
本稿では,既存の事前学習モデルを微調整するために,変換されたデータを手軽に整理するためのカリキュラム学習を紹介する。
論文 参考訳(メタデータ) (2021-12-04T07:21:28Z) - Improving Non-autoregressive Generation with Mixup Training [51.61038444990301]
本稿では,事前学習したトランスモデルに基づく非自己回帰生成モデルを提案する。
我々はMIxソースと擬似ターゲットという,シンプルで効果的な反復訓練手法を提案する。
質問生成,要約,パラフレーズ生成を含む3つの世代ベンチマーク実験により,提案手法が新たな最先端結果を実現することを示す。
論文 参考訳(メタデータ) (2021-10-21T13:04:21Z) - Bellman: A Toolbox for Model-Based Reinforcement Learning in TensorFlow [14.422129911404472]
Bellmanはこのギャップを埋めることを目指しており、モデルベースのRLツールボックスを初めて完全に設計し、テストした。
我々のモジュラーアプローチは、幅広い環境モデルと、最先端アルゴリズムを復元する汎用モデルベースのエージェントクラスを組み合わせることができる。
論文 参考訳(メタデータ) (2021-03-26T11:32:27Z) - Model Reuse with Reduced Kernel Mean Embedding Specification [70.044322798187]
現在のアプリケーションで有用なモデルを見つけるための2段階のフレームワークを提案する。
アップロードフェーズでは、モデルがプールにアップロードされている場合、モデルの仕様としてカーネル平均埋め込み(RKME)を縮小する。
デプロイフェーズでは、RKME仕様の値に基づいて、現在のタスクと事前訓練されたモデルの関連性を測定する。
論文 参考訳(メタデータ) (2020-01-20T15:15:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。