論文の概要: Machine Learning Model Attribution Challenge
- arxiv url: http://arxiv.org/abs/2302.06716v2
- Date: Wed, 15 Feb 2023 14:43:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-16 11:23:53.363034
- Title: Machine Learning Model Attribution Challenge
- Title(参考訳): マシンラーニングモデルの帰属課題
- Authors: Elizabeth Merkhofer, Deepesh Chaudhari, Hyrum S. Anderson, Keith
Manville, Lily Wong, Jo\~ao Gante
- Abstract要約: 微調整された機械学習モデルは、明らかな帰属特性のない他の訓練されたモデルに由来する可能性がある。
この課題において、参加者は匿名で微調整された大きな言語モデルの集合を成す公開ベースモデルを特定する。
- 参考スコア(独自算出の注目度): 2.6532805035238747
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present the findings of the Machine Learning Model Attribution Challenge
https://mlmac.io. Fine-tuned machine learning models may derive from other
trained models without obvious attribution characteristics. In this challenge,
participants identify the publicly-available base models that underlie a set of
anonymous, fine-tuned large language models (LLMs) using only textual output of
the models. Contestants aim to correctly attribute the most fine-tuned models,
with ties broken in the favor of contestants whose solutions use fewer calls to
the fine-tuned models' API. The most successful approaches were manual, as
participants observed similarities between model outputs and developed
attribution heuristics based on public documentation of the base models, though
several teams also submitted automated, statistical solutions.
- Abstract(参考訳): 本稿では,機械学習モデルの帰属課題であるhttps://mlmac.io。
微調整された機械学習モデルは、明らかな帰属特性のない他の訓練されたモデルに由来する可能性がある。
この課題では、参加者は匿名で微調整された大規模言語モデル(LLM)のセットを、テキスト出力のみを使用して、一般に利用可能なベースモデルを特定する。
競技者は最も微調整されたモデルを正しく分類することを目的としており、その関係は、微調整モデルのapiへの呼び出しが少ないソリューションを使う競技者によって破られる。
最も成功したアプローチは手動で、参加者はモデルのアウトプット間の類似性を観察し、ベースモデルの公開ドキュメントに基づいた帰属ヒューリスティックを開発した。
関連論文リスト
- Enabling Small Models for Zero-Shot Classification through Model Label Learning [50.68074833512999]
モデルと機能の間のギャップを埋める新しいパラダイムであるモデルラベル学習(MLL)を導入する。
7つの実世界のデータセットの実験により、MLLの有効性と効率が検証された。
論文 参考訳(メタデータ) (2024-08-21T09:08:26Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [51.8162883997512]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - Foundation models in brief: A historical, socio-technical focus [2.5991265608180396]
ディープラーニングをスケールアップすることで、将来のAI開発には、ファンデーションモデルが破壊的になる可能性がある。
モデルは自然言語処理やコンピュータビジョンといった分野における様々なタスクにおいて最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-12-17T22:11:33Z) - Artificial Interrogation for Attributing Language Models [0.0]
この課題は、人気言語モデルの12のオープンソースベースバージョンと、テキスト生成のための12の微調整言語モデルを提供する。
コンテストの目標は、どのモデルがどのベースモデルに由来するかを特定することである。
両集合のモデルから生成された応答の類似性を測定するために4つの異なるアプローチを採用した。
論文 参考訳(メタデータ) (2022-11-20T05:46:29Z) - Investigating Ensemble Methods for Model Robustness Improvement of Text
Classifiers [66.36045164286854]
既存のバイアス機能を分析し、すべてのケースに最適なモデルが存在しないことを実証します。
適切なバイアスモデルを選択することで、より洗練されたモデル設計でベースラインよりもロバスト性が得られる。
論文 参考訳(メタデータ) (2022-10-28T17:52:10Z) - Composing Ensembles of Pre-trained Models via Iterative Consensus [95.10641301155232]
本稿では,異なる事前学習モデルのアンサンブルを構成するための統一的なフレームワークを提案する。
事前学習したモデルを「ジェネレータ」あるいは「スコーラ」として使用し、クローズドループ反復コンセンサス最適化により構成する。
スコアラーのアンサンブルによって達成されたコンセンサスは、シングルスコアラーのフィードバックよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-20T18:46:31Z) - Synthetic Model Combination: An Instance-wise Approach to Unsupervised
Ensemble Learning [92.89846887298852]
ラベル付きデータのトレーニングセットから学ぶ機会のない、新しいテストデータに対する予測を検討する。
専門家モデルのセットと予測へのアクセスと、トレーニングに使用するデータセットに関する制限された情報を提供すること。
論文 参考訳(メタデータ) (2022-10-11T10:20:31Z) - Revealing Secrets From Pre-trained Models [2.0249686991196123]
トランスファーラーニングは多くの新しいディープラーニングアルゴリズムで広く採用されている。
本研究では,事前学習モデルと微調整モデルが重み値に非常によく似ていることを示す。
ブラックボックスの被害者モデルで使用されるモデルアーキテクチャと事前訓練モデルを明らかにするモデル抽出攻撃を提案する。
論文 参考訳(メタデータ) (2022-07-19T20:19:03Z) - What do we expect from Multiple-choice QA Systems? [70.86513724662302]
複数のMultiple Choice Question Answering(MCQA)データセット上で,トップパフォーマンスモデルを検討する。
このようなモデルから得られる可能性のある一連の期待値に対して、モデル入力のゼロ情報摂動を用いて評価する。
論文 参考訳(メタデータ) (2020-11-20T21:27:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。