論文の概要: Comparing Foundation Models using Data Kernels
- arxiv url: http://arxiv.org/abs/2305.05126v1
- Date: Tue, 9 May 2023 02:01:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-10 14:15:43.203269
- Title: Comparing Foundation Models using Data Kernels
- Title(参考訳): データカーネルを用いた基礎モデルの比較
- Authors: Brandon Duderstadt and Hayden S. Helm and Carey E. Priebe
- Abstract要約: 埋め込み空間幾何学を用いて基礎モデルを比較するための計量自由方法論を提案する。
提案手法はランダムグラフ理論に基礎を置いており,ポイントワイドおよびマルチモデルの比較を容易にする。
- 参考スコア(独自算出の注目度): 7.3069813747259875
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in self-supervised learning and neural network scaling have
enabled the creation of large models -- known as foundation models -- which can
be easily adapted to a wide range of downstream tasks. The current paradigm for
comparing foundation models involves benchmarking them with aggregate metrics
on various curated datasets. Unfortunately, this method of model comparison is
heavily dependent on the choice of metric, which makes it unsuitable for
situations where the ideal metric is either not obvious or unavailable. In this
work, we present a metric-free methodology for comparing foundation models via
their embedding space geometry. Our methodology is grounded in random graph
theory, and facilitates both pointwise and multi-model comparison. Further, we
demonstrate how our framework can be used to induce a manifold of models
equipped with a distance function that correlates strongly with several
downstream metrics.
- Abstract(参考訳): 自己教師型学習とニューラルネットワークのスケーリングの最近の進歩により、幅広い下流タスクに容易に適応可能な、ファンデーションモデルとして知られる大規模なモデルの作成が可能になった。
基礎モデルを比較する現在のパラダイムは、さまざまなキュレートされたデータセットに集約メトリクスをベンチマークすることです。
残念なことに、このモデル比較の方法は計量の選択に大きく依存しており、理想的な計量が明確でないか利用できない状況には不向きである。
本研究では,その埋め込み空間幾何学を用いて基礎モデルを比較するための計量自由方法論を提案する。
提案手法はランダムグラフ理論を基礎として,ポイントワイドおよびマルチモデルの比較を容易にする。
さらに,いくつかの下流メトリックと強く相関する距離関数を備えたモデルの多様体を誘導するために,我々のフレームワークがいかに利用できるかを実証する。
関連論文リスト
- Exploring Model Kinship for Merging Large Language Models [52.01652098827454]
本稿では,大規模言語モデル間の類似性や関連性の程度であるモデル親和性を紹介する。
モデル統合後の性能向上とモデル親和性の間には,一定の関係があることが判明した。
我々は新しいモデルマージ戦略を提案する。Top-k Greedy Merging with Model Kinship。
論文 参考訳(メタデータ) (2024-10-16T14:29:29Z) - Embedding-based statistical inference on generative models [10.948308354932639]
生成モデルの埋め込みに基づく表現に関する結果を、古典的な統計的推論設定に拡張する。
類似」の概念の基盤として視点空間を用いることは、複数のモデルレベルの推論タスクに有効であることを示す。
論文 参考訳(メタデータ) (2024-10-01T22:28:39Z) - Universal Domain Adaptation from Foundation Models: A Baseline Study [58.51162198585434]
基礎モデルを用いた最先端UniDA手法の実証的研究を行った。
CLIPモデルからターゲット知識を抽出するためのパラメータフリーな手法であるtextitCLIP 蒸留を導入する。
単純な手法ではあるが、ほとんどのベンチマークタスクでは従来の手法よりも優れている。
論文 参考訳(メタデータ) (2023-05-18T16:28:29Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [51.8162883997512]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - Investigating Ensemble Methods for Model Robustness Improvement of Text
Classifiers [66.36045164286854]
既存のバイアス機能を分析し、すべてのケースに最適なモデルが存在しないことを実証します。
適切なバイアスモデルを選択することで、より洗練されたモデル設計でベースラインよりもロバスト性が得られる。
論文 参考訳(メタデータ) (2022-10-28T17:52:10Z) - Model Comparison in Approximate Bayesian Computation [0.456877715768796]
自然科学における一般的な問題は、観測されたデータに照らして競合するモデルの比較である。
この枠組みは、実際に使用されるほとんどのモデルにとって難解な確率関数の計算に依存している。
ABCにおけるベイズモデルの比較を行うための新しい効率的な手法を提案する。
論文 参考訳(メタデータ) (2022-03-15T10:24:16Z) - A moment-matching metric for latent variable generative models [0.0]
グッドハートの法則の範囲では、計量が対象となるとき、それは良い計量になるのをやめる。
モーメントに依存するモデル比較や正規化のための新しい指標を提案する。
潜時変動モデルを評価する際に, 適応分布からサンプルを抽出することが一般的である。
論文 参考訳(メタデータ) (2021-10-04T17:51:08Z) - Distributional Depth-Based Estimation of Object Articulation Models [21.046351215949525]
本研究では,奥行き画像から直接,調音モデルパラメータの分布を効率よく学習する手法を提案する。
私たちのコアコントリビューションには、剛体変換に対する分布の新しい表現が含まれています。
本稿では,カテゴリに依存しない調音モデル推定を行う新しい深層学習手法DUST-netを提案する。
論文 参考訳(メタデータ) (2021-08-12T17:44:51Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [54.94763543386523]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z) - Evaluating the Disentanglement of Deep Generative Models through
Manifold Topology [66.06153115971732]
本稿では,生成モデルのみを用いた乱れの定量化手法を提案する。
複数のデータセットにまたがるいくつかの最先端モデルを実証的に評価する。
論文 参考訳(メタデータ) (2020-06-05T20:54:11Z) - Amortized Bayesian model comparison with evidential deep learning [0.12314765641075436]
本稿では,専門的なディープラーニングアーキテクチャを用いたベイズモデルの比較手法を提案する。
提案手法は純粋にシミュレーションベースであり,観測された各データセットに対して,すべての代替モデルを明示的に適合させるステップを回避している。
提案手法は,本研究で検討した事例に対して,精度,キャリブレーション,効率の点で優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2020-04-22T15:15:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。