論文の概要: Nonparametric Iterative Machine Teaching
- arxiv url: http://arxiv.org/abs/2306.03007v1
- Date: Mon, 5 Jun 2023 16:19:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 14:04:08.994481
- Title: Nonparametric Iterative Machine Teaching
- Title(参考訳): 非パラメトリック反復機械教育
- Authors: Chen Zhang, Xiaofeng Cao, Weiyang Liu, Ivor Tsang, James Kwok
- Abstract要約: 非パラメトリック反復機械教育(NIMT)を提案し,非パラメトリック目標モデルを反復的に学習者に教える。
適切な仮定の下でランダムな指導アルゴリズムの反復的指導次元(ITD)を得る。
非パラメトリックなシナリオで広範な実験を行い、理論的な結果の正当性を検証した。
- 参考スコア(独自算出の注目度): 15.89894364065056
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we consider the problem of Iterative Machine Teaching (IMT),
where the teacher provides examples to the learner iteratively such that the
learner can achieve fast convergence to a target model. However, existing IMT
algorithms are solely based on parameterized families of target models. They
mainly focus on convergence in the parameter space, resulting in difficulty
when the target models are defined to be functions without dependency on
parameters. To address such a limitation, we study a more general task --
Nonparametric Iterative Machine Teaching (NIMT), which aims to teach
nonparametric target models to learners in an iterative fashion. Unlike
parametric IMT that merely operates in the parameter space, we cast NIMT as a
functional optimization problem in the function space. To solve it, we propose
both random and greedy functional teaching algorithms. We obtain the iterative
teaching dimension (ITD) of the random teaching algorithm under proper
assumptions, which serves as a uniform upper bound of ITD in NIMT. Further, the
greedy teaching algorithm has a significantly lower ITD, which reaches a
tighter upper bound of ITD in NIMT. Finally, we verify the correctness of our
theoretical findings with extensive experiments in nonparametric scenarios.
- Abstract(参考訳): 本稿では、教師が学習者に反復的に例を提示し、学習者が目標モデルに迅速に収束できるというイテレーティブ・マシン・トレーニング(IMT)の問題について考察する。
しかし、既存のIMTアルゴリズムは対象モデルのパラメータ化された族のみに基づいている。
それらは主にパラメータ空間の収束にフォーカスしており、対象モデルがパラメータに依存しない関数として定義されると困難になる。
このような制限に対処するために,非パラメトリック反復機械教育 (nimt) は,非パラメトリック対象モデルを反復的に学習者に教えることを目的としている。
パラメータ空間でのみ動作するパラメトリックIMTとは異なり、NIMTを関数空間の関数最適化問題として用いた。
そこで本研究では,ランダムな機能指導アルゴリズムと無欲な機能指導アルゴリズムの両方を提案する。
適切な仮定の下でのランダム指導アルゴリズムの反復指導次元(itd)を求め,nimt における itd の均一な上界として機能する。
さらに、欲深い指導アルゴリズムは、nimtにおけるitdのより強固な上限に達する、かなり低いitdを有する。
最後に,非パラメトリックシナリオにおける広範囲な実験を行い,理論的知見の正確性を検証する。
関連論文リスト
- Sparse Orthogonal Parameters Tuning for Continual Learning [34.462967722928724]
事前学習モデル(PTM)に基づく連続学習手法が近年注目されている。
本稿では,SoTU(Sparse Orthogonal Parameters TUning)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-11-05T05:19:09Z) - A Stochastic Approach to Bi-Level Optimization for Hyperparameter Optimization and Meta Learning [74.80956524812714]
我々は,現代のディープラーニングにおいて広く普及している一般的なメタ学習問題に対処する。
これらの問題は、しばしばBi-Level Optimizations (BLO)として定式化される。
我々は,与えられたBLO問題を,内部損失関数が滑らかな分布となり,外損失が内部分布に対する期待損失となるようなii最適化に変換することにより,新たな視点を導入する。
論文 参考訳(メタデータ) (2024-10-14T12:10:06Z) - Scaling Exponents Across Parameterizations and Optimizers [94.54718325264218]
本稿では,先行研究における重要な仮定を考察し,パラメータ化の新たな視点を提案する。
私たちの経験的調査には、3つの組み合わせでトレーニングされた数万のモデルが含まれています。
最高の学習率のスケーリング基準は、以前の作業の仮定から除外されることがよくあります。
論文 参考訳(メタデータ) (2024-07-08T12:32:51Z) - Compressible Dynamics in Deep Overparameterized Low-Rank Learning & Adaptation [12.07880147193174]
モデルパラメータ内のデータと圧縮可能な力学の固有な低次元構造を利用することで、計算負担を伴わずにパラメータ化の利点を享受できることが示される。
提案手法は,低ランク行列と微調整言語モデルに対して有効であることを示す。
論文 参考訳(メタデータ) (2024-06-06T14:29:49Z) - MTLoRA: A Low-Rank Adaptation Approach for Efficient Multi-Task Learning [1.4396109429521227]
大規模データセットに事前トレーニングされたモデルを、さまざまな下流タスクに適応させることは、ディープラーニングにおける一般的な戦略である。
パラメータ効率のよい微調整手法は、最小限のパラメータだけを訓練しながら、事前訓練されたモデルを異なるタスクに適応させる有望な方法として登場した。
本稿では,マルチタスク学習モデルのパラメータ効率向上のための新しいフレームワークMTLoRAを紹介する。
論文 参考訳(メタデータ) (2024-03-29T17:43:58Z) - Energy-Guided Continuous Entropic Barycenter Estimation for General Costs [95.33926437521046]
任意のOTコスト関数に対して連続的エントロピーOT(EOT)バリセンタを近似する新しいアルゴリズムを提案する。
本手法は、弱いOTに基づくEOT問題の二重再構成に基づいている。
論文 参考訳(メタデータ) (2023-10-02T11:24:36Z) - Task Arithmetic in the Tangent Space: Improved Editing of Pre-Trained
Models [96.9373147383119]
重みの絡み合いがタスク算術を効果的にするための重要な要素であることを示す。
それらの接空間における微調整モデルを線形化することにより、重みの絡み合いを増幅することを示した。
これにより、タスク演算ベンチマークや多種多様なモデルで大幅にパフォーマンスが向上する。
論文 参考訳(メタデータ) (2023-05-22T08:39:25Z) - Task Difficulty Aware Parameter Allocation & Regularization for Lifelong
Learning [20.177260510548535]
本稿では,その学習困難度に基づいてパラメータ割り当てと正規化から各タスクに適した戦略を適応的に選択するAllocation & Regularization (PAR)を提案する。
提案手法はスケーラビリティが高く,モデルの冗長性を著しく低減し,モデルの性能を向上する。
論文 参考訳(メタデータ) (2023-04-11T15:38:21Z) - Pareto Manifold Learning: Tackling multiple tasks via ensembles of
single-task models [50.33956216274694]
マルチタスク学習(MTL)では、タスクは、ソリューションへの最適化を導くのではなく、互いに達成したパフォーマンスを競い、制限することができる。
重み空間におけるアンサンブル手法であるTextitPareto Manifold Learningを提案する。
論文 参考訳(メタデータ) (2022-10-18T11:20:54Z) - On the Influence of Enforcing Model Identifiability on Learning dynamics
of Gaussian Mixture Models [14.759688428864159]
特異モデルからサブモデルを抽出する手法を提案する。
本手法はトレーニング中のモデルの識別性を強制する。
この手法がディープニューラルネットワークのようなより複雑なモデルにどのように適用できるかを示す。
論文 参考訳(メタデータ) (2022-06-17T07:50:22Z) - Parameter-Efficient Sparsity for Large Language Models Fine-Tuning [63.321205487234074]
私たちはaを提案します。
Sparse- efficient Sparse Training (PST) は、スパース・アウェア・トレーニング中にトレーニング可能なパラメータの数を減少させる手法である。
多様なネットワーク(BERT、RoBERTa、GPT-2)を用いた実験では、PSTは従来のスパーシリティ法よりも同等以上の性能を示した。
論文 参考訳(メタデータ) (2022-05-23T02:43:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。