論文の概要: Neural Composition: Learning to Generate from Multiple Models
- arxiv url: http://arxiv.org/abs/2007.16013v2
- Date: Mon, 9 Nov 2020 23:41:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 20:48:39.067917
- Title: Neural Composition: Learning to Generate from Multiple Models
- Title(参考訳): 神経構成: 複数のモデルから生成する学習
- Authors: Denis Filimonov, Ravi Teja Gadde, Ariya Rastrow
- Abstract要約: 本稿では,各コンポーネントから生成プロセスがいつ起動するかを学習することで,モデル定義コンポーネントを組み合わせるシステムを提案する。
本稿では,各コンポーネントから生成プロセスがいつ起動するかを学習することで,モデル定義コンポーネントを組み合わせるシステムを提案する。
- 参考スコア(独自算出の注目度): 13.072708028188465
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decomposing models into multiple components is critically important in many
applications such as language modeling (LM) as it enables adapting individual
components separately and biasing of some components to the user's personal
preferences. Conventionally, contextual and personalized adaptation for
language models, are achieved through class-based factorization, which requires
class-annotated data, or through biasing to individual phrases which is limited
in scale. In this paper, we propose a system that combines model-defined
components, by learning when to activate the generation process from each
individual component, and how to combine probability distributions from each
component, directly from unlabeled text data.
- Abstract(参考訳): モデルを複数のコンポーネントに分割することは、言語モデリング(lm)のような多くのアプリケーションにおいて非常に重要である。
伝統的に、言語モデルの文脈的およびパーソナライズされた適応は、クラスアノテートデータを必要とするクラスベースの分解や、規模が制限された個々のフレーズへの偏りによって達成される。
本稿では,各コンポーネントから生成プロセスをアクティベートするタイミングを学習し,ラベルなしテキストデータから直接,各コンポーネントからの確率分布を結合する方法を学習することにより,モデル定義コンポーネントを組み合わせるシステムを提案する。
関連論文リスト
- JeDi: Joint-Image Diffusion Models for Finetuning-Free Personalized Text-to-Image Generation [49.997839600988875]
既存のパーソナライズ手法は、ユーザのカスタムデータセット上でテキスト・ツー・イメージの基礎モデルを微調整することに依存している。
ファインタニングフリーのパーソナライズモデルを学ぶための効果的な手法として,ジョイントイメージ拡散(jedi)を提案する。
本モデルは,従来のファインタニングベースとファインタニングフリーのパーソナライゼーションベースの両方において,定量的かつ定性的に,高い品質を実現する。
論文 参考訳(メタデータ) (2024-07-08T17:59:02Z) - Personalized Federated Learning via Sequential Layer Expansion in Representation Learning [0.0]
フェデレーション学習は、個々のクライアントデバイス上で分散トレーニングを行い、中央サーバでモデルウェイトのみを共有することによって、クライアントのプライバシを保証する。
本稿では,ディープラーニングモデル全体をより密に分割した部分に分割し,適切なスケジューリング手法を適用した表現学習に基づく新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-04-27T06:37:19Z) - Decomposing and Editing Predictions by Modeling Model Computation [75.37535202884463]
コンポーネントモデリングというタスクを導入します。
コンポーネントモデリングの目標は、MLモデルの予測をコンポーネントの観点から分解することだ。
コンポーネント属性を推定するスケーラブルなアルゴリズムであるCOARを提案する。
論文 参考訳(メタデータ) (2024-04-17T16:28:08Z) - Dynamic Latent Separation for Deep Learning [67.62190501599176]
機械学習の中核的な問題は、複雑なデータに対するモデル予測のための表現力のある潜在変数を学習することである。
本稿では,表現性を向上し,部分的解釈を提供し,特定のアプリケーションに限定されないアプローチを開発する。
論文 参考訳(メタデータ) (2022-10-07T17:56:53Z) - Dynamic Template Initialization for Part-Aware Person Re-ID [0.640781528166787]
空間アテンションベースのDynamic Partテンプレート初期化モジュール。
背骨の部分的な特徴は、多様な人体部分のテンプレートを抽出するために用いられる。
全体的、排他的、部分的なRe-IDタスクベンチマークに関するテスト。
論文 参考訳(メタデータ) (2022-08-24T11:20:48Z) - FlexLip: A Controllable Text-to-Lip System [6.15560473113783]
我々はテキストをリップランドマークに変換することによって、テキストからビデオへの生成問題のサブセットに取り組む。
我々のシステムはFlexLipと呼ばれ、テキスト・トゥ・音声と音声・音声・音声の2つのモジュールに分けられる。
音声生成成分に20分のデータを使用し, 音声合成成分に5分のデータを使用することにより, 生成した唇のランドマークの客観的な測定値は, より大きなトレーニングサンプルを用いて得られるものと同等であることを示す。
論文 参考訳(メタデータ) (2022-06-07T11:51:58Z) - Dependency-based Mixture Language Models [53.152011258252315]
依存性に基づく混合言語モデルを紹介する。
より詳しくは、依存関係モデリングの新たな目的により、まずニューラルネットワークモデルを訓練する。
次に、前回の依存性モデリング確率分布と自己意図を混合することにより、次の確率を定式化する。
論文 参考訳(メタデータ) (2022-03-19T06:28:30Z) - Compositional Fine-Grained Low-Shot Learning [58.53111180904687]
そこで本研究では,ゼロおよび少数ショット学習のための新しい合成生成モデルを構築し,学習サンプルの少ない,あるいは全くない,きめ細かいクラスを認識する。
本稿では, 学習サンプルから属性特徴を抽出し, それらを組み合わせて, 稀で見えないクラスのためのきめ細かい特徴を構築できる特徴合成フレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-21T16:18:24Z) - Grounded Compositional Outputs for Adaptive Language Modeling [59.02706635250856]
言語モデルの語彙$-$典型的にはトレーニング前に選択され、後で永久に固定される$-$は、そのサイズに影響します。
言語モデルのための完全合成出力埋め込み層を提案する。
我々の知る限り、この結果はトレーニング語彙に依存しないサイズを持つ最初の単語レベル言語モデルである。
論文 参考訳(メタデータ) (2020-09-24T07:21:14Z) - Personalized Federated Learning: A Meta-Learning Approach [28.281166755509886]
フェデレートラーニング(Federated Learning)では、複数のコンピューティングユニット(ユーザ)にまたがるモデルをトレーニングすることを目的としています。
本稿では,現在あるいは新規利用者が自身のデータに対して1段階ないし数段階の勾配降下を実行することで,ローカルデータセットに容易に適応できるような,初歩的な共有モデルを見つけることを目標とする,フェデレーション学習のパーソナライズされたバリエーションについて検討する。
論文 参考訳(メタデータ) (2020-02-19T01:08:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。