論文の概要: Neural Composition: Learning to Generate from Multiple Models
- arxiv url: http://arxiv.org/abs/2007.16013v2
- Date: Mon, 9 Nov 2020 23:41:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 20:48:39.067917
- Title: Neural Composition: Learning to Generate from Multiple Models
- Title(参考訳): 神経構成: 複数のモデルから生成する学習
- Authors: Denis Filimonov, Ravi Teja Gadde, Ariya Rastrow
- Abstract要約: 本稿では,各コンポーネントから生成プロセスがいつ起動するかを学習することで,モデル定義コンポーネントを組み合わせるシステムを提案する。
本稿では,各コンポーネントから生成プロセスがいつ起動するかを学習することで,モデル定義コンポーネントを組み合わせるシステムを提案する。
- 参考スコア(独自算出の注目度): 13.072708028188465
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decomposing models into multiple components is critically important in many
applications such as language modeling (LM) as it enables adapting individual
components separately and biasing of some components to the user's personal
preferences. Conventionally, contextual and personalized adaptation for
language models, are achieved through class-based factorization, which requires
class-annotated data, or through biasing to individual phrases which is limited
in scale. In this paper, we propose a system that combines model-defined
components, by learning when to activate the generation process from each
individual component, and how to combine probability distributions from each
component, directly from unlabeled text data.
- Abstract(参考訳): モデルを複数のコンポーネントに分割することは、言語モデリング(lm)のような多くのアプリケーションにおいて非常に重要である。
伝統的に、言語モデルの文脈的およびパーソナライズされた適応は、クラスアノテートデータを必要とするクラスベースの分解や、規模が制限された個々のフレーズへの偏りによって達成される。
本稿では,各コンポーネントから生成プロセスをアクティベートするタイミングを学習し,ラベルなしテキストデータから直接,各コンポーネントからの確率分布を結合する方法を学習することにより,モデル定義コンポーネントを組み合わせるシステムを提案する。
関連論文リスト
- Dynamic Latent Separation for Deep Learning [67.62190501599176]
機械学習の中核的な問題は、複雑なデータに対するモデル予測のための表現力のある潜在変数を学習することである。
本稿では,表現性を向上し,部分的解釈を提供し,特定のアプリケーションに限定されないアプローチを開発する。
論文 参考訳(メタデータ) (2022-10-07T17:56:53Z) - Dynamic Template Initialization for Part-Aware Person Re-ID [0.640781528166787]
空間アテンションベースのDynamic Partテンプレート初期化モジュール。
背骨の部分的な特徴は、多様な人体部分のテンプレートを抽出するために用いられる。
全体的、排他的、部分的なRe-IDタスクベンチマークに関するテスト。
論文 参考訳(メタデータ) (2022-08-24T11:20:48Z) - Language Model Cascades [72.18809575261498]
テスト時に1つのモデルで繰り返し対話する、あるいは複数のモデルの合成は、さらに機能を拡張する。
制御フローと動的構造を持つ場合、確率的プログラミングのテクニックが必要となる。
この観点から、スクラッチパッド/思考連鎖、検証器、STaR、選択推論、ツール利用など、いくつかの既存のテクニックを定式化します。
論文 参考訳(メタデータ) (2022-07-21T07:35:18Z) - Language Models are General-Purpose Interfaces [109.45478241369655]
本稿では,様々な基礎モデルに対する汎用インタフェースとして言語モデルを提案する。
事前訓練されたエンコーダのコレクションは、様々なモダリティ(ビジョンや言語など)を知覚する
インタフェースとモジュールエンコーダを協調的に事前学習するための半因果言語モデリング手法を提案する。
論文 参考訳(メタデータ) (2022-06-13T17:34:22Z) - FlexLip: A Controllable Text-to-Lip System [6.15560473113783]
我々はテキストをリップランドマークに変換することによって、テキストからビデオへの生成問題のサブセットに取り組む。
我々のシステムはFlexLipと呼ばれ、テキスト・トゥ・音声と音声・音声・音声の2つのモジュールに分けられる。
音声生成成分に20分のデータを使用し, 音声合成成分に5分のデータを使用することにより, 生成した唇のランドマークの客観的な測定値は, より大きなトレーニングサンプルを用いて得られるものと同等であることを示す。
論文 参考訳(メタデータ) (2022-06-07T11:51:58Z) - Dependency-based Mixture Language Models [53.152011258252315]
依存性に基づく混合言語モデルを紹介する。
より詳しくは、依存関係モデリングの新たな目的により、まずニューラルネットワークモデルを訓練する。
次に、前回の依存性モデリング確率分布と自己意図を混合することにより、次の確率を定式化する。
論文 参考訳(メタデータ) (2022-03-19T06:28:30Z) - Compositional Fine-Grained Low-Shot Learning [58.53111180904687]
そこで本研究では,ゼロおよび少数ショット学習のための新しい合成生成モデルを構築し,学習サンプルの少ない,あるいは全くない,きめ細かいクラスを認識する。
本稿では, 学習サンプルから属性特徴を抽出し, それらを組み合わせて, 稀で見えないクラスのためのきめ細かい特徴を構築できる特徴合成フレームワークを提案する。
論文 参考訳(メタデータ) (2021-05-21T16:18:24Z) - Learning a Universal Template for Few-shot Dataset Generalization [25.132729497191047]
少数のデータセットの一般化はよく研究された少数のショット分類問題の挑戦的な変形です。
データセットに特化したモデルを幅広く定義できるユニバーサルテンプレートを構築するために,多様なトレーニングセットを活用することを提案する。
提案手法は,従来の手法に比べてパラメータ効率が高く,スケーラブルで適応性が高く,難易度の高いメタデータセットベンチマークで最先端を実現する。
論文 参考訳(メタデータ) (2021-05-14T18:46:06Z) - Grounded Compositional Outputs for Adaptive Language Modeling [59.02706635250856]
言語モデルの語彙$-$典型的にはトレーニング前に選択され、後で永久に固定される$-$は、そのサイズに影響します。
言語モデルのための完全合成出力埋め込み層を提案する。
我々の知る限り、この結果はトレーニング語彙に依存しないサイズを持つ最初の単語レベル言語モデルである。
論文 参考訳(メタデータ) (2020-09-24T07:21:14Z) - Personalized Federated Learning: A Meta-Learning Approach [28.281166755509886]
フェデレートラーニング(Federated Learning)では、複数のコンピューティングユニット(ユーザ)にまたがるモデルをトレーニングすることを目的としています。
本稿では,現在あるいは新規利用者が自身のデータに対して1段階ないし数段階の勾配降下を実行することで,ローカルデータセットに容易に適応できるような,初歩的な共有モデルを見つけることを目標とする,フェデレーション学習のパーソナライズされたバリエーションについて検討する。
論文 参考訳(メタデータ) (2020-02-19T01:08:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。