論文の概要: Representation Learning for Natural Language Processing
- arxiv url: http://arxiv.org/abs/2102.03732v1
- Date: Sun, 7 Feb 2021 07:37:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-11 06:02:10.174374
- Title: Representation Learning for Natural Language Processing
- Title(参考訳): 自然言語処理のための表現学習
- Authors: Zhiyuan Liu, Yankai Lin, Maosong Sun
- Abstract要約: 本書は,NLPにおける分散表現学習の最近の進歩をレビューし,提示することを目的としている。
表現学習がNLPを改善できる理由、表現学習がNLPの様々な重要なトピックにどのように関与するか、そして分散表現によってまだ解決されていない課題などが含まれる。
- 参考スコア(独自算出の注目度): 73.11093736950399
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This book aims to review and present the recent advances of distributed
representation learning for NLP, including why representation learning can
improve NLP, how representation learning takes part in various important topics
of NLP, and what challenges are still not well addressed by distributed
representation.
- Abstract(参考訳): 本書は,NLPにおける分散表現学習の最近の進歩について,表現学習がNLPを改善できる理由,表現学習がNLPの様々な重要なトピックにどのように関与するか,分散表現によってまだ解決されていない課題について,レビューし,提示することを目的としている。
関連論文リスト
- Learning Symbolic Rules over Abstract Meaning Representations for
Textual Reinforcement Learning [63.148199057487226]
本稿では,汎用的な意味一般化とルール誘導システムを組み合わせて,解釈可能なルールをポリシーとして学習するモジュール型 NEuroSymbolic Textual Agent (NESTA) を提案する。
実験の結果,NESTA法は,未確認テストゲームや少ないトレーニングインタラクションから学習することで,深層強化学習技術よりも優れることがわかった。
論文 参考訳(メタデータ) (2023-07-05T23:21:05Z) - A Comprehensive Survey of Sentence Representations: From the BERT Epoch
to the ChatGPT Era and Beyond [45.455178613559006]
文表現は、検索、質問応答、テキスト分類などのNLPアプリケーションにおいて重要な要素である。
彼らは文章の意味を捉え、機械が人間の言語について理解し、推論することを可能にする。
文表現に関する文献のレビューは今のところない。
論文 参考訳(メタデータ) (2023-05-22T02:31:15Z) - An Inclusive Notion of Text [69.36678873492373]
テキストの概念の明確さは再現可能で一般化可能なNLPにとって不可欠である,と我々は主張する。
言語的および非言語的要素の2層分類を導入し,NLPモデリングに使用することができる。
論文 参考訳(メタデータ) (2022-11-10T14:26:43Z) - SW-VAE: Weakly Supervised Learn Disentangled Representation Via Latent
Factor Swapping [12.012459418829732]
SW-VAE という名称の弱い教師付きトレーニング手法を提案し,データセットの生成因子を用いて,2組の入力観測を教師信号として組み込む。
いくつかのデータセットで示されるように、我々のモデルは表現の非絡み付けタスクにおける最先端(SOTA)手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2022-09-21T19:34:35Z) - RELAX: Representation Learning Explainability [10.831313203043514]
本稿では、帰属に基づく表現の説明のための最初のアプローチであるRELAXを提案する。
ReLAXは、入力とマスクアウトされた自身のバージョンの間の表現空間における類似性を測定することで表現を説明する。
我々はRELAXの理論的解釈を提供し、教師なし学習を用いて訓練された特徴抽出器を新規に解析する。
論文 参考訳(メタデータ) (2021-12-19T14:51:31Z) - A Tutorial on Learning Disentangled Representations in the Imaging
Domain [13.320565017546985]
汎用表現学習のアプローチとして, 遠方表現学習が提案されている。
適切な汎用表現は、控えめな量のデータを使用して、新しいターゲットタスクに対して容易に微調整できる。
解離表現はモデル説明可能性を提供し、変動要因の根底にある因果関係を理解するのに役立つ。
論文 参考訳(メタデータ) (2021-08-26T21:44:10Z) - Semantic Representation and Inference for NLP [2.969705152497174]
この論文は、新しい意味表現と推論のための深層学習の利用について考察する。
我々は,自動クレーム検証を目的とした,現実の事実クレームの公開データセットとして最大である。
語句表現を外部単語埋め込みと知識グラフで豊かにすることにより,句の構成性を文脈的に操作する。
論文 参考訳(メタデータ) (2021-06-15T13:22:48Z) - SLM: Learning a Discourse Language Representation with Sentence
Unshuffling [53.42814722621715]
談話言語表現を学習するための新しい事前学習目的である文レベル言語モデリングを導入する。
本モデルでは,この特徴により,従来のBERTの性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-10-30T13:33:41Z) - Coreferential Reasoning Learning for Language Representation [88.14248323659267]
本稿では,コンテキスト内でコアファーデンシャル関係をキャプチャ可能な新しい言語表現モデルCorefBERTを提案する。
実験の結果,既存のベースラインモデルと比較して,CorefBERTは下流のNLPタスクにおいて一貫した大幅な改善を達成できることがわかった。
論文 参考訳(メタデータ) (2020-04-15T03:57:45Z) - Fairness by Learning Orthogonal Disentangled Representations [50.82638766862974]
不変表現問題に対する新しい非絡み合い手法を提案する。
エントロピーによりセンシティブな情報に依存しない有意義な表現を強制する。
提案手法は5つの公開データセットで評価される。
論文 参考訳(メタデータ) (2020-03-12T11:09:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。