論文の概要: Text Transformations in Contrastive Self-Supervised Learning: A Review
- arxiv url: http://arxiv.org/abs/2203.12000v1
- Date: Tue, 22 Mar 2022 19:02:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-24 13:47:51.602270
- Title: Text Transformations in Contrastive Self-Supervised Learning: A Review
- Title(参考訳): コントラスト的自己監督学習におけるテキスト変換 : レビュー
- Authors: Amrita Bhattacharjee, Mansooreh Karami, Huan Liu
- Abstract要約: 自然言語処理の分野において,コントラスト学習の枠組みを定式化する。
コントラスト法を用いてより良いテキスト表現を学習するための課題と可能性について述べる。
- 参考スコア(独自算出の注目度): 27.25193476131943
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Contrastive self-supervised learning has become a prominent technique in
representation learning. The main step in these methods is to contrast
semantically similar and dissimilar pairs of samples. However, in the domain of
Natural Language, the augmentation methods used in creating similar pairs with
regard to contrastive learning assumptions are challenging. This is because,
even simply modifying a word in the input might change the semantic meaning of
the sentence, and hence, would violate the distributional hypothesis. In this
review paper, we formalize the contrastive learning framework in the domain of
natural language processing. We emphasize the considerations that need to be
addressed in the data transformation step and review the state-of-the-art
methods and evaluations for contrastive representation learning in NLP.
Finally, we describe some challenges and potential directions for learning
better text representations using contrastive methods.
- Abstract(参考訳): 対照的な自己指導型学習は表現学習において顕著な技術となっている。
これらの方法の主なステップは、意味的に類似し、異なるサンプルペアを対比することである。
しかし、自然言語領域では、対照的な学習仮定に関して類似のペアを作成する際に用いられる拡張手法は困難である。
これは、入力中の単語を単純に変更しても文の意味的意味が変化し、従って分布仮説に違反する可能性があるためである。
本稿では,自然言語処理分野におけるコントラスト学習フレームワークの形式化について述べる。
データ変換ステップで対処すべき考慮事項を強調し,nlpにおけるコントラスト表現学習の最先端手法と評価について検討する。
最後に、コントラスト法を用いてより良いテキスト表現を学習するための課題と潜在的方向性について述べる。
関連論文リスト
- Pixel Sentence Representation Learning [67.4775296225521]
本研究では,視覚表現学習プロセスとして,文レベルのテキスト意味論の学習を概念化する。
タイポスや単語順シャッフルのような視覚的に接地されたテキスト摂動法を採用し、人間の認知パターンに共鳴し、摂動を連続的に認識できるようにする。
我々のアプローチは、大規模に教師なしのトピックアライメントトレーニングと自然言語推論監督によってさらに強化されている。
論文 参考訳(メタデータ) (2024-02-13T02:46:45Z) - DenoSent: A Denoising Objective for Self-Supervised Sentence
Representation Learning [59.4644086610381]
本稿では,他の視点,すなわち文内視点から継承する新たな認知的目的を提案する。
離散ノイズと連続ノイズの両方を導入することで、ノイズの多い文を生成し、モデルを元の形式に復元するように訓練する。
我々の経験的評価は,本手法が意味的テキスト類似性(STS)と幅広い伝達タスクの両面で競合する結果をもたらすことを示した。
論文 参考訳(メタデータ) (2024-01-24T17:48:45Z) - Differentiable Data Augmentation for Contrastive Sentence Representation
Learning [6.398022050054328]
提案手法は, 半教師付き設定と教師付き設定の両方において, 既存手法よりも大幅に改善されている。
また,低ラベルデータ設定による実験により,本手法は最先端のコントラスト学習法よりもラベル効率が高いことが示された。
論文 参考訳(メタデータ) (2022-10-29T08:57:45Z) - Textual Entailment Recognition with Semantic Features from Empirical
Text Representation [60.31047947815282]
テキストが仮説を包含するのは、仮説の真の価値がテキストに従う場合に限る。
本稿では,テキストと仮説のテキストの包含関係を同定する新しい手法を提案する。
本手法では,テキスト・ハイブリッド・ペア間の意味的含意関係を識別できる要素ワイド・マンハッタン距離ベクトルベースの特徴を用いる。
論文 参考訳(メタデータ) (2022-10-18T10:03:51Z) - Contextualized language models for semantic change detection: lessons
learned [4.436724861363513]
本稿では,ダイアクロニック・セマンティック・チェンジを検出する文脈的埋め込みに基づく手法の出力の質的分析を行う。
本研究の結果から,文脈化手法は,実際のダイアクロニック・セマンティック・シフトを行なわない単語に対して,高い変化スコアを予測できることが示唆された。
我々の結論は、事前学習された文脈化言語モデルは、語彙感覚の変化と文脈分散の変化を補う傾向にあるということである。
論文 参考訳(メタデータ) (2022-08-31T23:35:24Z) - Generative or Contrastive? Phrase Reconstruction for Better Sentence
Representation Learning [86.01683892956144]
句再構成に基づく新たな自己教師型学習目標を提案する。
我々の生成学習は、十分強力な文表現をもたらし、コントラスト学習と同等の文文類似性タスクで性能を達成することができる。
論文 参考訳(メタデータ) (2022-04-20T10:00:46Z) - Transductive Learning for Unsupervised Text Style Transfer [60.65782243927698]
教師なしスタイル転送モデルは、主に帰納的学習アプローチに基づいている。
本稿では,検索に基づく文脈認識スタイルの表現に基づく新しいトランスダクティブ学習手法を提案する。
論文 参考訳(メタデータ) (2021-09-16T08:57:20Z) - Understanding Synonymous Referring Expressions via Contrastive Features [105.36814858748285]
画像とオブジェクトインスタンスレベルでのコントラスト機能を学ぶためのエンドツーエンドのトレーニング可能なフレームワークを開発しています。
提案アルゴリズムをいくつかのベンチマークデータセットで評価するための広範囲な実験を行った。
論文 参考訳(メタデータ) (2021-04-20T17:56:24Z) - Disentangled Contrastive Learning for Learning Robust Textual
Representations [13.880693856907037]
運動量表現一貫性の概念を導入し,特徴を整合させ,一様性に適合しながらパワー正規化を活用する。
NLPベンチマークの実験結果から,本手法はベースラインよりも優れた結果が得られることが示された。
論文 参考訳(メタデータ) (2021-04-11T03:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。