論文の概要: Language Invariant Properties in Natural Language Processing
- arxiv url: http://arxiv.org/abs/2109.13037v1
- Date: Mon, 27 Sep 2021 13:23:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-28 15:33:29.924345
- Title: Language Invariant Properties in Natural Language Processing
- Title(参考訳): 自然言語処理における言語不変性
- Authors: Federico Bianchi, Debora Nozza, Dirk Hovy
- Abstract要約: 言語不変性: テキスト変換時に変更すべきでないプロパティ。
以上の結果から,多くのNLP変換が著者特性などの特性を変えることが示唆された。
これらの特性を研究することで、NLPは言語における社会的要因と実践的側面の両方に対処できると考えている。
- 参考スコア(独自算出の注目度): 14.379838101340754
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Meaning is context-dependent, but many properties of language (should) remain
the same even if we transform the context. For example, sentiment, entailment,
or speaker properties should be the same in a translation and original of a
text. We introduce language invariant properties: i.e., properties that should
not change when we transform text, and how they can be used to quantitatively
evaluate the robustness of transformation algorithms. We use translation and
paraphrasing as transformation examples, but our findings apply more broadly to
any transformation. Our results indicate that many NLP transformations change
properties like author characteristics, i.e., make them sound more male. We
believe that studying these properties will allow NLP to address both social
factors and pragmatic aspects of language. We also release an application suite
that can be used to evaluate the invariance of transformation applications.
- Abstract(参考訳): 意味は文脈に依存しますが、言語(ショルド)の多くの特性は、文脈を変換しても同じのままです。
例えば、感情、含意、または話者特性は、テキストの翻訳と原文において同じであるべきである。
我々は,テキスト変換時に変化してはならない性質や,変換アルゴリズムのロバスト性を定量的に評価する方法など,言語不変特性を紹介する。
翻訳とパラフレーズを変換の例として用いますが、我々の発見はどんな変換にもより広く適用できます。
以上の結果から,多くのNLP変換が著者特性などの特性を変えることが示唆された。
これらの特性を研究することで、NLPは言語における社会的要因と実践的側面の両方に対処できると考えている。
また、変換アプリケーションの不変性を評価するために使用できるアプリケーションスイートもリリースしています。
関連論文リスト
- Evaluating Semantic Variation in Text-to-Image Synthesis: A Causal Perspective [50.261681681643076]
本稿では,SemVarEffectとSemVarBenchというベンチマークを用いて,テキスト・画像合成における入力のセマンティックな変化と出力の因果性を評価する。
本研究は,T2I合成コミュニティによるヒューマンインストラクション理解の探索を促進する効果的な評価枠組みを確立する。
論文 参考訳(メタデータ) (2024-10-14T08:45:35Z) - Context-aware Difference Distilling for Multi-change Captioning [106.72151597074098]
マルチチェンジキャプションは、自然言語でイメージペア内の複雑で結合的な変化を記述することを目的としている。
そこで本稿では, 文収量に対する真の変化をすべて捉えるための, 文脈認識型差分蒸留ネットワークを提案する。
論文 参考訳(メタデータ) (2024-05-31T14:07:39Z) - Neighborhood Contrastive Transformer for Change Captioning [80.10836469177185]
本研究では,異なる環境下での様々な変化に対するモデルの知覚能力を向上させるために,近傍のコントラスト変換器を提案する。
提案手法は,変化シナリオの異なる3つの公開データセットに対して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-03-06T14:39:54Z) - Transparency Helps Reveal When Language Models Learn Meaning [71.96920839263457]
合成データを用いた体系的な実験により,すべての表現が文脈に依存しない意味を持つ言語では,自己回帰型とマスキング型の両方の言語モデルが,表現間の意味的関係をエミュレートする。
自然言語に目を向けると、特定の現象(参照不透明さ)による実験は、現在の言語モデルが自然言語の意味論をうまく表現していないという証拠を増大させる。
論文 参考訳(メタデータ) (2022-10-14T02:35:19Z) - NL-Augmenter: A Framework for Task-Sensitive Natural Language
Augmentation [91.97706178867439]
提案するNL-Augmenterは,Pythonベースの自然言語拡張フレームワークである。
このフレームワークと117の変換と23のフィルタを、さまざまな自然言語タスクに対して記述する。
我々は,NL-Augmenterの有効性を,NL-Augmenterの変換を用いて検証し,自然言語モデルのロバスト性を解析した。
論文 参考訳(メタデータ) (2021-12-06T00:37:59Z) - Equivariant Contrastive Learning [20.369942206674576]
最先端の自己教師型学習(SSL)では、事前学習は意味的に良い表現を生成する。
私たちは人気のあるSSLメソッドを、Equivariant Self-Supervised Learning (E-SSL)という名前のより一般的なフレームワークに拡張します。
いくつかのコンピュータビジョンベンチマークにおいて,E-SSLの有効性を実証的に示す。
論文 参考訳(メタデータ) (2021-10-28T17:21:33Z) - Combining Transformers with Natural Language Explanations [13.167758466408825]
本稿では,外部記憶を利用して自然言語記述を記憶し,それらを分類結果の説明に利用するトランスフォーマーモデルの拡張を提案する。
法的なテキスト分析と議論マイニングという2つの領域を実験的に評価し,分類性能を維持したり改善したりしながら,本手法が関連する説明を得られることを示す。
論文 参考訳(メタデータ) (2021-09-02T09:17:04Z) - Disentangling semantics in language through VAEs and a certain
architectural choice [1.8907108368038217]
我々は変分オートエンコーダを訓練し、文を一定数の階層的に構造化された潜在変数に変換する。
文中のこれらの要素は,対応する潜伏変数によって変化し,複数の文間でスワップすることで,予測される部分的セマンティックスワップが生じることを示す。
論文 参考訳(メタデータ) (2020-12-24T00:01:40Z) - Unsupervised Distillation of Syntactic Information from Contextualized
Word Representations [62.230491683411536]
我々は,ニューラルネットワーク表現における意味論と構造学の非教師なしの絡み合いの課題に取り組む。
この目的のために、構造的に類似しているが意味的に異なる文群を自動的に生成する。
我々は、我々の変換クラスタベクトルが、語彙的意味論ではなく構造的特性によって空間に現れることを実証する。
論文 参考訳(メタデータ) (2020-10-11T15:13:18Z) - Enriching the Transformer with Linguistic Factors for Low-Resource
Machine Translation [2.2344764434954256]
本研究では,現在最先端のニューラルマシン翻訳アーキテクチャであるTransformerを提案する。
特に,提案するFactered Transformerは,機械翻訳システムに付加的な知識を挿入する言語的要因を用いている。
IWSLTドイツ語-英語タスクにおけるベースライン変換器の0.8BLEUの改善を示す。
論文 参考訳(メタデータ) (2020-04-17T03:40:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。