論文の概要: Unnatural Language Inference
- arxiv url: http://arxiv.org/abs/2101.00010v1
- Date: Wed, 30 Dec 2020 20:40:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-18 06:05:47.410266
- Title: Unnatural Language Inference
- Title(参考訳): 不自然な言語推論
- Authors: Koustuv Sinha, Prasanna Parthasarathi, Joelle Pineau, Adina Williams
- Abstract要約: 我々は、RoBERTaやBARTのような最先端のNLIモデルは、ランダムに並べ替えられた単語の例に不変であり、時にはよりよく機能することさえあります。
我々の発見は、自然言語理解モデルと、その進捗を測定するために使われるタスクが、本当に人間のような構文理解を必要とするという考えに疑問を投げかけている。
- 参考スコア(独自算出の注目度): 48.45003475966808
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Natural Language Understanding has witnessed a watershed moment with the
introduction of large pre-trained Transformer networks. These models achieve
state-of-the-art on various tasks, notably including Natural Language Inference
(NLI). Many studies have shown that the large representation space imbibed by
the models encodes some syntactic and semantic information. However, to really
"know syntax", a model must recognize when its input violates syntactic rules
and calculate inferences accordingly. In this work, we find that
state-of-the-art NLI models, such as RoBERTa and BART are invariant to, and
sometimes even perform better on, examples with randomly reordered words. With
iterative search, we are able to construct randomized versions of NLI test
sets, which contain permuted hypothesis-premise pairs with the same words as
the original, yet are classified with perfect accuracy by large pre-trained
models, as well as pre-Transformer state-of-the-art encoders. We find the issue
to be language and model invariant, and hence investigate the root cause. To
partially alleviate this effect, we propose a simple training methodology. Our
findings call into question the idea that our natural language understanding
models, and the tasks used for measuring their progress, genuinely require a
human-like understanding of syntax.
- Abstract(参考訳): 自然言語理解は、大規模な事前学習されたトランスフォーマーネットワークの導入によって、分岐した瞬間を目撃している。
これらのモデルは、特に自然言語推論(NLI)を含む様々なタスクで最先端を達成する。
多くの研究は、モデルに埋め込まれた大きな表現空間がいくつかの構文情報や意味情報を符号化していることを示した。
しかし、本当に「構文を知る」ためには、モデルはその入力が構文規則に違反していることを認識し、それに従って推論を計算する必要がある。
本稿では,roberta や bart のような最先端 nli モデルが,無作為に並べ替えられた単語の例に対して不変であり,時にはよりよく機能することを示す。
反復探索により、原語と同じ単語で置換された仮説前提ペアを含むNLIテストセットのランダム化バージョンを構築することができるが、大きな事前訓練されたモデルや、変換前の最先端エンコーダによって完全な精度で分類できる。
問題は言語であり,モデル不変であり,それゆえ根本原因を考察する。
この効果を部分的に緩和するために,簡単なトレーニング手法を提案する。
我々の発見は、自然言語理解モデルと、その進捗を測定するために使われるタスクが、本当に人間のような構文理解を必要とするという考えに疑問を投げかけている。
関連論文リスト
- Probabilistic Transformer: A Probabilistic Dependency Model for
Contextual Word Representation [52.270712965271656]
本稿では,文脈表現の新しいモデルを提案する。
モデルのグラフは変換器に似ており、依存関係と自己意識の対応性がある。
実験により,本モデルが小型・中型データセットのトランスフォーマーと競合することを示す。
論文 参考訳(メタデータ) (2023-11-26T06:56:02Z) - Transparency at the Source: Evaluating and Interpreting Language Models
With Access to the True Distribution [4.01799362940916]
人工的な言語のようなデータを用いて、ニューラルネットワークモデルのトレーニング、評価、解釈を行う。
データは、巨大な自然言語コーパスから派生した巨大な確率文法を用いて生成される。
基礎となる真の情報源にアクセスすることで、異なる単語のクラス間の動的学習における顕著な違いと結果が示される。
論文 参考訳(メタデータ) (2023-10-23T12:03:01Z) - What do Large Language Models Learn beyond Language? [10.9650651784511]
事前学習モデルは、非事前学習ニューラルモデルに匹敵する性能を著しく上回っていることがわかった。
実験により、多言語テキストやコンピュータコードで事前学習しても、事前学習の効果が持続することが明らかとなった。
その結果,言語モデルの事前学習能力と帰納学習能力との間には,未解明の深い関係があることが示唆された。
論文 参考訳(メタデータ) (2022-10-21T23:43:13Z) - Is neural language acquisition similar to natural? A chronological
probing study [0.0515648410037406]
本稿では,MultiBERTやT5といったトランスフォーマー英語モデルの時系列探索について述べる。
コーパスの学習過程において,モデルが学習した言語に関する情報を比較した。
その結果,1)訓練の初期段階に言語情報を取得すること,2)両言語モデルが様々な言語レベルから様々な特徴を捉える能力を示した。
論文 参考訳(メタデータ) (2022-07-01T17:24:11Z) - An Exploration of Prompt Tuning on Generative Spoken Language Model for
Speech Processing Tasks [112.1942546460814]
生成音声言語モデル(GSLM)に基づく音声処理タスクの即時チューニングパラダイムの最初の検討について報告する。
実験結果から, 学習可能なパラメータが少ない音声分類タスクにおいて, 高精度なダウンストリームモデルよりも, 即時チューニング手法が競合性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2022-03-31T03:26:55Z) - An Application of Pseudo-Log-Likelihoods to Natural Language Scoring [5.382454613390483]
比較的少ないパラメータとトレーニングステップを持つ言語モデルは、最近の大規模なデータセットでそれを上回るパフォーマンスを得ることができる。
二項選択タスクにおける常識推論のための絶対的最先端結果を生成する。
より小さなモデルの堅牢性は、構成性の観点から理解されるべきである。
論文 参考訳(メタデータ) (2022-01-23T22:00:54Z) - A Latent-Variable Model for Intrinsic Probing [93.62808331764072]
固有プローブ構築のための新しい潜在変数定式化を提案する。
我々は、事前訓練された表現が言語間交互に絡み合ったモルフォシンタクスの概念を発達させる経験的証拠を見出した。
論文 参考訳(メタデータ) (2022-01-20T15:01:12Z) - Uncovering More Shallow Heuristics: Probing the Natural Language
Inference Capacities of Transformer-Based Pre-Trained Language Models Using
Syllogistic Patterns [9.031827448667086]
我々は、自然言語推論(NLI)のために微調整されたトランスフォーマーベース事前学習言語モデル(PLM)が使用する浅瀬を探索する。
モデルが特定の浅瀬に強く依存していることの証拠を見つけ、前提と仮説の間の対称性と対称性を拾い上げる。
論文 参考訳(メタデータ) (2022-01-19T14:15:41Z) - Grounded Compositional Outputs for Adaptive Language Modeling [59.02706635250856]
言語モデルの語彙$-$典型的にはトレーニング前に選択され、後で永久に固定される$-$は、そのサイズに影響します。
言語モデルのための完全合成出力埋め込み層を提案する。
我々の知る限り、この結果はトレーニング語彙に依存しないサイズを持つ最初の単語レベル言語モデルである。
論文 参考訳(メタデータ) (2020-09-24T07:21:14Z) - Exploring Software Naturalness through Neural Language Models [56.1315223210742]
ソフトウェア自然性仮説(Software Naturalness hypothesis)は、自然言語処理で使用されるのと同じ手法でプログラミング言語を理解することができると主張している。
この仮説は,事前学習されたトランスフォーマーベース言語モデルを用いて,コード解析タスクを実行することによって検討する。
論文 参考訳(メタデータ) (2020-06-22T21:56:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。