論文の概要: MorphNLI: A Stepwise Approach to Natural Language Inference Using Text Morphing
- arxiv url: http://arxiv.org/abs/2502.09567v1
- Date: Thu, 13 Feb 2025 18:22:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-14 13:50:23.876870
- Title: MorphNLI: A Stepwise Approach to Natural Language Inference Using Text Morphing
- Title(参考訳): MorphNLI: テキストモーフィングを用いた自然言語推論へのステップワイズアプローチ
- Authors: Vlad Andrei Negru, Robert Vacareanu, Camelia Lemnaru, Mihai Surdeanu, Rodica Potolea,
- Abstract要約: 自然言語推論(NLI)に対するモジュール型ステップバイステップアプローチであるMorphNLIを紹介する。
言語モデルを使用して、必要な編集を生成し、前提を仮説に漸進的に変換します。
次に、既成のNLIモデルを用いて、これらのアトミックな変化によって、その詳細がどのように進行するかを追跡する。
- 参考スコア(独自算出の注目度): 16.217493693447288
- License:
- Abstract: We introduce MorphNLI, a modular step-by-step approach to natural language inference (NLI). When classifying the premise-hypothesis pairs into {entailment, contradiction, neutral}, we use a language model to generate the necessary edits to incrementally transform (i.e., morph) the premise into the hypothesis. Then, using an off-the-shelf NLI model we track how the entailment progresses with these atomic changes, aggregating these intermediate labels into a final output. We demonstrate the advantages of our proposed method particularly in realistic cross-domain settings, where our method always outperforms strong baselines with improvements up to 12.6% (relative). Further, our proposed approach is explainable as the atomic edits can be used to understand the overall NLI label.
- Abstract(参考訳): 自然言語推論(NLI)におけるモジュール型ステップバイステップアプローチであるMorphNLIを紹介する。
前提-仮説ペアを {entailment, contradiction, neutral} に分類するとき、我々は言語モデルを使用して、前提を仮説に段階的に変換するために必要な編集を生成する。
そして、市販のNLIモデルを用いて、これらのアトミックな変化によってどのように包含が進行するかを追跡し、これらの中間ラベルを最終的な出力に集約する。
提案手法の利点は,提案手法が常に12.6%(相対的)に改善された強いベースラインを上回っている,現実的なクロスドメイン設定で実証する。
さらに,提案手法は,NLIラベル全体の理解に原子編集を用いることができるため,説明可能である。
関連論文リスト
- A Semantic-based Layer Freezing Approach to Efficient Fine-Tuning of Language Models [32.178931149612644]
下流のデータやタスクにモデルを適応させるには、微調整言語モデル(LM)が不可欠である。
パラメータ効率の微調整(PEFT)のような既存の作業は、しばしば微細化のためのthithowに焦点を当てるが、微細化のためのtextitwhereの問題を無視している。
論文 参考訳(メタデータ) (2024-06-17T17:13:08Z) - Improving Domain-Specific Retrieval by NLI Fine-Tuning [64.79760042717822]
本稿では、自然言語推論(NLI)データの微調整の可能性を調べ、情報検索とランキングを改善する。
コントラスト損失とNLIデータを利用した教師あり手法により細調整された単言語文エンコーダと多言語文エンコーダを併用する。
この結果から,NLIの微調整によりタスクおよび言語間のモデルの性能が向上し,単言語モデルと多言語モデルが改良される可能性が示唆された。
論文 参考訳(メタデータ) (2023-08-06T12:40:58Z) - Synthetic Dataset for Evaluating Complex Compositional Knowledge for Natural Language Inference [22.339722206567927]
論理学における構成性を理解するために,自然言語推論モデルの性能について検討する。
SICKデータセットから15の例を修正して1,304の文対を生成する。
論文 参考訳(メタデータ) (2023-07-11T06:18:07Z) - Sequential Integrated Gradients: a simple but effective method for
explaining language models [0.18459705687628122]
SIG(Sequential Integrated Gradients)と呼ばれる言語モデルを記述する新しい手法を提案する。
SIGは、文中の各単語の重要性を計算し、他のすべての単語を固定し、ベースラインと興味のある単語の間にのみ生成する。
我々はSIGが言語モデルを説明するのに非常に効果的な方法であることを証明した様々なモデルとデータセットを示す。
論文 参考訳(メタデータ) (2023-05-25T08:44:11Z) - Unnatural Language Inference [48.45003475966808]
我々は、RoBERTaやBARTのような最先端のNLIモデルは、ランダムに並べ替えられた単語の例に不変であり、時にはよりよく機能することさえあります。
我々の発見は、自然言語理解モデルと、その進捗を測定するために使われるタスクが、本当に人間のような構文理解を必要とするという考えに疑問を投げかけている。
論文 参考訳(メタデータ) (2020-12-30T20:40:48Z) - Morphologically Aware Word-Level Translation [82.59379608647147]
本稿では,バイリンガルレキシコン誘導のための新しい形態素認識確率モデルを提案する。
我々のモデルは、レキセメが意味の鍵となる語彙単位であるという基本的な言語的直観を生かしている。
論文 参考訳(メタデータ) (2020-11-15T17:54:49Z) - SLM: Learning a Discourse Language Representation with Sentence
Unshuffling [53.42814722621715]
談話言語表現を学習するための新しい事前学習目的である文レベル言語モデリングを導入する。
本モデルでは,この特徴により,従来のBERTの性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-10-30T13:33:41Z) - Grounded Compositional Outputs for Adaptive Language Modeling [59.02706635250856]
言語モデルの語彙$-$典型的にはトレーニング前に選択され、後で永久に固定される$-$は、そのサイズに影響します。
言語モデルのための完全合成出力埋め込み層を提案する。
我々の知る限り、この結果はトレーニング語彙に依存しないサイズを持つ最初の単語レベル言語モデルである。
論文 参考訳(メタデータ) (2020-09-24T07:21:14Z) - Improve Variational Autoencoder for Text Generationwith Discrete Latent
Bottleneck [52.08901549360262]
変分オートエンコーダ(VAE)は、エンドツーエンドの表現学習において必須のツールである。
VAEは強い自己回帰デコーダで潜伏変数を無視する傾向がある。
よりコンパクトな潜在空間において暗黙的な潜在特徴マッチングを強制する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2020-04-22T14:41:37Z) - Exploring Neural Models for Parsing Natural Language into First-Order
Logic [10.62143644603835]
英文を1次論理(FOL)に解析する際のニューラルモデルの有用性について検討する。
自然言語文が与えられた場合のシーケンスマッピングタスクとしてFOL解析をモデル化し、LSTMを用いて中間表現に符号化し、次に対応するFOL式で述語を逐次生成するデコーダを用いる。
論文 参考訳(メタデータ) (2020-02-16T09:22:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。