論文の概要: Making the Implicit Explicit: Implicit Content as a First Class Citizen
in NLP
- arxiv url: http://arxiv.org/abs/2305.14583v1
- Date: Tue, 23 May 2023 23:45:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-25 21:07:23.619515
- Title: Making the Implicit Explicit: Implicit Content as a First Class Citizen
in NLP
- Title(参考訳): 暗黙の明示化: nlpの第一級市民としての暗黙のコンテンツ
- Authors: Alexander Hoyle, Rupak Sarkar, Pranav Goel, Philip Resnik
- Abstract要約: 言語を表現し、LLMを指示して、発話を論理的かつ妥当な推論に分解する。
我々の手法のバリエーションは、文埋め込みベンチマークの最先端の改善、計算政治学の実体的応用、新しい構成発見プロセスに繋がる。
- 参考スコア(独自算出の注目度): 81.15470302729638
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Language is multifaceted. A given utterance can be re-expressed in equivalent
forms, and its implicit and explicit content support various logical and
pragmatic inferences. When processing an utterance, we consider these different
aspects, as mediated by our interpretive goals -- understanding that "it's dark
in here" may be a veiled direction to turn on a light. Nonetheless, NLP methods
typically operate over the surface form alone, eliding this nuance.
In this work, we represent language with language, and direct an LLM to
decompose utterances into logical and plausible inferences. The reduced
complexity of the decompositions makes them easier to embed, opening up novel
applications. Variations on our technique lead to state-of-the-art improvements
on sentence embedding benchmarks, a substantive application in computational
political science, and to a novel construct-discovery process, which we
validate with human annotations.
- Abstract(参考訳): 言語は多面的である。
与えられた発話は等価な形式で再表現することができ、その暗黙的および明示的な内容は様々な論理的および実用的推論をサポートする。
発話を処理するとき、私たちはこれらの異なる側面を、解釈的な目標によって媒介されていると考えます。
それでも、NLP法は通常、表面の形状だけで動作し、このニュアンスを導く。
本研究では、言語を言語で表現し、llmに発話を論理的かつ妥当な推論に分解させるよう指示する。
分解の複雑さの低減により、埋め込みが容易になり、新しいアプリケーションを開く。
この手法のバリエーションは文埋め込みベンチマークの最先端の改善、計算政治科学における実証的応用、そして人間のアノテーションで検証する新しい構成発見プロセスに繋がる。
関連論文リスト
- Interpretation modeling: Social grounding of sentences by reasoning over
their implicit moral judgments [24.133419857271505]
単一のゴールド標準解釈はほとんど存在せず、自然言語処理における従来の仮定に挑戦する。
この研究は、文の基本的意味論のいくつかの解釈をモデル化することを含む解釈モデリング(IM)タスクを導入する。
実験と分析をサポートするために、第一種IMデータセットがキュレーションされている。
論文 参考訳(メタデータ) (2023-11-27T07:50:55Z) - How Well Do Text Embedding Models Understand Syntax? [50.440590035493074]
テキスト埋め込みモデルが幅広い構文的文脈にまたがって一般化する能力は、まだ解明されていない。
その結果,既存のテキスト埋め込みモデルは,これらの構文的理解課題に十分対応していないことが明らかとなった。
多様な構文シナリオにおけるテキスト埋め込みモデルの一般化能力を高めるための戦略を提案する。
論文 参考訳(メタデータ) (2023-11-14T08:51:00Z) - SenteCon: Leveraging Lexicons to Learn Human-Interpretable Language
Representations [51.08119762844217]
SenteConは、深層言語表現に人間の解釈可能性を導入する方法である。
SenteConは、下流タスクにおける予測性能にほとんど、あるいは全くコストをかからない高レベルな解釈性を提供する。
論文 参考訳(メタデータ) (2023-05-24T05:06:28Z) - An Inclusive Notion of Text [69.36678873492373]
テキストの概念の明確さは再現可能で一般化可能なNLPにとって不可欠である,と我々は主張する。
言語的および非言語的要素の2層分類を導入し,NLPモデリングに使用することができる。
論文 参考訳(メタデータ) (2022-11-10T14:26:43Z) - Transparency Helps Reveal When Language Models Learn Meaning [71.96920839263457]
合成データを用いた体系的な実験により,すべての表現が文脈に依存しない意味を持つ言語では,自己回帰型とマスキング型の両方の言語モデルが,表現間の意味的関係をエミュレートする。
自然言語に目を向けると、特定の現象(参照不透明さ)による実験は、現在の言語モデルが自然言語の意味論をうまく表現していないという証拠を増大させる。
論文 参考訳(メタデータ) (2022-10-14T02:35:19Z) - Improve Discourse Dependency Parsing with Contextualized Representations [28.916249926065273]
本稿では,異なるレベルの単位の文脈化表現を符号化するトランスフォーマーの活用を提案する。
記事間で共通に共有される記述パターンの観察に動機付けられ,談話関係の識別をシーケンスラベリングタスクとして扱う新しい手法を提案する。
論文 参考訳(メタデータ) (2022-05-04T14:35:38Z) - A Latent-Variable Model for Intrinsic Probing [93.62808331764072]
固有プローブ構築のための新しい潜在変数定式化を提案する。
我々は、事前訓練された表現が言語間交互に絡み合ったモルフォシンタクスの概念を発達させる経験的証拠を見出した。
論文 参考訳(メタデータ) (2022-01-20T15:01:12Z) - A Dataset for Statutory Reasoning in Tax Law Entailment and Question
Answering [37.66486350122862]
本稿では,法定推論における自然言語理解手法の性能について検討する。
我々は、法的ドメインのテキストコーパスとともにデータセットを導入する。
タスクを完全に解くように設計された手作りPrologベースのシステムと対比する。
論文 参考訳(メタデータ) (2020-05-11T16:54:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。