論文の概要: Natural Language Decompositions of Implicit Content Enable Better Text
Representations
- arxiv url: http://arxiv.org/abs/2305.14583v2
- Date: Wed, 25 Oct 2023 00:08:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-26 20:53:38.863261
- Title: Natural Language Decompositions of Implicit Content Enable Better Text
Representations
- Title(参考訳): 文表現の改善を可能にするインプシットコンテンツの自然言語分解
- Authors: Alexander Hoyle, Rupak Sarkar, Pranav Goel, Philip Resnik
- Abstract要約: 本稿では,暗黙的に伝達されたコンテンツを明示的に考慮したテキスト分析手法を提案する。
我々は大きな言語モデルを用いて、観察されたテキストと推論的に関係する命題の集合を生成する。
本研究は,NLPにおいて,文字のみではなく,観察された言語の背景にある意味をモデル化することが重要であることを示唆する。
- 参考スコア(独自算出の注目度): 56.85319224208865
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: When people interpret text, they rely on inferences that go beyond the
observed language itself. Inspired by this observation, we introduce a method
for the analysis of text that takes implicitly communicated content explicitly
into account. We use a large language model to produce sets of propositions
that are inferentially related to the text that has been observed, then
validate the plausibility of the generated content via human judgments.
Incorporating these explicit representations of implicit content proves useful
in multiple problem settings that involve the human interpretation of
utterances: assessing the similarity of arguments, making sense of a body of
opinion data, and modeling legislative behavior. Our results suggest that
modeling the meanings behind observed language, rather than the literal text
alone, is a valuable direction for NLP and particularly its applications to
social science.
- Abstract(参考訳): テキストを解釈する際には、観察された言語自体を超える推論に依存する。
この観察に触発されて,暗黙的に伝達されるコンテンツを明示的に考慮したテキスト分析手法を提案する。
大規模言語モデルを用いて、観察されたテキストと推論的に関連のある命題のセットを作成し、人間の判断によって生成されたコンテンツの妥当性を検証する。
これらの暗黙的コンテンツの明示的な表現は、議論の類似性の評価、意見データの意味付け、立法行動のモデル化など、発話の人間の解釈を含む複数の問題設定において有用である。
本研究は,NLP,特に社会科学への応用において,リテラルテキストのみではなく,観察言語の背後にある意味をモデル化することが有用であることを示す。
関連論文リスト
- Interpretation modeling: Social grounding of sentences by reasoning over
their implicit moral judgments [24.133419857271505]
単一のゴールド標準解釈はほとんど存在せず、自然言語処理における従来の仮定に挑戦する。
この研究は、文の基本的意味論のいくつかの解釈をモデル化することを含む解釈モデリング(IM)タスクを導入する。
実験と分析をサポートするために、第一種IMデータセットがキュレーションされている。
論文 参考訳(メタデータ) (2023-11-27T07:50:55Z) - How Well Do Text Embedding Models Understand Syntax? [50.440590035493074]
テキスト埋め込みモデルが幅広い構文的文脈にまたがって一般化する能力は、まだ解明されていない。
その結果,既存のテキスト埋め込みモデルは,これらの構文的理解課題に十分対応していないことが明らかとなった。
多様な構文シナリオにおけるテキスト埋め込みモデルの一般化能力を高めるための戦略を提案する。
論文 参考訳(メタデータ) (2023-11-14T08:51:00Z) - SenteCon: Leveraging Lexicons to Learn Human-Interpretable Language
Representations [51.08119762844217]
SenteConは、深層言語表現に人間の解釈可能性を導入する方法である。
SenteConは、下流タスクにおける予測性能にほとんど、あるいは全くコストをかからない高レベルな解釈性を提供する。
論文 参考訳(メタデータ) (2023-05-24T05:06:28Z) - An Inclusive Notion of Text [69.36678873492373]
テキストの概念の明確さは再現可能で一般化可能なNLPにとって不可欠である,と我々は主張する。
言語的および非言語的要素の2層分類を導入し,NLPモデリングに使用することができる。
論文 参考訳(メタデータ) (2022-11-10T14:26:43Z) - Transparency Helps Reveal When Language Models Learn Meaning [71.96920839263457]
合成データを用いた体系的な実験により,すべての表現が文脈に依存しない意味を持つ言語では,自己回帰型とマスキング型の両方の言語モデルが,表現間の意味的関係をエミュレートする。
自然言語に目を向けると、特定の現象(参照不透明さ)による実験は、現在の言語モデルが自然言語の意味論をうまく表現していないという証拠を増大させる。
論文 参考訳(メタデータ) (2022-10-14T02:35:19Z) - Improve Discourse Dependency Parsing with Contextualized Representations [28.916249926065273]
本稿では,異なるレベルの単位の文脈化表現を符号化するトランスフォーマーの活用を提案する。
記事間で共通に共有される記述パターンの観察に動機付けられ,談話関係の識別をシーケンスラベリングタスクとして扱う新しい手法を提案する。
論文 参考訳(メタデータ) (2022-05-04T14:35:38Z) - A Latent-Variable Model for Intrinsic Probing [93.62808331764072]
固有プローブ構築のための新しい潜在変数定式化を提案する。
我々は、事前訓練された表現が言語間交互に絡み合ったモルフォシンタクスの概念を発達させる経験的証拠を見出した。
論文 参考訳(メタデータ) (2022-01-20T15:01:12Z) - A Dataset for Statutory Reasoning in Tax Law Entailment and Question
Answering [37.66486350122862]
本稿では,法定推論における自然言語理解手法の性能について検討する。
我々は、法的ドメインのテキストコーパスとともにデータセットを導入する。
タスクを完全に解くように設計された手作りPrologベースのシステムと対比する。
論文 参考訳(メタデータ) (2020-05-11T16:54:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。