論文の概要: (Re)construing Meaning in NLP
- arxiv url: http://arxiv.org/abs/2005.09099v1
- Date: Mon, 18 May 2020 21:21:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 23:38:31.851974
- Title: (Re)construing Meaning in NLP
- Title(参考訳): (レ)NLPにおける意味論
- Authors: Sean Trott, Tiago Timponi Torrent, Nancy Chang, Nathan Schneider
- Abstract要約: 本研究では,情報伝達のコンセプト化やコンストラクションの異なる方法に,表現方法が反映されていることを示す。
提案手法は,NLPにおける理論的,実践的な作業に対して,コンストラクチュアルからの洞察がどのような影響を及ぼすかを示す。
- 参考スコア(独自算出の注目度): 15.37817898307963
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human speakers have an extensive toolkit of ways to express themselves. In
this paper, we engage with an idea largely absent from discussions of meaning
in natural language understanding--namely, that the way something is expressed
reflects different ways of conceptualizing or construing the information being
conveyed. We first define this phenomenon more precisely, drawing on
considerable prior work in theoretical cognitive semantics and
psycholinguistics. We then survey some dimensions of construed meaning and show
how insights from construal could inform theoretical and practical work in NLP.
- Abstract(参考訳): 人間の話者は、自分自身を表現するための幅広いツールキットを持っています。
本稿では,自然言語理解における意味の議論に欠ける概念について述べる。すなわち,表現の仕方が,伝達される情報の概念化や構成の方法の相違を反映していることを述べる。
最初にこの現象をより正確に定義し、理論認知意味論と精神言語学のかなり前の研究について考察した。
次に、いくつかの解釈された意味の次元を調査し、コンストラクトからの洞察がNLPにおける理論的および実践的な研究にどのように役立つかを示す。
関連論文リスト
- Neurosymbolic Graph Enrichment for Grounded World Models [47.92947508449361]
複雑な問題に対処するために, LLM の反応性を向上し, 活用するための新しいアプローチを提案する。
我々は,大規模言語モデルの強みと構造的意味表現を組み合わせた,多モーダルで知識を付加した意味の形式表現を作成する。
非構造化言語モデルと形式的意味構造とのギャップを埋めることで、自然言語理解と推論における複雑な問題に対処するための新たな道を開く。
論文 参考訳(メタデータ) (2024-11-19T17:23:55Z) - Learning Interpretable Concepts: Unifying Causal Representation Learning
and Foundation Models [51.43538150982291]
人間の解釈可能な概念をデータから学習する方法を研究する。
両分野からアイデアをまとめ、多様なデータから概念を確実に回収できることを示す。
論文 参考訳(メタデータ) (2024-02-14T15:23:59Z) - ConcEPT: Concept-Enhanced Pre-Training for Language Models [57.778895980999124]
ConcEPTは、概念知識を事前訓練された言語モデルに注入することを目的としている。
これは、事前訓練されたコンテキストで言及されたエンティティの概念を予測するために、外部エンティティの概念予測を利用する。
実験の結果,ConcEPTは概念強化事前学習により概念知識を向上することがわかった。
論文 参考訳(メタデータ) (2024-01-11T05:05:01Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - On the Computation of Meaning, Language Models and Incomprehensible Horrors [0.0]
我々は、意味の基本理論を、人工知能(AGI)の数学的形式主義と統合する。
我々の発見は、意味と知性の関係と、意味を理解して意図する機械を構築する方法に光を当てた。
論文 参考訳(メタデータ) (2023-04-25T09:41:00Z) - Conceptual structure coheres in human cognition but not in large
language models [7.405352374343134]
概念構造は, 文化, 言語, 推定方法の違いに対して堅牢であることを示す。
結果は、現代の大言語モデルと人間の認知の間に重要な違いを浮き彫りにしている。
論文 参考訳(メタデータ) (2023-04-05T21:27:01Z) - ConceptX: A Framework for Latent Concept Analysis [21.760620298330235]
本稿では,言語モデル(pLM)における潜在表現空間の解釈と注釈付けを行うための,ループ型ヒューマン・イン・ザ・ループ・フレームワークであるConceptXを提案する。
我々は、教師なしの手法を用いて、これらのモデルで学んだ概念を発見し、人間が概念の説明を生成するためのグラフィカルインターフェースを実現する。
論文 参考訳(メタデータ) (2022-11-12T11:31:09Z) - Human-Centered Concept Explanations for Neural Networks [47.71169918421306]
概念活性化ベクトル(Concept Activation Vectors, CAV)のクラスを含む概念的説明を紹介する。
次に、自動的に概念を抽出するアプローチと、それらの注意事項に対処するアプローチについて議論する。
最後に、このような概念に基づく説明が、合成設定や実世界の応用において有用であることを示すケーススタディについて論じる。
論文 参考訳(メタデータ) (2022-02-25T01:27:31Z) - Representing Inferences and their Lexicalization [7.081604594416339]
単語の意味は、それが進行中の状況に付加する実体、述語、述語、潜在的な推論であると考えられている。
単語が構成されるにつれて、状況における最小限のモデルは、制限と直接推論へと進化する。
論文 参考訳(メタデータ) (2021-12-14T19:23:43Z) - On Semantic Cognition, Inductive Generalization, and Language Models [0.2538209532048867]
私の研究は、自然言語のみを予測するために訓練されたニューラルネットワークモデル(言語モデルまたはLM)における意味的知識の理解に焦点を当てています。
そこで,本研究では,人間による背景知識の活用,帰納的跳躍,概念とその特性に関する新たな情報からの一般化,といった現象に着想を得た枠組みを提案する。
論文 参考訳(メタデータ) (2021-11-04T03:19:52Z) - Compositional Processing Emerges in Neural Networks Solving Math
Problems [100.80518350845668]
人工知能の最近の進歩は、大きなモデルが十分な言語データに基づいて訓練されると、文法構造が表現に現れることを示している。
我々は、この研究を数学的推論の領域にまで拡張し、どのように意味を構成するべきかについての正確な仮説を定式化することができる。
私たちの研究は、ニューラルネットワークがトレーニングデータに暗黙的に構造化された関係について何かを推測できるだけでなく、個々の意味の合成を合成全体へと導くために、この知識を展開できることを示している。
論文 参考訳(メタデータ) (2021-05-19T07:24:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。