論文の概要: Integrating Symbolic Natural Language Understanding and Language Models for Word Sense Disambiguation
- arxiv url: http://arxiv.org/abs/2511.16577v1
- Date: Thu, 20 Nov 2025 17:32:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-21 17:08:52.761959
- Title: Integrating Symbolic Natural Language Understanding and Language Models for Word Sense Disambiguation
- Title(参考訳): 単語センスの曖昧化のための記号的自然言語理解と言語モデルの統合
- Authors: Kexin Zhao, Ken Forbus,
- Abstract要約: 本稿では,統計的言語モデルを用いて曖昧さを解消する手法を提案する。
記号的NLUシステムによって生成される複数の候補意味は、区別可能な自然言語代替語に変換される。
本手法の有効性を実証するため,本手法の評価を行った。
- 参考スコア(独自算出の注目度): 0.7967000209136494
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Word sense disambiguation is a fundamental challenge in natural language understanding. Current methods are primarily aimed at coarse-grained representations (e.g. WordNet synsets or FrameNet frames) and require hand-annotated training data to construct. This makes it difficult to automatically disambiguate richer representations (e.g. built on OpenCyc) that are needed for sophisticated inference. We propose a method that uses statistical language models as oracles for disambiguation that does not require any hand-annotation of training data. Instead, the multiple candidate meanings generated by a symbolic NLU system are converted into distinguishable natural language alternatives, which are used to query an LLM to select appropriate interpretations given the linguistic context. The selected meanings are propagated back to the symbolic NLU system. We evaluate our method against human-annotated gold answers to demonstrate its effectiveness.
- Abstract(参考訳): 言葉感覚の曖昧さは、自然言語理解における根本的な課題である。
現在のメソッドは主に粗い粒度の表現(例えばWordNetシンセセットやFrameNetフレーム)を対象としており、手書きのトレーニングデータを構築する必要がある。
これにより、洗練された推論に必要なリッチな表現(例えばOpenCyc上に構築された)を自動的に曖昧にすることは困難になります。
本稿では, 統計的言語モデルを用いて, 学習データの手書きアノテーションを必要としない曖昧さを解消する手法を提案する。
代わりに、記号的NLUシステムによって生成される複数の候補意味を区別可能な自然言語代替語に変換し、LLMをクエリして言語コンテキストが与えられた適切な解釈を選択する。
選択された意味は、象徴的NLUシステムに伝達される。
本手法の有効性を実証するため,本手法の評価を行った。
関連論文リスト
- LANE: Lexical Adversarial Negative Examples for Word Sense Disambiguation [3.506940838682547]
きめ細かい単語の意味論は、ニューラルネットワークモデルにとって依然として重要な課題である。
本稿では,この制限に対処するため,LANEと呼ばれる新たな対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2025-11-14T12:37:20Z) - Temporal Sparse Autoencoders: Leveraging the Sequential Nature of Language for Interpretability [31.30541946703775]
モデルの内部表現と計算を人間が理解できる概念に変換することが、解釈可能性の重要な目標である。
スパースオートエンコーダのような最近の辞書学習手法は、人間の解釈可能な特徴を発見するための有望な経路を提供する。
しかし、彼らは「文の始めの「The」というフレーズ」のような浅い、トークン特有の、または騒々しい特徴に偏りを呈している。
論文 参考訳(メタデータ) (2025-10-30T17:59:30Z) - Pixel Sentence Representation Learning [67.4775296225521]
本研究では,視覚表現学習プロセスとして,文レベルのテキスト意味論の学習を概念化する。
タイポスや単語順シャッフルのような視覚的に接地されたテキスト摂動法を採用し、人間の認知パターンに共鳴し、摂動を連続的に認識できるようにする。
我々のアプローチは、大規模に教師なしのトピックアライメントトレーニングと自然言語推論監督によってさらに強化されている。
論文 参考訳(メタデータ) (2024-02-13T02:46:45Z) - Reasoning about Ambiguous Definite Descriptions [2.5398014196797605]
自然言語推論は、複雑な言語理解タスクを解く言語モデルの能力を改善する上で重要な役割を果たす。
言語におけるあいまいさを解決するために、大規模言語モデルが明示的な推論をどの程度有効に活用できるかを評価するためのリソースは存在しない。
この目的のためにあいまいな明確な記述を用い、そのようなフレーズからなる最初のベンチマークデータセットを作成し、公開することを提案する。
論文 参考訳(メタデータ) (2023-10-23T07:52:38Z) - APOLLO: A Simple Approach for Adaptive Pretraining of Language Models
for Logical Reasoning [73.3035118224719]
本稿では,論理的推論能力を改善した適応事前学習型言語モデルAPOLLOを提案する。
APOLLOはReClorで比較可能であり、LogiQAでベースラインを上回ります。
論文 参考訳(メタデータ) (2022-12-19T07:40:02Z) - Syntactic Substitutability as Unsupervised Dependency Syntax [31.488677474152794]
依存関係関係や構文置換可能性の定義において、より一般的な性質を暗黙的にモデル化する。
この性質は、依存関係の両端にある単語が、同じカテゴリの単語で置き換えられるという事実を捉えている。
使用する代替品の数を増やすことで、自然データに対する解析精度が向上することを示す。
論文 参考訳(メタデータ) (2022-11-29T09:01:37Z) - Transparency Helps Reveal When Language Models Learn Meaning [71.96920839263457]
合成データを用いた体系的な実験により,すべての表現が文脈に依存しない意味を持つ言語では,自己回帰型とマスキング型の両方の言語モデルが,表現間の意味的関係をエミュレートする。
自然言語に目を向けると、特定の現象(参照不透明さ)による実験は、現在の言語モデルが自然言語の意味論をうまく表現していないという証拠を増大させる。
論文 参考訳(メタデータ) (2022-10-14T02:35:19Z) - Infusing Finetuning with Semantic Dependencies [62.37697048781823]
シンタックスとは異なり、セマンティクスは今日の事前訓練モデルによって表面化されないことを示す。
次に、畳み込みグラフエンコーダを使用して、タスク固有の微調整にセマンティック解析を明示的に組み込む。
論文 参考訳(メタデータ) (2020-12-10T01:27:24Z) - Word Sense Disambiguation for 158 Languages using Word Embeddings Only [80.79437083582643]
文脈における単語感覚の曖昧さは人間にとって容易であるが、自動的アプローチでは大きな課題である。
本稿では,学習前の標準単語埋め込みモデルを入力として,完全に学習した単語認識のインベントリを誘導する手法を提案する。
この手法を用いて、158の言語に対して、事前訓練されたfastText単語の埋め込みに基づいて、センスインベントリのコレクションを誘導する。
論文 参考訳(メタデータ) (2020-03-14T14:50:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。