論文の概要: Could the Road to Grounded, Neuro-symbolic AI be Paved with Words-as-Classifiers?
- arxiv url: http://arxiv.org/abs/2507.06335v1
- Date: Tue, 08 Jul 2025 18:44:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-10 17:37:43.361422
- Title: Could the Road to Grounded, Neuro-symbolic AI be Paved with Words-as-Classifiers?
- Title(参考訳): ニューロシンボリックAIへの道は「言葉」で舗装されるのか?
- Authors: Casey Kennington, David Schlangen,
- Abstract要約: 3つのセマンティックフィールドを統一する1つの潜在的経路が、ワード・アズ・クラシファイア・モデルによって舗装されていると仮定する。
我々は、この文献をレビューし、認知科学における最近の研究にアピールして、単語・アズ・クラシファイアのモデルを動機付け、小さな実験を記述した。
- 参考スコア(独自算出の注目度): 16.12935949253909
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Formal, Distributional, and Grounded theories of computational semantics each have their uses and their drawbacks. There has been a shift to ground models of language by adding visual knowledge, and there has been a call to enrich models of language with symbolic methods to gain the benefits from formal, distributional, and grounded theories. In this paper, we attempt to make the case that one potential path forward in unifying all three semantic fields is paved with the words-as-classifier model, a model of word-level grounded semantics that has been incorporated into formalisms and distributional language models in the literature, and it has been well-tested within interactive dialogue settings. We review that literature, motivate the words-as-classifiers model with an appeal to recent work in cognitive science, and describe a small experiment. Finally, we sketch a model of semantics unified through words-as-classifiers.
- Abstract(参考訳): 計算意味論の形式的、分布的、基底的理論は、それぞれその用途と欠点を持っている。
視覚的知識を加えることで言語基底モデルにシフトし、形式的、分布的、基礎的な理論から恩恵を得るために、記号的手法で言語モデルを強化するよう呼びかけてきた。
本稿では,3つのセマンティックフィールドを統一する1つの潜在的経路が,文中の形式主義や分布言語モデルに組み込まれ,対話的対話設定において十分に検証された単語レベルの基底的セマンティクスのモデルであるワード・アズ・クラシファイア・モデルによって舗装されていることを示す。
我々は、この文献をレビューし、認知科学における最近の研究にアピールして、単語・アズ・クラシファイアのモデルを動機付け、小さな実験を記述した。
最後に、単語・アズ・クラシファイアを通して統合された意味論のモデルをスケッチする。
関連論文リスト
- A Distributional Perspective on Word Learning in Neural Language Models [57.41607944290822]
言語モデルにおける単語学習のための広く合意されたメトリクスは存在しない。
我々は、先行研究で研究された分布シグネチャは、重要な分布情報の取得に失敗すると主張している。
我々は、スクラッチから訓練する小さな言語モデルを選択するための学習軌跡を得る。
論文 参考訳(メタデータ) (2025-02-09T13:15:59Z) - Collapsed Language Models Promote Fairness [88.48232731113306]
偏りのある言語モデルはトークン表現と単語埋め込みの間に崩壊したアライメントを示す。
我々は,幅広い脱バイアス法において,公平性を効果的に向上する原理的な微調整法を設計する。
論文 参考訳(メタデータ) (2024-10-06T13:09:48Z) - Entailment Semantics Can Be Extracted from an Ideal Language Model [32.5500309433108]
文間の係り受け判断が理想的な言語モデルから抽出できることを実証する。
また,これらのデータに基づいて学習した言語モデルの予測から,包含判断を復号化できることを示す。
論文 参考訳(メタデータ) (2022-09-26T04:16:02Z) - Language Acquisition is Embodied, Interactive, Emotive: a Research
Proposal [2.639737913330821]
音声対話の対話的設定における具体化と感情の役割に関する文献を,児童の言語学習に必要な前提条件として検討する。
我々は,現在のトランスフォーマーモデルと単語レベルの基底モデルを利用する意味論のモデルをスケッチし,私たちの意味モデルを利用するロボット対話システムを説明する。
論文 参考訳(メタデータ) (2021-05-10T19:40:17Z) - Provable Limitations of Acquiring Meaning from Ungrounded Form: What
will Future Language Models Understand? [87.20342701232869]
未知のシステムが意味を習得する能力について検討する。
アサーションによってシステムが等価性のような意味関係を保存する表現をエミュレートできるかどうか検討する。
言語内のすべての表現が参照的に透明であれば,アサーションによってセマンティックエミュレーションが可能になる。
しかし、言語が変数バインディングのような非透過的なパターンを使用する場合、エミュレーションは計算不能な問題になる可能性がある。
論文 参考訳(メタデータ) (2021-04-22T01:00:17Z) - Lexical semantic change for Ancient Greek and Latin [61.69697586178796]
歴史的文脈における単語の正しい意味の連想は、ダイアクロニック研究の中心的な課題である。
我々は、動的ベイズ混合モデルに基づくセマンティック変化に対する最近の計算的アプローチに基づいて構築する。
本研究では,動的ベイズ混合モデルと最先端埋め込みモデルとのセマンティックな変化を系統的に比較する。
論文 参考訳(メタデータ) (2021-01-22T12:04:08Z) - A Neural Generative Model for Joint Learning Topics and Topic-Specific
Word Embeddings [42.87769996249732]
共同学習トピックとトピック固有の単語埋め込みのための局所的・グローバル的文脈を探索する新しい生成モデルを提案する。
訓練されたモデルは、単語を話題に依存した埋め込みにマッピングする。
論文 参考訳(メタデータ) (2020-08-11T13:54:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。