論文の概要: A Model of Anaphoric Ambiguities using Sheaf Theoretic Quantum-like
Contextuality and BERT
- arxiv url: http://arxiv.org/abs/2208.05720v1
- Date: Thu, 11 Aug 2022 09:31:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-12 12:50:46.559588
- Title: A Model of Anaphoric Ambiguities using Sheaf Theoretic Quantum-like
Contextuality and BERT
- Title(参考訳): せん断理論量子様条件とBERTを用いたアナフォリック曖昧性のモデル
- Authors: Kin Ian Lo (University College London, London, UK), Mehrnoosh
Sadrzadeh (University College London, London, UK), Shane Mansfield (Quandela,
Paris, France)
- Abstract要約: 我々は、量子的文脈性を示すアナフォリック曖昧性のためのスキーマを構築する。
次に、ニューラルネットワーク埋め込みエンジンBERTを利用して、スキーマを自然言語の例にインスタンス化する。
我々の希望は、これらの例が将来の研究の道を開くことであり、量子コンピューティングの応用を自然言語処理に拡張する方法を見つけることだ。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ambiguities of natural language do not preclude us from using it and context
helps in getting ideas across. They, nonetheless, pose a key challenge to the
development of competent machines to understand natural language and use it as
humans do. Contextuality is an unparalleled phenomenon in quantum mechanics,
where different mathematical formalisms have been put forwards to understand
and reason about it. In this paper, we construct a schema for anaphoric
ambiguities that exhibits quantum-like contextuality. We use a recently
developed criterion of sheaf-theoretic contextuality that is applicable to
signalling models. We then take advantage of the neural word embedding engine
BERT to instantiate the schema to natural language examples and extract
probability distributions for the instances. As a result, plenty of
sheaf-contextual examples were discovered in the natural language corpora BERT
utilises. Our hope is that these examples will pave the way for future research
and for finding ways to extend applications of quantum computing to natural
language processing.
- Abstract(参考訳): 自然言語の曖昧さは、それを使うのを妨げず、コンテキストがアイデアを横断するのに役立ちます。
それでも彼らは、自然言語を理解し、人間と同じようにそれを使う能力のある機械の開発に重要な挑戦をしている。
文脈性(Contextuality)は、量子力学において、異なる数学的形式主義が、その理解と推論のために推進された、例外のない現象である。
本稿では,量子的文脈性を示すアナフォリック曖昧性のスキーマを構築する。
我々は近年,シグナリングモデルに適用可能なせん断理論的文脈性の基準を用いている。
次に、ニューラルネットワーク埋め込みエンジンBERTを利用して、スキーマを自然言語の例にインスタンス化し、インスタンスの確率分布を抽出する。
その結果、自然言語のcorpora BERT ユーティリティで多くの層-文脈例が発見された。
これらの例が将来の研究の道を開き、量子コンピューティングを自然言語処理に拡張する方法を見つけることを期待しています。
関連論文リスト
- A Quantum-Inspired Analysis of Human Disambiguation Processes [0.0]
この論文では、基礎量子力学から生じる形式主義を言語学から生じるあいまいさの研究に適用する。
その後、人間の行動予測や現在のNLP法よりも優れた結果が得られた。
論文 参考訳(メタデータ) (2024-08-14T09:21:23Z) - Quantum Natural Language Processing [0.03495246564946555]
言語処理は、人工知能の現在の発展の中心にある。
本稿は,NLP関連技術が量子言語処理にどのように使われているかを示す。
論文 参考訳(メタデータ) (2024-03-28T18:15:07Z) - Large Language Models for Scientific Synthesis, Inference and
Explanation [56.41963802804953]
大規模言語モデルがどのように科学的合成、推論、説明を行うことができるかを示す。
我々は,この「知識」を科学的文献から合成することで,大きな言語モデルによって強化できることを示す。
このアプローチは、大きな言語モデルが機械学習システムの予測を説明することができるというさらなる利点を持っている。
論文 参考訳(メタデータ) (2023-10-12T02:17:59Z) - From Word Models to World Models: Translating from Natural Language to
the Probabilistic Language of Thought [124.40905824051079]
言語インフォームド・シンキングのための計算フレームワークである「構成」を合理的に提案する。
我々は、自然言語から確率論的思考言語への文脈感応的なマッピングとして、言語の意味を定式化する。
LLMは、現実的に適切な言語的意味をキャプチャする文脈依存翻訳を生成することができることを示す。
認知的なモチベーションを持つシンボリックモジュールを統合するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2023-06-22T05:14:00Z) - Transparency Helps Reveal When Language Models Learn Meaning [71.96920839263457]
合成データを用いた体系的な実験により,すべての表現が文脈に依存しない意味を持つ言語では,自己回帰型とマスキング型の両方の言語モデルが,表現間の意味的関係をエミュレートする。
自然言語に目を向けると、特定の現象(参照不透明さ)による実験は、現在の言語モデルが自然言語の意味論をうまく表現していないという証拠を増大させる。
論文 参考訳(メタデータ) (2022-10-14T02:35:19Z) - A Quantum Natural Language Processing Approach to Pronoun Resolution [1.5293427903448022]
我々はLambek Calculusを用いて、アナフォラやエリプシスのような談話関係をモデル化し、推論する。
この論理のセマンティクスは, これまでの研究で開発された truncated Fock 空間を用いて得られる。
既存の変換をFock空間に拡張し、談話関係のための量子回路意味論を開発する。
論文 参考訳(メタデータ) (2022-08-10T15:22:58Z) - On the probability-quality paradox in language generation [76.69397802617064]
我々は情報理論レンズを用いて言語生成を分析する。
人間の言語は自然文字列上の分布のエントロピーに近い量の情報を含むべきであると仮定する。
論文 参考訳(メタデータ) (2022-03-31T17:43:53Z) - Linking Emergent and Natural Languages via Corpus Transfer [98.98724497178247]
創発言語と自然言語のコーパス転送によるリンクを確立する新しい方法を提案する。
このアプローチでは,言語モデリングとイメージキャプションという,2つの異なるタスクに対して,非自明な転送メリットを示す。
また,同一画像に基づく自然言語キャプションに創発的メッセージを翻訳することで,創発的言語の伝達可能性を予測する新しい指標を提案する。
論文 参考訳(メタデータ) (2022-03-24T21:24:54Z) - Towards Zero-shot Language Modeling [90.80124496312274]
人間の言語学習に誘導的に偏りを持つニューラルモデルを構築した。
類型的に多様な訓練言語のサンプルからこの分布を推測する。
我々は、保留言語に対する遠隔監視として、追加の言語固有の側情報を利用する。
論文 参考訳(メタデータ) (2021-08-06T23:49:18Z) - On the Quantum-like Contextuality of Ambiguous Phrases [2.6381163133447836]
あいまいな句の組合せは、量子的文脈性のための層理論の枠組みでモデル化できることを示す。
CbD (Contextuality-by-Default) の枠組みを用いて、これらの確率的変異を探索し、CbD-contextuality も可能であることを示す。
論文 参考訳(メタデータ) (2021-07-19T13:23:42Z) - Towards Coinductive Models for Natural Language Understanding. Bringing
together Deep Learning and Deep Semantics [0.0]
Coinductionはオペレーティング システムおよびプログラミング言語の設計で首尾よく使用されました。
テキストマイニングや機械翻訳、インテンシティリティやモダリティをモデル化するいくつかの試みに存在している。
本稿では,自然言語処理における帰納と造語の組み合わせの例を示す。
論文 参考訳(メタデータ) (2020-12-09T03:10:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。