論文の概要: A Pipeline For Discourse Circuits From CCG
- arxiv url: http://arxiv.org/abs/2311.17892v1
- Date: Wed, 29 Nov 2023 18:46:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-30 20:07:05.516275
- Title: A Pipeline For Discourse Circuits From CCG
- Title(参考訳): CCGによる談話回路用パイプライン
- Authors: Jonathon Liu, Razin A. Shaikh, Benjamin Rodatz, Richie Yeung and Bob
Coecke
- Abstract要約: DisCoCircは、自然言語のテキストを、テキストのコアセマンティック情報をキャプチャするサーキットとして表現する。
DisCoCircは、短期量子コンピュータで実装可能なNLPモデルを提供することを目標としている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There is a significant disconnect between linguistic theory and modern NLP
practice, which relies heavily on inscrutable black-box architectures.
DisCoCirc is a newly proposed model for meaning that aims to bridge this
divide, by providing neuro-symbolic models that incorporate linguistic
structure. DisCoCirc represents natural language text as a `circuit' that
captures the core semantic information of the text. These circuits can then be
interpreted as modular machine learning models. Additionally, DisCoCirc fulfils
another major aim of providing an NLP model that can be implemented on
near-term quantum computers.
In this paper we describe a software pipeline that converts English text to
its DisCoCirc representation. The pipeline achieves coverage over a large
fragment of the English language. It relies on Combinatory Categorial Grammar
(CCG) parses of the input text as well as coreference resolution information.
This semantic and syntactic information is used in several steps to convert the
text into a simply-typed $\lambda$-calculus term, and then into a circuit
diagram. This pipeline will enable the application of the DisCoCirc framework
to NLP tasks, using both classical and quantum approaches.
- Abstract(参考訳): 言語理論と現代のNLPの実践の間には大きな隔たりがあり、それは不可解なブラックボックスアーキテクチャに大きく依存している。
DisCoCircは、言語構造を組み込んだニューロシンボリックモデルを提供することにより、この分割を橋渡しすることを目的とした、新しい意味のモデルである。
DisCoCircは自然言語のテキストを 'circuit' として表現し、テキストの中核となる意味情報をキャプチャする。
これらの回路はモジュラー機械学習モデルとして解釈できる。
さらにDisCoCircは、短期量子コンピュータで実装可能なNLPモデルを提供するというもうひとつの大きな目標を達成している。
本稿では、英語のテキストをDisCoCirc表現に変換するソフトウェアパイプラインについて述べる。
このパイプラインは、英語の大きな断片をカバーしている。
これは、入力テキストのコンビネータ分類文法(ccg)と共参照解像度情報に依存する。
この意味的および構文的情報は、テキストを単に型付けされた$\lambda$-calculus項に変換し、次に回路図に変換するために、いくつかのステップで使用される。
このパイプラインは、古典的および量子的アプローチの両方を使用して、NLPタスクへのDisCoCircフレームワークの適用を可能にする。
関連論文リスト
- CoSTA: Code-Switched Speech Translation using Aligned Speech-Text Interleaving [61.73180469072787]
インド語から英語のテキストへのコード変更音声の音声翻訳(ST)の問題に焦点をあてる。
本稿では、事前訓練された自動音声認識(ASR)と機械翻訳(MT)モジュールを足場として、新しいエンドツーエンドモデルアーキテクチャCOSTAを提案する。
COSTAは、多くの競合するカスケードおよびエンドツーエンドのマルチモーダルベースラインを3.5BLEUポイントまで上回っている。
論文 参考訳(メタデータ) (2024-06-16T16:10:51Z) - Language-Oriented Communication with Semantic Coding and Knowledge
Distillation for Text-to-Image Generation [53.97155730116369]
我々は言語指向意味コミュニケーション(LSC)の新しい枠組みを提唱した。
LSCでは、機械は人間の言語メッセージを使って通信し、SC効率のために自然言語処理(NLP)技術を用いて解釈および操作することができる。
1) テキストプロンプトをキーヘッドワードに圧縮するセマンティック・ソース・コーディング(SSC)、2) セマンティック・チャネル・コーディング(SCC)、2) セマンティック・チャネル・コーディング(SCC)、3) セマンティック・ナレッジ・蒸留(SKD)、3) リスナーの言語学習を通じてリスナーに適応したプロンプトを生成するセマンティック・ナレッジ・蒸留(SKD)の3つの革新的なアルゴリズムを導入する。
論文 参考訳(メタデータ) (2023-09-20T08:19:05Z) - Scalable Learning of Latent Language Structure With Logical Offline
Cycle Consistency [71.42261918225773]
概念的には、LOCCOは、トレーニング対象のセマンティクスを使用してラベルなしテキストのアノテーションを生成する、自己学習の一形態と見なすことができる。
追加ボーナスとして、LOCCOによって生成されたアノテーションは、神経テキスト生成モデルをトレーニングするために自明に再利用することができる。
論文 参考訳(メタデータ) (2023-05-31T16:47:20Z) - CTC-based Non-autoregressive Speech Translation [51.37920141751813]
非自己回帰音声翻訳における接続性時間分類の可能性について検討する。
我々は、CTCによって誘導される2つのエンコーダからなるモデルを構築し、ソースおよびターゲットテキストを予測する。
MuST-Cベンチマークの実験では、我々のNASTモデルは平均BLEUスコアが29.5であり、スピードアップは5.67$times$である。
論文 参考訳(メタデータ) (2023-05-27T03:54:09Z) - Variational Quantum Classifiers for Natural-Language Text [0.8722210937404288]
変分量子テキスト分類器(VQTC)に対する3つの潜在的アプローチについて議論する。
1つ目は、テキストをタスク固有の文重み付けを伴う独立した文のグループとして扱う重み付けされたbag-of-sencesアプローチである。
第2のアプローチは、テキストをコア参照を解決したメンバ文の統合として扱う、コア参照解決アプローチである。
一方,第3のアプローチは,文の順序付けと文の意味の合成における単語の相互作用を考慮したDisCoCircモデルに基づいている。
論文 参考訳(メタデータ) (2023-03-04T18:00:05Z) - Category Theory for Quantum Natural Language Processing [0.0]
この論文は、計算言語学と量子力学の類似に基づく量子自然言語処理(QNLP)モデルを導入する。
テキストと文の文法構造は、絡み合い構造が量子系の状態を接続するのと同じように、単語の意味を接続する。
この抽象的なアナロジーを具体的なアルゴリズムに変換し、文法構造をパラメータ化量子回路のアーキテクチャに変換する。
次に、ハイブリッドな古典量子アルゴリズムを用いて、データ駆動タスクにおける文の意味を回路評価によって計算できるようにモデルを訓練する。
論文 参考訳(メタデータ) (2022-12-13T14:38:57Z) - A multiclass Q-NLP sentiment analysis experiment using DisCoCat [0.0]
我々は、DisCoCatの言語モデルを用いて、NISQ(Noisy Intermediate Scale Computing)時代の感情分析に取り組む。
まず量子コンピューティングの基礎とDisCoCatモデルを示す。
これにより、量子コンピュータ上でNLPタスクを実行するための一般的なフレームワークを定義することができる。
論文 参考訳(メタデータ) (2022-09-07T13:47:35Z) - End-to-End Speech Translation for Code Switched Speech [13.97982457879585]
コードスイッチング(英: Code switch, CS)とは、異なる言語の単語やフレーズを相互に使用する現象である。
我々は,音声翻訳作業(ST)における英語とスペイン語の会話の文脈において,CSに着目し,書き起こしと翻訳の両方を生成・評価する。
我々のSTアーキテクチャ、特に双方向のエンドツーエンドアーキテクチャは、CS訓練データを使用しなくても、CS音声でよく機能することを示す。
論文 参考訳(メタデータ) (2022-04-11T13:25:30Z) - Knowledge Transfer from Large-scale Pretrained Language Models to
End-to-end Speech Recognizers [13.372686722688325]
エンドツーエンド音声認識の訓練には、常に書き起こされた発話が必要である。
本稿では,テキストのみのデータで事前学習可能な言語モデルニューラルネットワークから知識を伝達することで,この問題を緩和する手法を提案する。
論文 参考訳(メタデータ) (2022-02-16T07:02:24Z) - Coreferential Reasoning Learning for Language Representation [88.14248323659267]
本稿では,コンテキスト内でコアファーデンシャル関係をキャプチャ可能な新しい言語表現モデルCorefBERTを提案する。
実験の結果,既存のベースラインモデルと比較して,CorefBERTは下流のNLPタスクにおいて一貫した大幅な改善を達成できることがわかった。
論文 参考訳(メタデータ) (2020-04-15T03:57:45Z) - Bi-Decoder Augmented Network for Neural Machine Translation [108.3931242633331]
本稿では,ニューラルマシン翻訳タスクのためのBi-Decoder Augmented Network (BiDAN)を提案する。
各デコーダは入力されたテキストの表現を対応する言語に変換するため、2つの目的語と共同でトレーニングすることで、共有エンコーダは言語に依存しない意味空間を生成することができる。
論文 参考訳(メタデータ) (2020-01-14T02:05:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。