論文の概要: Natural Language Generation Using Link Grammar for General
Conversational Intelligence
- arxiv url: http://arxiv.org/abs/2105.00830v1
- Date: Mon, 19 Apr 2021 06:16:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-04 20:44:00.355492
- Title: Natural Language Generation Using Link Grammar for General
Conversational Intelligence
- Title(参考訳): 汎用会話知能のためのリンク文法を用いた自然言語生成
- Authors: Vignav Ramesh, Anton Kolonin
- Abstract要約: Link Grammarデータベースを用いて,文法的に有効な文を自動的に生成する手法を提案する。
この自然言語生成方法は、最先端のベースラインをはるかに上回り、プロトAGI質問応答パイプラインの最終コンポーネントとして機能する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many current artificial general intelligence (AGI) and natural language
processing (NLP) architectures do not possess general conversational
intelligence--that is, they either do not deal with language or are unable to
convey knowledge in a form similar to the human language without manual,
labor-intensive methods such as template-based customization. In this paper, we
propose a new technique to automatically generate grammatically valid sentences
using the Link Grammar database. This natural language generation method far
outperforms current state-of-the-art baselines and may serve as the final
component in a proto-AGI question answering pipeline that understandably
handles natural language material.
- Abstract(参考訳): 現在の人工知能(agi)や自然言語処理(nlp)アーキテクチャの多くは、一般的な会話知性を持っていない。つまり、言語を扱わないか、あるいはテンプレートベースのカスタマイズのような手作業集約的な手法を使わずに、人間の言語に似た形で知識を伝達できないかのどちらかである。
本稿では,リンク文法データベースを用いて文法的に有効な文を自動的に生成する手法を提案する。
この自然言語生成方法は、現在最先端のベースラインをはるかに上回り、自然言語素材を理解できるAGI質問応答パイプラインの最終コンポーネントとして機能する。
関連論文リスト
- Putting Natural in Natural Language Processing [11.746833714322156]
NLPの分野は、音声言語よりも文字処理に重点を置いている。
近年の深層学習の進歩は,音声処理と主流NLPの手法に顕著な収束をもたらしている。
真に自然言語処理は、他の言語科学とのより良い統合につながる可能性がある。
論文 参考訳(メタデータ) (2023-05-08T09:29:31Z) - Language Models as Inductive Reasoners [125.99461874008703]
本稿では,帰納的推論のための新しいパラダイム(タスク)を提案し,自然言語の事実から自然言語規則を誘導する。
タスクのための1.2kルールファクトペアを含むデータセットDEERを作成し,ルールと事実を自然言語で記述する。
我々は、事前訓練された言語モデルが自然言語の事実から自然言語規則をいかに誘導できるかを、初めてかつ包括的な分析を行う。
論文 参考訳(メタデータ) (2022-12-21T11:12:14Z) - Benchmarking Language Models for Code Syntax Understanding [79.11525961219591]
事前学習された言語モデルは、自然言語処理とプログラム理解の両方において素晴らしい性能を示している。
本研究では,プログラムの構文構造を特定するための,最先端の事前訓練モデルの最初の徹底的なベンチマークを行う。
この結果から,既存のプログラミング言語の事前学習手法の限界が指摘され,構文構造をモデル化することの重要性が示唆された。
論文 参考訳(メタデータ) (2022-10-26T04:47:18Z) - Linking Emergent and Natural Languages via Corpus Transfer [98.98724497178247]
創発言語と自然言語のコーパス転送によるリンクを確立する新しい方法を提案する。
このアプローチでは,言語モデリングとイメージキャプションという,2つの異なるタスクに対して,非自明な転送メリットを示す。
また,同一画像に基づく自然言語キャプションに創発的メッセージを翻訳することで,創発的言語の伝達可能性を予測する新しい指標を提案する。
論文 参考訳(メタデータ) (2022-03-24T21:24:54Z) - Context-Tuning: Learning Contextualized Prompts for Natural Language
Generation [52.835877179365525]
自然言語生成のための微調整PLMに対して,Context-Tuningと呼ばれる新しい連続的プロンプト手法を提案する。
まず、入力テキストに基づいてプロンプトを導出し、PLMから有用な知識を抽出して生成する。
第二に、生成したテキストの入力に対する関連性をさらに高めるために、連続的な逆プロンプトを用いて自然言語生成のプロセスを洗練する。
論文 参考訳(メタデータ) (2022-01-21T12:35:28Z) - LINDA: Unsupervised Learning to Interpolate in Natural Language
Processing [46.080523939647385]
データ拡張のためのインターポレート学習(LINDA)は、データ拡張を目的としたテキストの教師なし学習手法である。
LINDAは、自然言語多様体上の任意の一対の自然言語文の間を補間することを学ぶ。
LINDAは、NLPでシームレスにミキサアップを適用でき、ドメイン内とドメイン外の両方のテキスト分類において、より良い一般化をもたらすことを示す。
論文 参考訳(メタデータ) (2021-12-28T02:56:41Z) - Learning Symbolic Rules for Reasoning in Quasi-Natural Language [74.96601852906328]
我々は,ルールを手作業で構築することなく,自然言語入力で推論できるルールベースシステムを構築した。
本稿では,形式論理文と自然言語文の両方を表現可能な"Quasi-Natural"言語であるMetaQNLを提案する。
提案手法は,複数の推論ベンチマークにおける最先端の精度を実現する。
論文 参考訳(メタデータ) (2021-11-23T17:49:00Z) - Learning Natural Language Generation from Scratch [25.984828046001013]
本稿では,TRUncated ReinForcement Learning for Language (TrufLL)を紹介する。
強化学習(RL)のみを用いて、条件付き言語モデルをゼロから訓練する独自のap-proachである。
論文 参考訳(メタデータ) (2021-09-20T08:46:51Z) - Doing Natural Language Processing in A Natural Way: An NLP toolkit based
on object-oriented knowledge base and multi-level grammar base [2.963359628667052]
このツールキットはセマンティック解析に焦点を当てており、新しい知識と文法を自動的に発見する能力もあります。
新たに発見された知識と文法は人間によって識別され、知識ベースと文法ベースの更新に使用される。
論文 参考訳(メタデータ) (2021-05-11T17:43:06Z) - Conditioned Natural Language Generation using only Unconditioned
Language Model: An Exploration [8.623022983093444]
トランスフォーマーに基づく言語モデルは、自然言語生成(NLG)において非常に強力であることが示されている。
我々は、元の無条件LMは、条件付きNLGに十分であると主張している。
提案手法は, 自動評価と人的評価により, 試料の流布度と多様性によって評価した。
論文 参考訳(メタデータ) (2020-11-14T17:45:11Z) - Automatic Extraction of Rules Governing Morphological Agreement [103.78033184221373]
原文から第一パス文法仕様を抽出する自動フレームワークを開発する。
我々は、世界の多くの言語の文法の中核にあるモルフォシンタクティックな現象である合意を記述する規則の抽出に焦点をあてる。
我々のフレームワークはUniversal Dependenciesプロジェクトに含まれるすべての言語に適用され、有望な結果が得られます。
論文 参考訳(メタデータ) (2020-10-02T18:31:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。