論文の概要: SKATE: A Natural Language Interface for Encoding Structured Knowledge
- arxiv url: http://arxiv.org/abs/2010.10597v2
- Date: Fri, 11 Dec 2020 01:01:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 07:23:49.831190
- Title: SKATE: A Natural Language Interface for Encoding Structured Knowledge
- Title(参考訳): SKATE:構造化知識をエンコードするための自然言語インタフェース
- Authors: Clifton McFate, Aditya Kalyanpur, Dave Ferrucci, Andrea Bradshaw,
Ariel Diertani, David Melville, Lori Moon
- Abstract要約: 自然言語(NL)アプリケーションでは、NLインターフェースが解釈できるものと、素人が表現する方法を知っているものの間には、しばしばミスマッチがある。
この研究は、連続して自動生成された半構造化テンプレートを通して自然言語入力を精製することで、このミスマッチを減らす新しい自然言語インタフェースを記述する。
- 参考スコア(独自算出の注目度): 3.7296147370114183
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In Natural Language (NL) applications, there is often a mismatch between what
the NL interface is capable of interpreting and what a lay user knows how to
express. This work describes a novel natural language interface that reduces
this mismatch by refining natural language input through successive,
automatically generated semi-structured templates. In this paper we describe
how our approach, called SKATE, uses a neural semantic parser to parse NL input
and suggest semi-structured templates, which are recursively filled to produce
fully structured interpretations. We also show how SKATE integrates with a
neural rule-generation model to interactively suggest and acquire commonsense
knowledge. We provide a preliminary coverage analysis of SKATE for the task of
story understanding, and then describe a current business use-case of the tool
in a specific domain: COVID-19 policy design.
- Abstract(参考訳): 自然言語(NL)アプリケーションでは、NLインターフェースが解釈できるものと、素人が表現する方法を知っているものの間には、しばしばミスマッチがある。
本研究は,自動生成された半構造化テンプレートを通じて自然言語入力を洗練することにより,このミスマッチを低減する新しい自然言語インタフェースについて述べる。
本稿では,神経意味構文解析器を用いてnl入力を解析し,再帰的に満たされた半構造化テンプレートを提案し,完全に構造化された解釈を生成する手法について述べる。
また、SKATEがニューラルルール生成モデルとどのように統合され、インタラクティブにコモンセンス知識を提案・取得するかを示す。
ストーリー理解のタスクのためにskateの予備カバレッジ分析を行い、そのツールの現在のビジネスユースケースを特定のドメイン、covid-19ポリシーデザインで記述します。
関連論文リスト
- Prompt2DeModel: Declarative Neuro-Symbolic Modeling with Natural Language [18.00674366843745]
本稿では,自然言語による複雑なニューロシンボリックモデルのためのドメイン知識構築のためのパイプラインを提案する。
提案するパイプラインは,動的なコンテキスト内実演検索,シンボル可視化からのフィードバックに基づくモデル改良,ユーザインタラクションなどの手法を利用する。
このアプローチによって、ML/AIに精通していないドメイン専門家でさえ、自身の知識をカスタマイズされたニューラルモデルに組み込むように正式に宣言することが可能になる。
論文 参考訳(メタデータ) (2024-07-30T03:10:30Z) - SLFNet: Generating Semantic Logic Forms from Natural Language Using Semantic Probability Graphs [6.689539418123863]
自然言語インターフェースの構築は通常、ユーザの自然言語を解析し、構造化された textbfSemantic textbfLogic textbfForms (SLFs) に変換するために semanticSlot を使用する。
本研究では,依存構文情報を先行知識として組み込んだニューラルネットワークSLFNetを提案し,文脈情報と単語間の長距離相互作用を捉える。
実験の結果,中国QCI-TSデータセットとオカピデータセットのSLFNetによる最先端のパフォーマンス,ATISデータセットの競合性能が得られた。
論文 参考訳(メタデータ) (2024-03-29T02:42:39Z) - Physics of Language Models: Part 1, Learning Hierarchical Language Structures [51.68385617116854]
トランスフォーマーベースの言語モデルは効率的だが複雑であり、内部動作を理解することは大きな課題である。
本稿では,長文を生成可能な階層規則を生成する合成CFGのファミリーを紹介する。
我々は、GPTのような生成モデルがこのCFG言語を正確に学習し、それに基づいて文を生成することを実証する。
論文 参考訳(メタデータ) (2023-05-23T04:28:16Z) - nl2spec: Interactively Translating Unstructured Natural Language to
Temporal Logics with Large Language Models [3.1143846686797314]
大規模言語モデル(LLM)を適用するためのフレームワークであるnl2specは、構造化されていない自然言語から正式な仕様を導出する。
本稿では,自然言語におけるシステム要求のあいまいさを検知し,解決する新たな手法を提案する。
ユーザは、これらのサブ翻訳を反復的に追加、削除、編集して、不正なフォーマル化を修正する。
論文 参考訳(メタデータ) (2023-03-08T20:08:53Z) - Prompting Language Models for Linguistic Structure [73.11488464916668]
本稿では,言語構造予測タスクに対する構造化プロンプト手法を提案する。
提案手法は, 音声タグ付け, 名前付きエンティティ認識, 文チャンキングについて評価する。
PLMはタスクラベルの事前知識を事前学習コーパスに漏えいすることで有意な事前知識を含むが、構造化プロンプトは任意のラベルで言語構造を復元することも可能である。
論文 参考訳(メタデータ) (2022-11-15T01:13:39Z) - Autoregressive Structured Prediction with Language Models [73.11519625765301]
本稿では, PLM を用いた自己回帰的手法を用いて, モデル構造を行動列として記述する。
我々のアプローチは、私たちが見てきた全ての構造化予測タスクにおいて、新しい最先端を実現する。
論文 参考訳(メタデータ) (2022-10-26T13:27:26Z) - Convex Polytope Modelling for Unsupervised Derivation of Semantic
Structure for Data-efficient Natural Language Understanding [31.888489552069146]
Convex-Polytopic-Modelベースのフレームワークは、生のダイアログコーパスを利用して意味パターンを自動的に抽出する大きな可能性を示している。
このフレームワークは,コーパスのセマンティックフレーム関連機能を活用し,発話の基盤となるセマンティック構造を明らかにし,最小限の監視で最先端のNLUモデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2022-01-25T19:12:44Z) - Pre-training Language Model Incorporating Domain-specific Heterogeneous Knowledge into A Unified Representation [49.89831914386982]
本研究では, 構造化されていないテキスト, 半構造化されたテキスト, 十分に構造化されたテキストを含む, あらゆる形式のテキストに対して, 統一された事前学習言語モデル (PLM) を提案する。
提案手法は,データの1/4のみを用いて,プレーンテキストの事前学習に優れる。
論文 参考訳(メタデータ) (2021-09-02T16:05:24Z) - Contextual Biasing of Language Models for Speech Recognition in
Goal-Oriented Conversational Agents [11.193867567895353]
ゴール指向の会話インターフェイスは特定のタスクを達成するように設計されている。
推論時に提供されるサンプル発話にBERTから派生したコンテキスト埋め込みを利用する新しいアーキテクチャを提案する。
本実験では,目標指向音声データセットにおける非文脈発話レベルNLMレコレータに対する単語誤り率(WER)の相対的な7%の低減を示した。
論文 参考訳(メタデータ) (2021-03-18T15:38:08Z) - Infusing Finetuning with Semantic Dependencies [62.37697048781823]
シンタックスとは異なり、セマンティクスは今日の事前訓練モデルによって表面化されないことを示す。
次に、畳み込みグラフエンコーダを使用して、タスク固有の微調整にセマンティック解析を明示的に組み込む。
論文 参考訳(メタデータ) (2020-12-10T01:27:24Z) - Exploring Software Naturalness through Neural Language Models [56.1315223210742]
ソフトウェア自然性仮説(Software Naturalness hypothesis)は、自然言語処理で使用されるのと同じ手法でプログラミング言語を理解することができると主張している。
この仮説は,事前学習されたトランスフォーマーベース言語モデルを用いて,コード解析タスクを実行することによって検討する。
論文 参考訳(メタデータ) (2020-06-22T21:56:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。