論文の概要: Flexible Operations for Natural Language Deduction
- arxiv url: http://arxiv.org/abs/2104.08825v1
- Date: Sun, 18 Apr 2021 11:36:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 14:41:09.795168
- Title: Flexible Operations for Natural Language Deduction
- Title(参考訳): 自然言語推論のためのフレキシブル操作
- Authors: Kaj Bostrom, Xinyu Zhao, Swarat Chaudhuri, Greg Durrett
- Abstract要約: ParaPatternは、人間の直接の監督なしに様々な自然言語入力の論理変換を生成するモデルを構築する方法である。
我々は、BARTベースのモデルを用いて、特定の論理演算を1つ以上の前提文に適用した結果を生成する。
対象とするコントラストセットと、qascデータセットからのドメイン外文合成を用いてモデルを評価する。
- 参考スコア(独自算出の注目度): 32.92866195461153
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: An interpretable system for complex, open-domain reasoning needs an
interpretable meaning representation. Natural language is an excellent
candidate -- it is both extremely expressive and easy for humans to understand.
However, manipulating natural language statements in logically consistent ways
is hard. Models have to be precise, yet robust enough to handle variation in
how information is expressed. In this paper, we describe ParaPattern, a method
for building models to generate logical transformations of diverse natural
language inputs without direct human supervision. We use a BART-based model
(Lewis et al., 2020) to generate the result of applying a particular logical
operation to one or more premise statements. Crucially, we have a largely
automated pipeline for scraping and constructing suitable training examples
from Wikipedia, which are then paraphrased to give our models the ability to
handle lexical variation. We evaluate our models using targeted contrast sets
as well as out-of-domain sentence compositions from the QASC dataset (Khot et
al., 2020). Our results demonstrate that our operation models are both accurate
and flexible.
- Abstract(参考訳): 複雑なオープンドメイン推論のための解釈可能なシステムには、解釈可能な意味表現が必要である。
自然言語は優れた候補であり、非常に表現力があり、人間が理解しやすい。
しかし、論理的に一貫した方法で自然言語文を操作することは難しい。
モデルは正確で、情報の表現方法のバリエーションを扱うのに十分な堅牢さが必要です。
本稿では,自然言語入力の論理変換を人間の直接的監督なしに生成するモデル構築手法であるparapatternについて述べる。
我々は、BARTベースのモデル(Lewis et al., 2020)を用いて、1つ以上の前提文に特定の論理演算を適用する結果を生成する。
重要なことに、Wikipediaから適切なトレーニング例を抽出し、構築するための大部分が自動化されたパイプラインがあります。
対象とするコントラストセットと、qascデータセット(khot et al., 2020)からのドメイン外文合成を用いてモデルを評価する。
その結果,我々の操作モデルは正確かつ柔軟であることがわかった。
関連論文リスト
- QUITE: Quantifying Uncertainty in Natural Language Text in Bayesian Reasoning Scenarios [15.193544498311603]
本稿では,カテゴリー的確率変数と複雑な関係を持つ実世界のベイズ推論シナリオのデータセットであるQUITEを提案する。
我々は幅広い実験を行い、論理ベースのモデルが全ての推論型において、アウト・オブ・ボックスの大規模言語モデルより優れていることを発見した。
以上の結果から,ニューロシンボリックモデルが複雑な推論を改善する上で有望な方向であることを示す。
論文 参考訳(メタデータ) (2024-10-14T12:44:59Z) - Transparency at the Source: Evaluating and Interpreting Language Models
With Access to the True Distribution [4.01799362940916]
人工的な言語のようなデータを用いて、ニューラルネットワークモデルのトレーニング、評価、解釈を行う。
データは、巨大な自然言語コーパスから派生した巨大な確率文法を用いて生成される。
基礎となる真の情報源にアクセスすることで、異なる単語のクラス間の動的学習における顕著な違いと結果が示される。
論文 参考訳(メタデータ) (2023-10-23T12:03:01Z) - APOLLO: A Simple Approach for Adaptive Pretraining of Language Models
for Logical Reasoning [73.3035118224719]
本稿では,論理的推論能力を改善した適応事前学習型言語モデルAPOLLOを提案する。
APOLLOはReClorで比較可能であり、LogiQAでベースラインを上回ります。
論文 参考訳(メタデータ) (2022-12-19T07:40:02Z) - Transparency Helps Reveal When Language Models Learn Meaning [71.96920839263457]
合成データを用いた体系的な実験により,すべての表現が文脈に依存しない意味を持つ言語では,自己回帰型とマスキング型の両方の言語モデルが,表現間の意味的関係をエミュレートする。
自然言語に目を向けると、特定の現象(参照不透明さ)による実験は、現在の言語モデルが自然言語の意味論をうまく表現していないという証拠を増大させる。
論文 参考訳(メタデータ) (2022-10-14T02:35:19Z) - Interpreting Language Models with Contrastive Explanations [99.7035899290924]
言語モデルは、音声、数字、時制、意味論など、トークンを予測するための様々な特徴を考慮しなければならない。
既存の説明手法は、これらの特徴の証拠を1つの説明に分割するが、人間の理解には理解できない。
比較的な説明は、主要な文法現象の検証において、非対照的な説明よりも定量的に優れていることを示す。
論文 参考訳(メタデータ) (2022-02-21T18:32:24Z) - Foundations of Symbolic Languages for Model Interpretability [2.3361634876233817]
本稿では,2種類のMLモデル上でのFOILクエリの計算複雑性について検討する。
本稿では,高レベルの宣言型言語でラップされたFOILのプロトタイプ実装について述べる。
論文 参考訳(メタデータ) (2021-10-05T21:56:52Z) - Combining Transformers with Natural Language Explanations [13.167758466408825]
本稿では,外部記憶を利用して自然言語記述を記憶し,それらを分類結果の説明に利用するトランスフォーマーモデルの拡張を提案する。
法的なテキスト分析と議論マイニングという2つの領域を実験的に評価し,分類性能を維持したり改善したりしながら,本手法が関連する説明を得られることを示す。
論文 参考訳(メタデータ) (2021-09-02T09:17:04Z) - Constrained Language Models Yield Few-Shot Semantic Parsers [73.50960967598654]
我々は,事前学習された大規模言語モデルの利用を,少ない意味論として検討する。
意味構文解析の目標は、自然言語入力によって構造化された意味表現を生成することである。
言語モデルを用いて、入力を英語に似た制御されたサブ言語にパラフレーズし、対象の意味表現に自動的にマッピングする。
論文 参考訳(メタデータ) (2021-04-18T08:13:06Z) - Unnatural Language Inference [48.45003475966808]
我々は、RoBERTaやBARTのような最先端のNLIモデルは、ランダムに並べ替えられた単語の例に不変であり、時にはよりよく機能することさえあります。
我々の発見は、自然言語理解モデルと、その進捗を測定するために使われるタスクが、本当に人間のような構文理解を必要とするという考えに疑問を投げかけている。
論文 参考訳(メタデータ) (2020-12-30T20:40:48Z) - Leap-Of-Thought: Teaching Pre-Trained Models to Systematically Reason
Over Implicit Knowledge [96.92252296244233]
大規模な事前学習言語モデル(LM)は推論能力を得るが、制御は困難である。
本研究では,暗黙的,事前学習された知識と明示的な自然言語文を併用して,体系的推論を確実に行うことができることを示す。
我々の研究は、シンプルな自然言語文を追加することで、モデルを簡単に修正できるユーザと対話することで、常に改善されるオープンドメインシステムへの道を開く。
論文 参考訳(メタデータ) (2020-06-11T17:02:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。