論文の概要: A Generative Symbolic Model for More General Natural Language
Understanding and Reasoning
- arxiv url: http://arxiv.org/abs/2105.02486v1
- Date: Thu, 6 May 2021 07:38:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-07 22:13:27.484605
- Title: A Generative Symbolic Model for More General Natural Language
Understanding and Reasoning
- Title(参考訳): より一般的な自然言語理解と推論のための生成的記号モデル
- Authors: Abulhair Saparov, Tom M. Mitchell
- Abstract要約: 本稿では,意味解析と推論の完全シンボリックベイズモデルを提案する。
私たちはこれを、完全に解釈可能でベイジアンなモデルで捉えることを目指しています。
ドメイン外のProofWriter質問応答/推論タスクで評価し、100%と93.43%のゼロショット精度を実現した。
- 参考スコア(独自算出の注目度): 27.055681905513172
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a new fully-symbolic Bayesian model of semantic parsing and
reasoning which we hope to be the first step in a research program toward more
domain- and task-general NLU and AI. Humans create internal mental models of
their observations which greatly aid in their ability to understand and reason
about a large variety of problems. We aim to capture this in our model, which
is fully interpretable and Bayesian, designed specifically with generality in
mind, and therefore provides a clearer path for future research to expand its
capabilities. We derive and implement an inference algorithm, and evaluate it
on an out-of-domain ProofWriter question-answering/reasoning task, achieving
zero-shot accuracies of 100% and 93.43%, depending on the experimental setting,
thereby demonstrating its value as a proof-of-concept.
- Abstract(参考訳): 我々は、よりドメインとタスクの一般的なNLUとAIに向けた研究プログラムの第1ステップとして、セマンティックパースと推論の完全な象徴的なベイズモデルを提案する。
人間は観察の内側の精神モデルを作り、様々な問題を理解し推論する能力を大幅に助けます。
我々はこれを、完全に解釈可能であり、ベイジアンが特に一般性を念頭に設計したモデルで捉えることを目指しており、その結果、将来の研究がその能力を拡張するための道筋が明確になる。
我々は推論アルゴリズムを導出し実装し、ドメイン外のProofWriter質問応答/推論タスクで評価し、実験条件に応じてゼロショット精度を100%と93.43%で達成し、概念実証としての価値を示す。
関連論文リスト
- LLMs as Function Approximators: Terminology, Taxonomy, and Questions for Evaluation [18.2932386988379]
本稿では,これらのモデルモデルにおける明瞭さの喪失が,「人工的な一般知性」などのメタファーにつながることを論じる。
この提案は、自然言語仕様に基づいて専門関数を近似する能力において、それらの一般化と潜在的な価値を見出すことである。
論文 参考訳(メタデータ) (2024-07-18T17:49:56Z) - Disentangling Representations through Multi-task Learning [0.0]
分類タスクを最適に解決するエージェントにおいて,不整合表現の出現を保証する実験および理論的結果を提供する。
マルチタスク分類を訓練したRNNにおいて,これらの予測を実験的に検証した。
私たちは、トランスフォーマーが特に、そのユニークな世界理解能力を説明するような、無関係な表現に向いていることに気付きました。
論文 参考訳(メタデータ) (2024-07-15T21:32:58Z) - Conceptual and Unbiased Reasoning in Language Models [98.90677711523645]
本稿では,抽象的質問に対する概念的推論をモデルに強制する,新しい概念化フレームワークを提案する。
既存の大規模言語モデルは概念的推論では不足しており、様々なベンチマークでは9%から28%に低下している。
ハイレベルな抽象的推論が不偏で一般化可能な意思決定の鍵となるので、モデルがどのように改善できるかについて議論する。
論文 参考訳(メタデータ) (2024-03-30T00:53:53Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - Mapping Knowledge Representations to Concepts: A Review and New
Perspectives [0.6875312133832078]
本論は、内部表現と人間の理解可能な概念を関連付けることを目的とした研究に焦点をあてる。
この分類学と因果関係の理論は、ニューラルネットワークの説明から期待できるもの、期待できないものを理解するのに有用である。
この分析は、モデル説明可能性の目標に関するレビューされた文献の曖昧さも明らかにしている。
論文 参考訳(メタデータ) (2022-12-31T12:56:12Z) - Neural Causal Models for Counterfactual Identification and Estimation [62.30444687707919]
本稿では,ニューラルモデルによる反事実文の評価について検討する。
まず、神経因果モデル(NCM)が十分に表現可能であることを示す。
第2に,反事実分布の同時同定と推定を行うアルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-09-30T18:29:09Z) - From Attribution Maps to Human-Understandable Explanations through
Concept Relevance Propagation [16.783836191022445]
eXplainable Artificial Intelligence(XAI)の分野は、今日の強力だが不透明なディープラーニングモデルに透明性をもたらすことを目指している。
局所的なXAI手法は属性マップの形で個々の予測を説明するが、グローバルな説明手法はモデルが一般的にエンコードするために学んだ概念を視覚化する。
論文 参考訳(メタデータ) (2022-06-07T12:05:58Z) - A Minimalist Dataset for Systematic Generalization of Perception,
Syntax, and Semantics [131.93113552146195]
我々は,機械が一般化可能な概念を学習する能力を調べるため,新しいデータセットであるHINT(Hand written arithmetic with INTegers)を提案する。
HINTでは、イメージなどの生信号から概念がどのように認識されるかを学ぶことが機械のタスクである。
我々は、RNN、Transformer、GPT-3など、様々なシーケンス・ツー・シーケンスモデルで広範囲に実験を行った。
論文 参考訳(メタデータ) (2021-03-02T01:32:54Z) - Rethinking Generalization of Neural Models: A Named Entity Recognition
Case Study [81.11161697133095]
NERタスクをテストベッドとして、異なる視点から既存モデルの一般化挙動を分析する。
詳細な分析による実験は、既存のニューラルNERモデルのボトルネックを診断する。
本論文の副産物として,最近のNER論文の包括的要約を含むプロジェクトをオープンソース化した。
論文 参考訳(メタデータ) (2020-01-12T04:33:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。