論文の概要: Rule Learning as Machine Translation using the Atomic Knowledge Bank
- arxiv url: http://arxiv.org/abs/2311.02765v1
- Date: Sun, 5 Nov 2023 20:48:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 16:04:14.078608
- Title: Rule Learning as Machine Translation using the Atomic Knowledge Bank
- Title(参考訳): 原子知識バンクを用いた機械翻訳としてのルール学習
- Authors: Kristoffer {\AE}s{\o}y and Ana Ozaki
- Abstract要約: 自然言語で規則を表現する文を論理規則に翻訳するトランスフォーマーの能力について検討する。
我々は文献からDKETデータセットを用いて実験を行い、原子知識銀行に基づく言語から論理への翻訳のためのデータセットを作成する。
- 参考スコア(独自算出の注目度): 8.9969167872226
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning models, and in particular language models, are being applied
to various tasks that require reasoning. While such models are good at
capturing patterns their ability to reason in a trustable and controlled manner
is frequently questioned. On the other hand, logic-based rule systems allow for
controlled inspection and already established verification methods. However it
is well-known that creating such systems manually is time-consuming and prone
to errors. We explore the capability of transformers to translate sentences
expressing rules in natural language into logical rules. We see reasoners as
the most reliable tools for performing logical reasoning and focus on
translating language into the format expected by such tools. We perform
experiments using the DKET dataset from the literature and create a dataset for
language to logic translation based on the Atomic knowledge bank.
- Abstract(参考訳): 機械学習モデル、特に言語モデルは、推論を必要とする様々なタスクに適用されている。
このようなモデルはパターンを捉えるのに長けているが、信頼できる制御された方法で推論する能力は、しばしば疑問視される。
一方、論理ベースのルールシステムでは、制御された検査とすでに確立された検証方法が可能である。
しかし、手動でシステムを作成するのは時間がかかり、エラーが発生しやすいことはよく知られている。
自然言語で規則を表現する文を論理規則に翻訳するトランスフォーマーの能力について検討する。
推論は論理的な推論を行う上で最も信頼できるツールであり、そのようなツールが期待する形式への言語翻訳にフォーカスしています。
文献からdketデータセットを用いて実験を行い,アトミック知識バンクに基づく言語から論理への翻訳のためのデータセットを作成する。
関連論文リスト
- Training Neural Networks as Recognizers of Formal Languages [87.06906286950438]
形式言語理論は、特に認識者に関するものである。
代わりに、非公式な意味でのみ類似したプロキシタスクを使用するのが一般的である。
ニューラルネットワークを文字列のバイナリ分類器として直接訓練し評価することで、このミスマッチを補正する。
論文 参考訳(メタデータ) (2024-11-11T16:33:25Z) - Empower Nested Boolean Logic via Self-Supervised Curriculum Learning [67.46052028752327]
大規模言語モデルを含む事前学習された言語モデルは、多言語論理に直面するランダムセレクタのように振る舞う。
この基本的能力で言語モデルを強化するために,本稿では,新たな自己教師付き学習手法であるtextitCurriculum Logical Reasoning (textscClr) を提案する。
論文 参考訳(メタデータ) (2023-10-09T06:54:02Z) - Planning with Logical Graph-based Language Model for Instruction Generation [9.70880913062245]
本稿では,論理を言語モデルに注入するグラフベースの言語モデルであるLogical-GLMを提案する。
言語モデルトレーニングのガイドとして論理スケルトンを生成し,言語モデルにドメイン知識を注入する。
我々のアプローチは、内部化されたドメイン知識により、より正確な論理で命令文を生成することができる。
論文 参考訳(メタデータ) (2023-08-26T06:28:14Z) - APOLLO: A Simple Approach for Adaptive Pretraining of Language Models
for Logical Reasoning [73.3035118224719]
本稿では,論理的推論能力を改善した適応事前学習型言語モデルAPOLLOを提案する。
APOLLOはReClorで比較可能であり、LogiQAでベースラインを上回ります。
論文 参考訳(メタデータ) (2022-12-19T07:40:02Z) - Learning Symbolic Rules for Reasoning in Quasi-Natural Language [74.96601852906328]
我々は,ルールを手作業で構築することなく,自然言語入力で推論できるルールベースシステムを構築した。
本稿では,形式論理文と自然言語文の両方を表現可能な"Quasi-Natural"言語であるMetaQNLを提案する。
提案手法は,複数の推論ベンチマークにおける最先端の精度を実現する。
論文 参考訳(メタデータ) (2021-11-23T17:49:00Z) - BERT got a Date: Introducing Transformers to Temporal Tagging [4.651578365545765]
本稿では,RoBERTa言語モデルを用いたトランスフォーマー・エンコーダ・デコーダモデルを提案する。
我々のモデルは、特に稀なクラスにおいて、時間的タグ付けや型分類において、過去の研究を上回っている。
論文 参考訳(メタデータ) (2021-09-30T08:54:21Z) - Leap-Of-Thought: Teaching Pre-Trained Models to Systematically Reason
Over Implicit Knowledge [96.92252296244233]
大規模な事前学習言語モデル(LM)は推論能力を得るが、制御は困難である。
本研究では,暗黙的,事前学習された知識と明示的な自然言語文を併用して,体系的推論を確実に行うことができることを示す。
我々の研究は、シンプルな自然言語文を追加することで、モデルを簡単に修正できるユーザと対話することで、常に改善されるオープンドメインシステムへの道を開く。
論文 参考訳(メタデータ) (2020-06-11T17:02:20Z) - How Context Affects Language Models' Factual Predictions [134.29166998377187]
検索システムからの情報を学習済みの言語モデルと純粋に教師なしの方法で統合する。
この方法で事前学習された言語モデルを拡張することで、性能が劇的に向上し、教師なしにもかかわらず、結果として得られるシステムは、教師なしの機械読解ベースラインと競合する、と報告する。
論文 参考訳(メタデータ) (2020-05-10T09:28:12Z) - Transformers as Soft Reasoners over Language [33.291806251021185]
本稿では,事実と規則を自然言語文として提供し,形式表現をバイパスする問題について検討する。
我々は、合成されたデータを用いて、これらの文に対する推論(または推論)をエミュレートするようにトランスフォーマーを訓練する。
RuleTakersと呼ばれる私たちのモデルは、この種の言語に対するソフトな推論が学習可能であるという、最初の実証的なデモンストレーションを提供します。
論文 参考訳(メタデータ) (2020-02-14T04:23:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。