論文の概要: Converting the Suggested Upper Merged Ontology to Typed First-order Form
- arxiv url: http://arxiv.org/abs/2303.04148v1
- Date: Thu, 2 Mar 2023 17:00:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-12 03:41:34.642096
- Title: Converting the Suggested Upper Merged Ontology to Typed First-order Form
- Title(参考訳): アッパーマージオントロジーの型付き一階形式への変換
- Authors: Adam Pease
- Abstract要約: 本稿では,Suggested Upper Merged Ontology (SUMO) からTyped First-order Form (TFF) への変換について述べる。
我々は、明示的に型付けされた論理を扱うのに必要な変換を詳述し、SUMOの型階層を、意図した意味論と整合した方法で数値に表現する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We describe the translation of the Suggested Upper Merged Ontology (SUMO) to
Typed First-order Form (TFF) with level 0 polymorphism. Building on our prior
work to create a TPTP FOF translation of SUMO for use in the E and Vampire
theorem provers, we detail the transformations required to handle an explicitly
typed logic, and express SUMO's type hierarchy for numbers in a manner
consistent with its intended semantics and the three numerical classes allowed
in TFF. We provide description of the open source code and an example proof in
Vampire on the resulting theory.
- Abstract(参考訳): 提案するuper merged ontology (sumo) からtyped first-order form (tff) へのレベル0多型への翻訳について述べる。
E と Vampire の定理プローバーで使われる SUMO の TPTP FOF 翻訳を作成するための先行研究に基づいて、明示的に型付けされた論理を扱うのに必要な変換を詳述し、目的とする意味論と TFF で許容される3つの数値クラスに整合して数に対する SUMO の型階層を表現する。
本稿では,オープンソースコードの記述と,その結果の理論的根拠をヴァンパイアで例証する。
関連論文リスト
- Alchemy: Amplifying Theorem-Proving Capability through Symbolic Mutation [71.32761934724867]
この研究は、記号的突然変異を通じて形式的な定理を構成するデータ合成のフレームワークであるAlchemyを提案する。
マドリブにおける各候補定理について、書き直しや適用に使用できるすべてのイベーシブルな定理を同定する。
その結果、マドリブの定理の数は110kから6Mへと桁違いに増加する。
論文 参考訳(メタデータ) (2024-10-21T08:04:21Z) - TABCF: Counterfactual Explanations for Tabular Data Using a Transformer-Based VAE [12.36019049552672]
本稿では,表データのモデリングに適した変分自動エンコーダ(VAE)を利用するCF説明手法であるABCFを紹介する。
提案手法では,変圧器を用いて連続的な潜伏空間と,高精度な分類的再構成を実現するGumbel-Softmaxデトケナイザを学習する。
論文 参考訳(メタデータ) (2024-10-14T12:55:41Z) - Parameter-Efficient Orthogonal Finetuning via Butterfly Factorization [102.92240148504774]
下流タスク適応のための原則的微調整パラダイムである直交微調整(Orthogonal Finetuning, OFT)について検討する。
優れた一般化性を示しているにもかかわらず、OFTはまだかなり多くのトレーニング可能なパラメータを使っている。
我々はこのパラメータ化をOFTに適用し、ORFT(Orthogonal Butterfly)と呼ばれる新しいパラメータ効率の微調整法を開発した。
論文 参考訳(メタデータ) (2023-11-10T18:59:54Z) - BOOST: Harnessing Black-Box Control to Boost Commonsense in LMs'
Generation [60.77990074569754]
本稿では,凍結した事前学習言語モデルを,より汎用的な生成に向けて操る,計算効率のよいフレームワークを提案する。
具体的には、まず、文に常識的スコアを割り当てる参照なし評価器を構築する。
次に、スコアラをコモンセンス知識のオラクルとして使用し、NADOと呼ばれる制御可能な生成法を拡張して補助ヘッドを訓練する。
論文 参考訳(メタデータ) (2023-10-25T23:32:12Z) - TRIGO: Benchmarking Formal Mathematical Proof Reduction for Generative
Language Models [68.65075559137608]
本稿では, ATP ベンチマーク TRIGO を提案する。このベンチマークでは, ステップバイステップの証明で三角法式を縮小するだけでなく, 論理式上で生成する LM の推論能力を評価する。
我々は、Webから三角法式とその縮小フォームを収集し、手作業で単純化プロセスに注釈を付け、それをリーン形式言語システムに翻訳する。
我々はLean-Gymに基づく自動生成装置を開発し、モデルの一般化能力を徹底的に分析するために、様々な困難と分布のデータセット分割を作成する。
論文 参考訳(メタデータ) (2023-10-16T08:42:39Z) - Quantification and Aggregation over Concepts of the Ontology [0.0]
いくつかのKRアプリケーションでは、ボキャブラリのシンボルによって形式的に表される概念の集合を定量化したいと論じる。
本稿では,このような抽象化をサポートする一階述語論理の拡張について述べる。
論文 参考訳(メタデータ) (2022-02-02T07:49:23Z) - Exploring the Promises of Transformer-Based LMs for the Representation
of Normative Claims in the Legal Domain [4.193403311740078]
本稿では,トランスフォーマーベース言語モデル(LM)の法域における規範文を正しく表現する可能性について検討する。
我々は、様々なLMを単語と文ベースのクラスタリングのベースとして使用し、その後、専門家によってコンパイルされた小さなテストセットで評価する。
実験の結果,文-BERT埋め込みに基づくクラスタリングが最も有望な結果が得られた。
論文 参考訳(メタデータ) (2021-08-25T13:03:04Z) - Enriching Transformers with Structured Tensor-Product Representations
for Abstractive Summarization [131.23966358405767]
抽象的な要約のタスクに対して,明示的に構成された製品表現(TPR)をTP-TRANSFORMERに適用する。
モデルの主な特徴は、トークンごとに2つの別々の表現を符号化することで導入する構造バイアスである。
本稿では,TP-TRANSFORMER が Transformer と TP-TRANSFORMER より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-02T17:32:33Z) - Alternating Fixpoint Operator for Hybrid MKNF Knowledge Bases as an
Approximator of AFT [10.843231120912757]
我々は、KnorrらによるハイブリッドMKNF知識ベースのためのよく確立されたセマンティクスの研究が、事実、AFTの擬似近似であることを示した。
これらの知識ベースに対する近似器の改良について,Knorr et al. の構成から定式化されたものよりも,最も安定した固定点が情報豊かであることを示す。
この研究は AFT の拡張の上に構築され、誘導された製品ビラティキにおける一貫性と一貫性のないペアをサポートする。
論文 参考訳(メタデータ) (2021-05-24T02:32:51Z) - GRIT: Generative Role-filler Transformers for Document-level Event
Entity Extraction [134.5580003327839]
本稿では、文書レベルでコンテキストをモデル化するための生成トランスフォーマーベースのエンコーダデコーダフレームワーク(GRIT)を紹介する。
我々は,MUC-4データセットに対する我々のアプローチを評価し,我々のモデルが先行作業よりもかなり優れていることを示す。
論文 参考訳(メタデータ) (2020-08-21T01:07:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。