論文の概要: Minimal Macro-Based Rewritings of Formal Languages: Theory and
Applications in Ontology Engineering (and beyond)
- arxiv url: http://arxiv.org/abs/2312.10857v1
- Date: Mon, 18 Dec 2023 00:20:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-19 14:09:20.389531
- Title: Minimal Macro-Based Rewritings of Formal Languages: Theory and
Applications in Ontology Engineering (and beyond)
- Title(参考訳): 形式言語の最小マクロベース書き換え:オントロジー工学における理論と応用
- Authors: Christian Kindermann, Anne-Marie George, Bijan Parsia, Uli Sattler
- Abstract要約: このようなマクロを用いて有限形式言語を書き換える問題は、書き直しが最小限に抑えられる。
この問題の構文的変異を解き,その正しさを示すアルゴリズムを現在提供している。
このような書き直しは、マクロで繰り返し表現をキャプチャすることで、サイズを大幅に削減できる。
- 参考スコア(独自算出の注目度): 3.024548464833694
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we introduce the problem of rewriting finite formal languages
using syntactic macros such that the rewriting is minimal in size. We present
polynomial-time algorithms to solve variants of this problem and show their
correctness. To demonstrate the practical relevance of the proposed problems
and the feasibility and effectiveness of our algorithms in practice, we apply
these to biomedical ontologies authored in OWL. We find that such rewritings
can significantly reduce the size of ontologies by capturing repeated
expressions with macros. In addition to offering valuable assistance in
enhancing ontology quality and comprehension, the presented approach introduces
a systematic way of analysing and evaluating features of rewriting systems
(including syntactic macros, templates, or other forms of rewriting rules) in
terms of their influence on computational problems.
- Abstract(参考訳): 本稿では,構文マクロを用いて有限形式言語を書き換えることの問題点について述べる。
この問題の変分を解く多項式時間アルゴリズムを提案し,その正しさを示す。
提案する問題の実用的妥当性とアルゴリズムの実用性および有効性を示すために,これらをowlで作成した生物医学的オントロジーに適用する。
このような書き換えはマクロで繰り返し表現をキャプチャすることでオントロジーのサイズを大幅に削減できることがわかった。
本提案手法は,オントロジーの品質向上と理解の促進に有効な支援を提供するとともに,計算問題に対する影響の観点から,書き換えシステムの特徴(構文マクロ,テンプレート,その他の書き換え規則を含む)を分析し,評価する体系的手法を導入する。
関連論文リスト
- Learning by Analogy: Enhancing Few-Shot Prompting for Math Word Problem Solving with Computational Graph-Based Retrieval [22.865124583257987]
同様に構造化された質問の類似性によって,大規模言語モデルの問題解決能力が向上することを示す。
具体的には、与えられた質問に類似した計算グラフを持つ問題の検索を頼りに、プロンプトの見本として機能する。
6つの数学単語問題データセットに対する実験結果から,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-11-25T15:01:25Z) - Improving Math Problem Solving in Large Language Models Through Categorization and Strategy Tailoring [0.0]
問題分類のための機械学習モデルを開発し、よく設計されたトレーニングデータセットを作成することにより、その精度を著しく向上させることができることを示す。
LLMの幻覚を減らし、高度な数学的問題に対処する可能性を解き放つための重要なステップである。
論文 参考訳(メタデータ) (2024-10-29T16:06:26Z) - Enhancing Multiscale Simulations with Constitutive Relations-Aware Deep Operator Networks [0.7946947383637114]
マルチスケール有限要素計算は、マイクロ構造特性をマクロ計算解析に組み込む能力に期待されている。
マイクロスケール物理の代理モデリングにディープ・オペレーター・ネットワークを利用するハイブリッド手法を提案する。
論文 参考訳(メタデータ) (2024-05-22T15:40:05Z) - Evaluating LLMs' Mathematical Reasoning in Financial Document Question
Answering [53.56653281752486]
本研究では,大言語モデルによる4つの財務質問応答データセットの数学的推論について検討する。
数理推論のステップの数が増えるにつれて、テーブルの複雑さや性能の変化に対する感度に焦点をあてる。
半構造化文書に適した新しいプロンプト技術を導入する。
論文 参考訳(メタデータ) (2024-02-17T05:10:18Z) - A Thorough Examination of Decoding Methods in the Era of LLMs [72.65956436513241]
復号法は、次世代の予測器から実用的なタスク解決器に言語モデルを変換する上で、必須の役割を果たす。
本稿では,大規模言語モデルの文脈における様々な復号法を包括的かつ多面的に分析する。
その結果,復号法の性能は特にタスク依存的であり,アライメント,モデルサイズ,量子化などの要因に影響されていることが明らかとなった。
論文 参考訳(メタデータ) (2024-02-10T11:14:53Z) - Understanding and Mitigating Classification Errors Through Interpretable
Token Patterns [58.91023283103762]
容易に解釈可能な用語でエラーを特徴付けることは、分類器が体系的なエラーを起こす傾向にあるかどうかを洞察する。
正しい予測と誤予測を区別するトークンのパターンを発見することを提案する。
提案手法であるPremiseが実際によく動作することを示す。
論文 参考訳(メタデータ) (2023-11-18T00:24:26Z) - Improving Korean NLP Tasks with Linguistically Informed Subword
Tokenization and Sub-character Decomposition [6.767341847275751]
本稿では, Byte Pairの適用課題に対処するために, サブ文字分解を利用した形態素認識サブワードトークン化手法を提案する。
我々のアプローチは、事前学習言語モデル(PLM)における言語精度と計算効率のバランスをとる
本手法は, NIKL-CoLAの構文的タスクにおいて, 総合的に優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2023-11-07T12:08:21Z) - Large Language Models as Analogical Reasoners [155.9617224350088]
CoT(Chain-of- Thought)は、言語モデルのプロンプトとして、推論タスク全体で素晴らしいパフォーマンスを示す。
そこで本稿では,大規模言語モデルの推論プロセスを自動的にガイドする,新たなプロンプト手法であるアナログプロンプトを導入する。
論文 参考訳(メタデータ) (2023-10-03T00:57:26Z) - Automatically Correcting Large Language Models: Surveying the landscape
of diverse self-correction strategies [104.32199881187607]
大規模言語モデル(LLM)は、幅広いNLPタスクで顕著な性能を示した。
これらの欠陥を正すための有望なアプローチは自己補正であり、LLM自体が自身の出力で問題を修正するために誘導される。
本稿では,この新技術について概観する。
論文 参考訳(メタデータ) (2023-08-06T18:38:52Z) - Polynomial-Time Algorithms for Counting and Sampling Markov Equivalent
DAGs with Applications [6.03124479597323]
マルコフ同値類からの有向非巡回グラフの数え上げとサンプリングは因果解析の基本的な課題である。
これらのタスクはグラフィカルな時間で実行可能であることを示す。
我々のアルゴリズムは効果的で容易に実装できる。
論文 参考訳(メタデータ) (2022-05-05T13:56:13Z) - Controllable Text Simplification with Explicit Paraphrasing [88.02804405275785]
テキストの単純化は、語彙パラフレーズ、削除、分割など、いくつかの書き換え変換を通じて文の可読性を向上させる。
現在の単純化システムは、主にシーケンス・ツー・シーケンスのモデルであり、これらすべての操作を同時に実行するためにエンドツーエンドで訓練されている。
そこで我々は,言語的に動機づけられた規則を用いて分割と削除を行い,それらをニューラルパラフレーズモデルと組み合わせて様々な書き直しスタイルを創出するハイブリッド手法を提案する。
論文 参考訳(メタデータ) (2020-10-21T13:44:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。