論文の概要: Through the Looking Glass, and what Horn Clause Programs Found There
- arxiv url: http://arxiv.org/abs/2407.20413v1
- Date: Mon, 29 Jul 2024 20:52:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-31 18:48:44.360848
- Title: Through the Looking Glass, and what Horn Clause Programs Found There
- Title(参考訳): 見た目のガラスとホーン・クラウス・プログラムで見つかるもの
- Authors: Paul Tarau,
- Abstract要約: 我々はDual Horn節を、ゴール主導の前方推論をサポートする建設的否定の一形態の有効化として再考する。
特に、二重ホーン節プログラムとして表される背景理論の文脈において、反事実仮説をファルシフィケートする能力について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dual Horn clauses mirror key properties of Horn clauses. This paper explores the ``other side of the looking glass'' to reveal some expected and unexpected symmetries and their practical uses. We revisit Dual Horn clauses as enablers of a form of constructive negation that supports goal-driven forward reasoning and is valid both intuitionistically and classically. In particular, we explore the ability to falsify a counterfactual hypothesis in the context of a background theory expressed as a Dual Horn clause program. With Dual Horn clause programs, by contrast to negation as failure, the variable bindings in their computed answers provide explanations for the reasons why a statement is successfully falsified. Moreover, in the propositional case, by contrast to negation as failure as implemented with stable models semantics in ASP systems, and similarly to Horn clause programs, Dual Horn clause programs have polynomial complexity. After specifying their execution model with a metainterpreter, we devise a compilation scheme from Dual Horn clause programs to Horn clause programs, ensuring their execution with no performance penalty and we design the embedded SymLP language to support combined Horn clause and Dual Horn clause programs. As a (motivating) application, we cast LLM reasoning chains into propositional Horn and Dual Horn clauses that work together to constructively prove and disprove goals and enhance Generative AI with explainability of reasoning chains.
- Abstract(参考訳): 二重ホーン節は、ホーン節の鍵特性を反映する。
本稿では,「外観ガラスのもう1つの側面」を探求し,期待される,予期せぬ対称性とその実用性を明らかにする。
我々はDual Horn節を、ゴール駆動の前方推論をサポートし、直観的にも古典的にも有効である建設的否定の形式の実現者として再考する。
特に、二重ホーン節プログラムとして表される背景理論の文脈において、反事実仮説をファルシフィケートする能力について検討する。
Dual Horn節のプログラムでは、否定を失敗とするのとは対照的に、計算された回答の変数バインディングは、ステートメントがファルシフィケーションに成功している理由の説明を提供する。
さらに、命題の場合、ASPシステムにおける安定なモデルセマンティクスで実装された失敗としての否定とは対照的に、Hhorn節プログラムと同様に、Dual Horn節プログラムは多項式複雑性を持つ。
メタインタプリタでそれらの実行モデルを指定すると、デュアルホーン節プログラムからホーン節プログラムへのコンパイルスキームを考案し、その実行をパフォーマンスペナルティなしで確実にし、ホルン節とデュアルホーン節プログラムの組み合わせをサポートするために組み込みのSymLP言語を設計する。
動機付け型)アプリケーションとして,LLM推論チェーンを命題HhornおよびDual Horn節にキャストし,目的を構築的かつ証明し,推論チェーンの説明可能性を備えた生成AIを強化する。
関連論文リスト
- Probing structural constraints of negation in Pretrained Language Models [1.8749305679160366]
文中の否定の存在を最もよくエンコードする文脈表現を,プローブを用いて識別する。
否定範囲内のトークンの文脈表現は、(i)スコープ外のトークンと比較して、存在を予測しやすくする。
しかし、さらなる制御実験により、同じ構文節内でトークンの文脈表現を使用する場合、他の語彙項目の存在もよりよく捉えられることが明らかになった。
論文 参考訳(メタデータ) (2024-08-06T09:54:49Z) - Mitigating Misleading Chain-of-Thought Reasoning with Selective Filtering [59.495717939664246]
大規模言語モデルは、複雑な問題を解くためにチェーン・オブ・ソート(CoT)推論技術を活用することで、顕著な能力を示した。
本稿では,選択フィルタリング推論(SelF-Reasoner)と呼ばれる新しい手法を提案する。
SelF-ReasonerはScienceQA、ECQA、LastLetterタスクに対して、微調整されたT5ベースラインを一貫して改善する。
論文 参考訳(メタデータ) (2024-03-28T06:28:35Z) - Towards a Mechanistic Interpretation of Multi-Step Reasoning
Capabilities of Language Models [107.07851578154242]
言語モデル(LM)は強力な多段階推論能力を持つ。
LMが事前学習コーパスから記憶された回答を不正に処理するか,多段階推論機構を用いてタスクを実行するかは明らかでない。
メカニスティックプローブは,ほとんどの例において,モデルの注意から推論ツリーの情報を検出することができることを示す。
論文 参考訳(メタデータ) (2023-10-23T01:47:29Z) - On Loop Formulas with Variables [2.1955512452222696]
最近、フェラーリス、リー、リフシッツはグラウンド化に言及しない安定モデルの新たな定義を提案した。
我々は、Chen, Lin, Wang, Zhang による変数を持つループ公式のアイデアとの関係を示す。
論理プログラムの構文を拡張して、明示的な量化を許容し、その意味論を安定モデルの新しい言語のサブクラスとして定義する。
論文 参考訳(メタデータ) (2023-07-15T06:20:43Z) - Invariant Causal Set Covering Machines [64.86459157191346]
決定木のようなルールベースのモデルは、解釈可能な性質のために実践者にアピールする。
しかし、そのようなモデルを生成する学習アルゴリズムは、しばしば刺激的な関連に弱いため、因果関係の洞察を抽出することが保証されていない。
Invariant Causal Set Covering Machines は、古典的集合被覆マシンアルゴリズムの拡張であり、二値ルールの結合/分離を可能とし、スプリアス関係を確実に回避する。
論文 参考訳(メタデータ) (2023-06-07T20:52:01Z) - Code Prompting: a Neural Symbolic Method for Complex Reasoning in Large
Language Models [74.95486528482327]
コードプロンプト(code prompting)は、ゼロショットバージョンと少数ショットバージョンの両方を持ち、中間ステップとしてコードをトリガーするニューラルシンボルプロンプトである。
我々は,記号的推論と算術的推論を含む7つの広く使用されているベンチマーク実験を行った。
論文 参考訳(メタデータ) (2023-05-29T15:14:09Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Maieutic Prompting: Logically Consistent Reasoning with Recursive
Explanations [71.2950434944196]
ノイズや一貫性のない言語モデルでさえも問題に対する正しい答えを推測するMaieutic Promptingを開発する。
Maieutic Promptingは最先端のプロンプト法よりも最大20%精度が高い。
論文 参考訳(メタデータ) (2022-05-24T06:36:42Z) - Interactive Model with Structural Loss for Language-based Abductive
Reasoning [36.02450824915494]
帰納的自然言語推論タスク(alpha$NLI)は、原因と事象の間の最も明確な説明を推測するために提案される。
我々はこの新モデルを$alpha$NLI: Interactive Model with Structure Loss (IMSL) と命名する。
IMSL は RoBERTa-large Pretrained model で最高性能を達成し,ACC と AUC はそれぞれ約1%,AUC は5% 向上した。
論文 参考訳(メタデータ) (2021-12-01T05:21:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。