論文の概要: Symbolic Logic meets Machine Learning: A Brief Survey in Infinite
Domains
- arxiv url: http://arxiv.org/abs/2006.08480v1
- Date: Mon, 15 Jun 2020 15:29:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 03:42:35.312295
- Title: Symbolic Logic meets Machine Learning: A Brief Survey in Infinite
Domains
- Title(参考訳): シンボリック論理が機械学習を満たす - 無限領域での簡単な調査
- Authors: Vaishak Belle
- Abstract要約: 推論と帰納の緊張は、おそらく哲学、認知、人工知能といった分野において最も根本的な問題である。
本稿では,論理の限界に対する見解に挑戦する結果について報告し,無限領域での学習において論理が果たす役割を明らかにする。
- 参考スコア(独自算出の注目度): 12.47276164048813
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The tension between deduction and induction is perhaps the most fundamental
issue in areas such as philosophy, cognition and artificial intelligence (AI).
The deduction camp concerns itself with questions about the expressiveness of
formal languages for capturing knowledge about the world, together with proof
systems for reasoning from such knowledge bases. The learning camp attempts to
generalize from examples about partial descriptions about the world. In AI,
historically, these camps have loosely divided the development of the field,
but advances in cross-over areas such as statistical relational learning,
neuro-symbolic systems, and high-level control have illustrated that the
dichotomy is not very constructive, and perhaps even ill-formed. In this
article, we survey work that provides further evidence for the connections
between logic and learning. Our narrative is structured in terms of three
strands: logic versus learning, machine learning for logic, and logic for
machine learning, but naturally, there is considerable overlap. We place an
emphasis on the following "sore" point: there is a common misconception that
logic is for discrete properties, whereas probability theory and machine
learning, more generally, is for continuous properties. We report on results
that challenge this view on the limitations of logic, and expose the role that
logic can play for learning in infinite domains.
- Abstract(参考訳): 推論と帰納の緊張は、おそらく哲学、認知、人工知能(AI)といった分野において最も根本的な問題である。
導出キャンプは、世界に関する知識をつかむためのフォーマルな言語の表現性に関する疑問と、そのような知識ベースからの推論の証明システムに関するものである。
学習キャンプは、世界に関する部分的な記述の例から一般化しようとする。
歴史的に、これらのキャンプはフィールドの開発を緩やかに分けてきたが、統計関係学習、ニューロシンボリックシステム、ハイレベル制御といったクロスオーバー分野の進歩は、二分法があまり構成的ではなく、おそらくは不整形であることを示している。
本稿では,論理と学習の関連に関するさらなるエビデンスを提供するための調査を行う。
私たちの物語は、論理対学習、論理のための機械学習、機械学習のための論理という3つの鎖で構成されています。
論理は離散的性質のためのものであるという一般的な誤解がある一方、確率論と機械学習はより一般に連続的性質のためのものである。
我々は,この論理の限界に挑戦する結果について報告し,無限領域の学習に論理が果たす役割を明らかにした。
関連論文リスト
- Disentangling Logic: The Role of Context in Large Language Model Reasoning Capabilities [31.728976421529577]
包括的なドメイン集合からの抽象的および文脈的論理的問題に対するコントラストについて検討する。
我々は、標準的な命題論理、特に命題推論と帰納論理推論に焦点を当てる。
本実験は,LLMの論理的推論と真の推論能力に関する知見を提供することを目的としている。
論文 参考訳(メタデータ) (2024-06-04T21:25:06Z) - Three Pathways to Neurosymbolic Reinforcement Learning with
Interpretable Model and Policy Networks [4.242435932138821]
我々は、解釈可能なセマンティクスをアーキテクチャに直接組み込むニューラルネットワークのクラスについて研究する。
我々は、論理、シミュレーション、学習を組み合わせることの潜在的な難しさと重要な難しさを明らかにし、強調する。
論文 参考訳(メタデータ) (2024-02-07T23:00:24Z) - Towards LogiGLUE: A Brief Survey and A Benchmark for Analyzing Logical Reasoning Capabilities of Language Models [56.34029644009297]
大規模言語モデル(LLM)は、形式的知識表現(KR)システムの様々な制限を克服する能力を示した。
LLMは誘導的推論において最も優れているが、誘導的推論では最も効果が低い。
モデルの性能を評価するため,シングルタスクトレーニング,マルチタスクトレーニング,および「チェーンオブ思考」知識蒸留細調整技術について検討した。
論文 参考訳(メタデータ) (2023-10-02T01:00:50Z) - LOGICSEG: Parsing Visual Semantics with Neural Logic Learning and
Reasoning [73.98142349171552]
LOGICSEGは、神経誘導学習と論理推論をリッチデータとシンボリック知識の両方に統合する、全体論的視覚意味論である。
ファジィ論理に基づく連続的な緩和の間、論理式はデータとニューラルな計算グラフに基礎を置いており、論理によるネットワークトレーニングを可能にする。
これらの設計によりLOGICSEGは、既存のセグメンテーションモデルに容易に統合できる汎用的でコンパクトなニューラル論理マシンとなる。
論文 参考訳(メタデータ) (2023-09-24T05:43:19Z) - Modeling Hierarchical Reasoning Chains by Linking Discourse Units and
Key Phrases for Reading Comprehension [80.99865844249106]
本稿では,論理的推論の基盤として,対話レベルと単語レベルの両方の文脈を扱う総合グラフネットワーク(HGN)を提案する。
具体的には、ノードレベルの関係とタイプレベルの関係は、推論過程におけるブリッジと解釈できるが、階層的な相互作用機構によってモデル化される。
論文 参考訳(メタデータ) (2023-06-21T07:34:27Z) - Statistical relational learning and neuro-symbolic AI: what does
first-order logic offer? [12.47276164048813]
我々の目的は、非技術的手法で(確率的な)知識を表現するために(一階述語)論理を使うことの論理的および哲学的基礎を短時間に調査し、明確にすることである。
機械学習の研究者たちは、なぜ研究コミュニティがリレーショナル表現に関心を持っているのかを知らないため、この記事は穏やかな紹介として役立てることができる。
学習分野の新参者である論理専門家にとって、そのような論文は、有限と無限の違いをナビゲートし、主観的確率とランダムな世界意味論の違いをナビゲートするのに役立ちます。
論文 参考訳(メタデータ) (2023-06-08T12:34:31Z) - Large Language Models are In-Context Semantic Reasoners rather than
Symbolic Reasoners [75.85554779782048]
大規模言語モデル(LLM)は、近年、自然言語と機械学習コミュニティを興奮させています。
多くの成功を収めたアプリケーションにもかかわらず、そのようなコンテキスト内機能の基盤となるメカニズムはまだ不明である。
本研究では,学習した言語トークンのテクストセマンティクスが推論過程において最も重い処理を行うと仮定する。
論文 参考訳(メタデータ) (2023-05-24T07:33:34Z) - Discourse-Aware Graph Networks for Textual Logical Reasoning [142.0097357999134]
パッセージレベルの論理関係は命題単位間の係り合いまたは矛盾を表す(例、結論文)
論理的推論QAを解くための論理構造制約モデリングを提案し、談話対応グラフネットワーク(DAGN)を導入する。
ネットワークはまず、インラインの談話接続とジェネリック論理理論を利用した論理グラフを構築し、その後、エッジ推論機構を用いて論理関係を進化させ、グラフ機能を更新することで論理表現を学習する。
論文 参考訳(メタデータ) (2022-07-04T14:38:49Z) - Logical Neural Networks [51.46602187496816]
ニューラルネットワーク(学習)と記号論理(知識と推論)の両方の重要な特性をシームレスに提供する新しいフレームワークを提案する。
すべてのニューロンは、重み付けされた実数値論理における公式の構成要素としての意味を持ち、非常に解釈不能な非絡み合い表現をもたらす。
推論は事前に定義されたターゲット変数ではなく、オムニであり、論理的推論に対応する。
論文 参考訳(メタデータ) (2020-06-23T16:55:45Z) - Three Modern Roles for Logic in AI [11.358487655918676]
人工知能における論理学の現代的役割を3つ検討する。
これには計算、データと知識の組み合わせから学ぶこと、機械学習システムの振る舞いを推論することなどが含まれる。
論文 参考訳(メタデータ) (2020-04-18T11:51:13Z) - SMT + ILP [12.47276164048813]
我々は、満足度モジュロ理論技術を活用して、帰納的宣言型プログラミングを再考する。
本稿では、満足度変調理論技術を活用して、帰納的宣言型プログラミングを再考する。
論文 参考訳(メタデータ) (2020-01-15T10:09:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。