論文の概要: Explanatory Learning: Beyond Empiricism in Neural Networks
- arxiv url: http://arxiv.org/abs/2201.10222v1
- Date: Tue, 25 Jan 2022 10:21:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-26 14:08:22.737381
- Title: Explanatory Learning: Beyond Empiricism in Neural Networks
- Title(参考訳): 説明学習--ニューラルネットワークにおける経験主義を超えて
- Authors: Antonio Norelli, Giorgio Mariani, Luca Moschella, Andrea Santilli,
Giambattista Parascandolo, Simone Melzi, Emanuele Rodol\`a
- Abstract要約: 本稿では,記号列に埋もれた既存の知識を機械が活用するためのフレームワークである説明学習を紹介する。
ELでは、プログラム合成で行われているように、記号の解釈の負担は、人間や厳格な人間のコード化されたコンパイラに委ねられません。
我々は、CRNが経験主義的エンド・ツー・エンド・エンド・アプローチの類似したサイズとアーキテクチャよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 12.622254638367504
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce Explanatory Learning (EL), a framework to let machines use
existing knowledge buried in symbolic sequences -- e.g. explanations written in
hieroglyphic -- by autonomously learning to interpret them. In EL, the burden
of interpreting symbols is not left to humans or rigid human-coded compilers,
as done in Program Synthesis. Rather, EL calls for a learned interpreter, built
upon a limited collection of symbolic sequences paired with observations of
several phenomena. This interpreter can be used to make predictions on a novel
phenomenon given its explanation, and even to find that explanation using only
a handful of observations, like human scientists do. We formulate the EL
problem as a simple binary classification task, so that common end-to-end
approaches aligned with the dominant empiricist view of machine learning could,
in principle, solve it. To these models, we oppose Critical Rationalist
Networks (CRNs), which instead embrace a rationalist view on the acquisition of
knowledge. CRNs express several desired properties by construction, they are
truly explainable, can adjust their processing at test-time for harder
inferences, and can offer strong confidence guarantees on their predictions. As
a final contribution, we introduce Odeen, a basic EL environment that simulates
a small flatland-style universe full of phenomena to explain. Using Odeen as a
testbed, we show how CRNs outperform empiricist end-to-end approaches of
similar size and architecture (Transformers) in discovering explanations for
novel phenomena.
- Abstract(参考訳): 例えば、ヒエログリフで書かれた説明など、記号列に埋もれた既存の知識を機械が自律的に理解して解釈できるフレームワークであるExplainatory Learning (EL)を紹介します。
elでは、プログラム合成で行われているように、シンボルの解釈の負担は人間や人間のコード化されたコンパイラに委ねられていない。
むしろELは、いくつかの現象の観測と組み合わせた記号列の限られたコレクションの上に構築された、学習した通訳を求めている。
このインタプリタは、その説明に基づいて新しい現象を予測したり、人間の科学者のようにほんの一握りの観察でその説明を見つけるためにも使うことができる。
EL問題を単純な二分分類タスクとして定式化することにより、機械学習における支配的な経験主義者の見解に一致した共通エンドツーエンドアプローチが、原則としてそれを解くことができる。
これらのモデルに対して、我々は、知識の獲得に関する合理主義的見解を受け入れる批判的合理主義ネットワーク(CRN)に反対する。
crnは構成によっていくつかの望ましい特性を表現し、真に説明可能であり、より難しい推論のためにテスト時に処理を調整でき、予測に対して強い信頼性を提供することができる。
最後の貢献として、説明すべき現象でいっぱいの小さな平地型宇宙をシミュレートする基本的なEL環境であるOdeenを紹介する。
Odeenをテストベッドとして使うと、CRNが経験主義的エンド・ツー・エンド・エンド・アプローチより優れていることを示す。
関連論文リスト
- Understanding Post-hoc Explainers: The Case of Anchors [6.681943980068051]
本稿では,テキストの判断を説明するために,少数の単語群をハイライトする規則に基づく解釈可能性法の理論解析を行う。
アルゴリズムを定式化し有用な洞察を提供した後、数学的にアンカーが有意義な結果をもたらすことを示す。
論文 参考訳(メタデータ) (2023-03-15T17:56:34Z) - NELLIE: A Neuro-Symbolic Inference Engine for Grounded, Compositional, and Explainable Reasoning [59.16962123636579]
本稿では,Prologベースの推論エンジンを新たに提案する。
我々は手作りのルールを、ニューラルネットワークモデリング、ガイド付き生成、半密検索の組み合わせで置き換える。
我々の実装であるNELLIEは、完全に解釈可能なエンドツーエンドの基底QAを示す最初のシステムである。
論文 参考訳(メタデータ) (2022-09-16T00:54:44Z) - Visual Abductive Reasoning [85.17040703205608]
帰納的推論は、部分的な観察の可能な限りの可能な説明を求める。
本稿では,日常的な視覚的状況下でのマシンインテリジェンスの帰納的推論能力を調べるために,新たなタスクとデータセットであるVisual Abductive Reasoning(VAR)を提案する。
論文 参考訳(メタデータ) (2022-03-26T10:17:03Z) - Logic Explained Networks [27.800583434727805]
ネットワークのマインドフルな設計が,論理説明ネットワーク(LEN)と呼ばれる解釈可能なディープラーニングモデルのファミリにつながることを示す。
LENは入力を人間の理解可能な述語にのみ要求し、単純な一階述語論理(FOL)の式で説明を提供する。
LENは、決定木やベイズルールリストのような、確立されたホワイトボックスモデルよりも優れた分類が得られる。
論文 参考訳(メタデータ) (2021-08-11T10:55:42Z) - Abstract Spatial-Temporal Reasoning via Probabilistic Abduction and
Execution [97.50813120600026]
時空間推論は人工知能(AI)の課題である
最近の研究は、この種の抽象的推論タスクに焦点を当てている -- Raven's Progressive Matrices (RPM)
ニューロシンボリックな確率的アブダクションと実行学習者(PrAE)を提案する。
論文 参考訳(メタデータ) (2021-03-26T02:42:18Z) - Towards Interpretable Natural Language Understanding with Explanations
as Latent Variables [146.83882632854485]
そこで本研究では,人間に注釈付き説明文の小さなセットだけを必要とする自然言語理解の枠組みを構築した。
我々のフレームワークは、ニューラルネットワークの基本的な推論過程をモデル化する潜在変数として、自然言語の説明を扱う。
論文 参考訳(メタデータ) (2020-10-24T02:05:56Z) - Leap-Of-Thought: Teaching Pre-Trained Models to Systematically Reason
Over Implicit Knowledge [96.92252296244233]
大規模な事前学習言語モデル(LM)は推論能力を得るが、制御は困難である。
本研究では,暗黙的,事前学習された知識と明示的な自然言語文を併用して,体系的推論を確実に行うことができることを示す。
我々の研究は、シンプルな自然言語文を追加することで、モデルを簡単に修正できるユーザと対話することで、常に改善されるオープンドメインシステムへの道を開く。
論文 参考訳(メタデータ) (2020-06-11T17:02:20Z) - Explanations of Black-Box Model Predictions by Contextual Importance and
Utility [1.7188280334580195]
本稿では,初級者だけでなく専門家が容易に理解できる説明を抽出するために,文脈重要度(CI)と文脈実用性(CU)の概念を提案する。
本手法は,モデルを解釈可能なモデルに変換することなく予測結果を説明する。
カーセレクションの例とアイリスの花分類における説明の有用性を,完全な(つまり,個人の予測の原因)と対照的な説明を提示することによって示す。
論文 参考訳(メタデータ) (2020-05-30T06:49:50Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。