論文の概要: Space of Reasons and Mathematical Model
- arxiv url: http://arxiv.org/abs/2007.02489v1
- Date: Mon, 6 Jul 2020 01:13:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-13 02:25:59.209587
- Title: Space of Reasons and Mathematical Model
- Title(参考訳): 理由の空間と数学的モデル
- Authors: Florian Richter
- Abstract要約: 推論関係は私たちの概念の使用を支配します。
概念を理解するためには、意味のある空間に配置する必要がある。
重要な質問は: 言語の使用条件はどのように表現できるのか。
- 参考スコア(独自算出の注目度): 8.475081627511166
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Inferential relations govern our concept use. In order to understand a
concept it has to be located in a space of implications. There are different
kinds of conditions for statements, i.e. that the conditions represent
different kinds of explanations, e.g. causal or conceptual explanations. The
crucial questions is: How can the conditionality of language use be
represented. The conceptual background of representation in models is discussed
and in the end I propose how implications of propositional logic and conceptual
determinations can be represented in a model of a neural network.
- Abstract(参考訳): 推論関係は私たちの概念の使用を左右する。
概念を理解するためには、意味のある空間に配置する必要がある。
ステートメントには様々な種類の条件があり、例えば、条件が異なる種類の説明、例えば因果的説明や概念的説明を表す。
重要な質問は: 言語の使用条件はどのように表現できるのか。
モデルにおける表現の概念的背景について議論し,最後に,提案論理と概念的決定がニューラルネットワークのモデルにどのように反映されるかを提案する。
関連論文リスト
- DiConStruct: Causal Concept-based Explanations through Black-Box
Distillation [9.735426765564474]
本稿では,概念ベースと因果性の両方を考慮した説明手法であるDiConStructを提案する。
本報告では, ブラックボックス機械学習モデルに対する蒸留モデルとして, その予測を近似し, それぞれの説明を生成する。
論文 参考訳(メタデータ) (2024-01-16T17:54:02Z) - An Axiomatic Approach to Model-Agnostic Concept Explanations [67.84000759813435]
本稿では、線形性、再帰性、類似性という3つの自然な公理を満たす概念的説明へのアプローチを提案する。
次に、従来の概念的説明手法とのつながりを確立し、それらの意味の異なる意味についての洞察を提供する。
論文 参考訳(メタデータ) (2024-01-12T20:53:35Z) - Semantics, Ontology and Explanation [0.0]
本稿では, オントロジアンパックと哲学・科学における他の形態の説明との関係について論じる。
また,人工知能分野におけるオントロジアンパックと他の形態の説明との関係についても論じる。
論文 参考訳(メタデータ) (2023-04-21T16:54:34Z) - MetaLogic: Logical Reasoning Explanations with Fine-Grained Structure [129.8481568648651]
複雑な実生活シナリオにおけるモデルの論理的推論能力を調べるためのベンチマークを提案する。
推論のマルチホップ連鎖に基づいて、説明形式は3つの主成分を含む。
この新たな説明形式を用いて,現在のベストモデルの性能を評価した。
論文 参考訳(メタデータ) (2022-10-22T16:01:13Z) - Human-Centered Concept Explanations for Neural Networks [47.71169918421306]
概念活性化ベクトル(Concept Activation Vectors, CAV)のクラスを含む概念的説明を紹介する。
次に、自動的に概念を抽出するアプローチと、それらの注意事項に対処するアプローチについて議論する。
最後に、このような概念に基づく説明が、合成設定や実世界の応用において有用であることを示すケーススタディについて論じる。
論文 参考訳(メタデータ) (2022-02-25T01:27:31Z) - Interpreting Language Models with Contrastive Explanations [99.7035899290924]
言語モデルは、音声、数字、時制、意味論など、トークンを予測するための様々な特徴を考慮しなければならない。
既存の説明手法は、これらの特徴の証拠を1つの説明に分割するが、人間の理解には理解できない。
比較的な説明は、主要な文法現象の検証において、非対照的な説明よりも定量的に優れていることを示す。
論文 参考訳(メタデータ) (2022-02-21T18:32:24Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - Explanation from Specification [3.04585143845864]
我々は、説明のタイプが仕様によって導かれるアプローチを定式化する。
議論理論を用いたベイズ的ネットワークの説明とグラフニューラルネットワークの説明の2つの例について論じる。
このアプローチは科学哲学における説明理論に動機付けられており、機械学習の役割に関する科学哲学における現在の疑問と関連づけられている。
論文 参考訳(メタデータ) (2020-12-13T23:27:48Z) - Thinking About Causation: A Causal Language with Epistemic Operators [58.720142291102135]
我々はエージェントの状態を表すことで因果モデルの概念を拡張した。
対象言語の側面には、知識を表現する演算子や、新しい情報を観察する行為が追加されます。
我々は、論理の健全かつ完全な公理化を提供し、このフレームワークと因果的チーム意味論との関係について論じる。
論文 参考訳(メタデータ) (2020-10-30T12:16:45Z) - A Unified Scientific Basis for Inference [0.0]
この議論の自然な拡張は、量子力学の形式論の本質的な部分を導出できる概念的基礎を与える。
ベルの不等式に関する疑問は、各観測者に対する条件原理を用いて解決される。
論文 参考訳(メタデータ) (2012-06-22T07:34:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。