論文の概要: Dr. Neurosymbolic, or: How I Learned to Stop Worrying and Accept
Statistics
- arxiv url: http://arxiv.org/abs/2209.04049v1
- Date: Thu, 8 Sep 2022 22:15:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-12 12:15:49.061028
- Title: Dr. Neurosymbolic, or: How I Learned to Stop Worrying and Accept
Statistics
- Title(参考訳): 神経シンボリック博士:心配をやめて統計を受け入れる方法を学びました
- Authors: Masataro Asai
- Abstract要約: この個人的なメモは、統計学、機械学習、ディープラーニングの慣習を説明し、修正しようと試みている。
機械学習システムを設計するためのステップバイステップのプロトコルを提供する。
- 参考スコア(独自算出の注目度): 5.025654873456756
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The symbolic AI community is increasingly trying to embrace machine learning
in neuro-symbolic architectures, yet is still struggling due to cultural
barriers. To break the barrier, this rather opinionated personal memo attempts
to explain and rectify the conventions in Statistics, Machine Learning, and
Deep Learning from the viewpoint of outsiders. It provides a step-by-step
protocol for designing a machine learning system that satisfies a minimum
theoretical guarantee necessary for being taken seriously by the symbolic AI
community, i.e., it discusses "in what condition we can stop worrying and
accept statistical machine learning." Some highlights:
Most textbooks are written for those who plan to specialize in Stat/ML/DL and
are supposed to accept jargons. This memo is for experienced symbolic
researchers that hear a lot of buzz but are still uncertain and skeptical.
Information on Stat/ML/DL is currently too scattered or too noisy to invest
in. This memo prioritizes compactness and pays special attention to concepts
that resonate well with symbolic paradigms. I hope this memo offers time
savings.
It prioritizes general mathematical modeling and does not discuss any
specific function approximator, such as neural networks (NNs), SVMs, decision
trees, etc.
It is open to corrections. Consider this memo as something similar to a blog
post taking the form of a paper on Arxiv.
- Abstract(参考訳): 象徴的なAIコミュニティは、ニューロシンボリックアーキテクチャーに機械学習を取り入れようとしているが、文化的な障壁のために依然として苦戦している。
障壁を破るために、この個人的なメモは、統計、機械学習、ディープラーニングの慣例を外部の視点から説明し、修正しようとするものである。
それは、象徴的なAIコミュニティによって真剣に受け止められるために必要な最小の理論的保証を満たす機械学習システムを設計するためのステップバイステップのプロトコルを提供する。
ほとんどの教科書は、stat/ml/dlを専門とする人のために書かれており、jargonsを受け入れている。
このメモは、多くの噂を聞いたがまだ不確実で懐疑的だった経験豊富なシンボリック研究者のためのものだ。
Stat/ML/DLに関する情報は、現在、散らばりすぎているか、ノイズが多すぎる。
このメモはコンパクトさを優先し、象徴的なパラダイムとよく調和する概念に特に注意を払う。
このメモが時間を節約してくれることを願っています。
一般的な数学的モデリングを優先し、ニューラルネットワーク(NN)、SVM、決定木など、特定の関数近似器を議論しない。
それは修正の余地がある。
このメモを、arxivに関する論文の形をしたブログ記事に似ていると考えてみよう。
関連論文リスト
- What's in an embedding? Would a rose by any embedding smell as sweet? [0.0]
大規模言語モデル(LLM)は、真の「理解」と知識を「理解」する能力に欠けるとしてしばしば批判される。
我々は, LLM が「幾何学的」な経験的「下地」を発達させ, NLP の様々な応用に適していると考えられることを示唆する。
これらの制限を克服するために、LLMはシンボリックAI要素を含む知識の「代数的」表現と統合されるべきである。
論文 参考訳(メタデータ) (2024-06-11T01:10:40Z) - Rethinking Explainable Machine Learning as Applied Statistics [9.03268085547399]
説明可能な機械学習は、その並列性を応用統計と認識する必要がある、と我々は主張する。
研究論文では、これがほとんど議論されていないという事実が、現在の文献の主な欠点の1つである。
論文 参考訳(メタデータ) (2024-02-05T10:36:48Z) - Trustworthy Machine Learning [57.08542102068706]
信頼に値する機械学習(TML)に関する教科書は、TMLの4つの重要なトピックの理論的および技術的な背景をカバーしている。
本稿では、上記の分野に関する重要な古典的・現代的な研究論文について論じ、その基礎となる直観を解明し、接続する。
論文 参考訳(メタデータ) (2023-10-12T11:04:17Z) - Violation of Expectation via Metacognitive Prompting Reduces Theory of
Mind Prediction Error in Large Language Models [0.0]
大規模言語モデル(LLM)は、心の理論(ToM)タスクにおいて、魅力的な習熟度を示す。
この、観察不能な精神状態を他人に伝える能力は、人間の社会的認知に不可欠であり、人間と人工知能(AI)の主観的関係において同様に重要であることが証明される。
論文 参考訳(メタデータ) (2023-10-10T20:05:13Z) - A Survey of Machine Unlearning [56.017968863854186]
最近の規制では、要求に応じて、ユーザに関する個人情報をコンピュータシステムから削除する必要がある。
MLモデルは古いデータをよく記憶します。
機械学習に関する最近の研究は、この問題を完全に解決することはできなかった。
論文 参考訳(メタデータ) (2022-09-06T08:51:53Z) - An Introduction to Modern Statistical Learning [0.0]
本書は統計学習の統一的な導入をめざしている。
GMMやHMMのような古典的なモデルから、VAEや拡散モデルのような現代的なニューラルネットワークまで、ゆっくりと構築されている。
論文 参考訳(メタデータ) (2022-07-20T20:30:50Z) - Is Neuro-Symbolic AI Meeting its Promise in Natural Language Processing?
A Structured Review [2.064612766965483]
Neuro-Symbolic AI(NeSy)の支持者は、ディープラーニングとシンボリック推論を組み合わせることで、AIがより強くなると主張している。
我々はNLPのためのNeSyを実装した研究の構造化されたレビューを行い、課題と今後の方向性について述べる。
我々は、NeSyがその約束を本当に満たしているかどうか、すなわち、推論、アウト・オブ・ディストリビューションの一般化、解釈可能性、小さなデータからの学習と推論、新しいドメインへの転送可能性という疑問に答えることを目指している。
論文 参考訳(メタデータ) (2022-02-24T17:13:33Z) - When is Memorization of Irrelevant Training Data Necessary for
High-Accuracy Learning? [53.523017945443115]
我々は,十分な精度のトレーニングアルゴリズムが,予測モデルにおいて,そのトレーニング例の大規模サブセットに関する情報を本質的にすべてエンコードしなければならない自然予測問題を記述する。
私たちの結果は、トレーニングアルゴリズムや学習に使用されるモデルのクラスに依存しません。
論文 参考訳(メタデータ) (2020-12-11T15:25:14Z) - Closed Loop Neural-Symbolic Learning via Integrating Neural Perception,
Grammar Parsing, and Symbolic Reasoning [134.77207192945053]
従来の手法は強化学習アプローチを用いてニューラルシンボリックモデルを学ぶ。
我々は,脳神経知覚と記号的推論を橋渡しする前に,textbfgrammarモデルをテキストシンボリックとして導入する。
本稿では,トップダウンのヒューマンライクな学習手順を模倣して誤りを伝播する新しいtextbfback-searchアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-11T17:42:49Z) - The Information Bottleneck Problem and Its Applications in Machine
Learning [53.57797720793437]
近年,機械学習システムの推論能力が急上昇し,社会の様々な側面において重要な役割を担っている。
情報ボトルネック(IB)理論は、ディープラーニング(DL)システムを分析するための大胆な情報理論パラダイムとして登場した。
本チュートリアルでは,この抽象原理の情報理論的起源と最近のDLへの影響について考察する。
論文 参考訳(メタデータ) (2020-04-30T16:48:51Z) - An Information-Theoretic Approach to Personalized Explainable Machine
Learning [92.53970625312665]
本稿では,予測とユーザ知識のための簡易確率モデルを提案する。
説明と予測の間の条件付き相互情報による説明の効果を定量化する。
論文 参考訳(メタデータ) (2020-03-01T13:06:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。