論文の概要: Untrained neural networks can demonstrate memorization-independent abstract reasoning
- arxiv url: http://arxiv.org/abs/2407.17791v2
- Date: Fri, 08 Nov 2024 13:45:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-11 18:11:13.372649
- Title: Untrained neural networks can demonstrate memorization-independent abstract reasoning
- Title(参考訳): トレーニングされていないニューラルネットワークは記憶に依存しない抽象的推論を証明できる
- Authors: Tomer Barak, Yonatan Loewenstein,
- Abstract要約: 本研究では,ANNのツールボックスを用いて,事前学習なしに抽象的推論が達成できるかどうかを検討する。
視覚的推論問題に対してこのモデリング手法を検証したところ、比較的よく機能していることが判明した。
ANNの重みを変えることで問題解決を行うため、ANNにおける問題解決と知識の蓄積との関係について検討した。
- 参考スコア(独自算出の注目度): 0.30693357740321775
- License:
- Abstract: The nature of abstract reasoning is a matter of debate. Modern artificial neural network (ANN) models, like large language models, demonstrate impressive success when tested on abstract reasoning problems. However, it has been argued that their success reflects some form of memorization of similar problems (data contamination) rather than a general-purpose abstract reasoning capability. This concern is supported by evidence of brittleness, and the requirement of extensive training. In our study, we explored whether abstract reasoning can be achieved using the toolbox of ANNs, without prior training. Specifically, we studied an ANN model in which the weights of a naive network are optimized during the solution of the problem, using the problem data itself, rather than any prior knowledge. We tested this modeling approach on visual reasoning problems and found that it performs relatively well. Crucially, this success does not rely on memorization of similar problems. We further suggest an explanation of how it works. Finally, as problem solving is performed by changing the ANN weights, we explored the connection between problem solving and the accumulation of knowledge in the ANNs.
- Abstract(参考訳): 抽象的推論の性質は議論の問題である。
現代の人工知能ニューラルネットワーク(ANN)モデルは、大きな言語モデルと同様に、抽象的推論問題をテストすることで、素晴らしい成功を収めた。
しかし、それらの成功は、汎用的な抽象的推論能力ではなく、類似した問題(データの汚染)を記憶する何らかの形態を反映していると論じられている。
この懸念は、脆さの証拠と広範な訓練の必要性によって裏付けられている。
本研究では,ANNのツールボックスを用いて,事前学習なしに抽象的推論が達成できるかどうかを検討した。
具体的には,従来の知識ではなく,問題データ自体を用いて,ナイーブネットワークの重み付けを問題の解決時に最適化するANNモデルについて検討した。
視覚的推論問題に対して, このモデリング手法を検証したところ, 比較的よく機能していることがわかった。
重要なことに、この成功は同様の問題の記憶に頼らない。
さらに、それがどのように機能するかを説明します。
最後に、ANN重みを変更して問題解決を行うため、ANNにおける問題解決と知識の蓄積との関係について検討した。
関連論文リスト
- Simple and Effective Transfer Learning for Neuro-Symbolic Integration [50.592338727912946]
この問題の潜在的な解決策はNeuro-Symbolic Integration (NeSy)であり、ニューラルアプローチとシンボリック推論を組み合わせる。
これらの手法のほとんどは、認識をシンボルにマッピングするニューラルネットワークと、下流タスクの出力を予測する論理的論理的推論を利用する。
それらは、緩やかな収束、複雑な知覚タスクの学習困難、局所的なミニマへの収束など、いくつかの問題に悩まされている。
本稿では,これらの問題を改善するための簡易かつ効果的な方法を提案する。
論文 参考訳(メタデータ) (2024-02-21T15:51:01Z) - Optimisation in Neurosymbolic Learning Systems [1.450405446885067]
我々は、記号言語を用いて表現されたデータと背景知識の両方を持つニューロシンボリックラーニングについて研究する。
確率論的推論(probabilistic reasoning)は、ニューラルネットワークに自然に適合する。
私たちの洞察は、確率論的推論の結果を予測するために、合成データでニューラルネットワークをトレーニングすることです。
論文 参考訳(メタデータ) (2024-01-19T17:09:32Z) - Bridging Logic and Learning: A Neural-Symbolic Approach for Enhanced
Reasoning in Neural Models (ASPER) [0.13053649021965597]
本稿では,学習推論タスクにおけるニューラルモデルの性能向上を目的としたアプローチを提案する。
これを実現するために、Answer Set Programmingソルバとドメイン固有の専門知識を統合する。
モデルは、トレーニングとテストのためにたった12のパズルを使用して、スドゥークパズルの解法を大幅に改善したことを示している。
論文 参考訳(メタデータ) (2023-12-18T19:06:00Z) - Artificial Neural Nets and the Representation of Human Concepts [2.365973885231265]
機械学習(ML)コミュニティは、ANNが複雑なタスクを実行するために抽象的なヒューマンコンセプトを開発する必要があるという物語を共有している。
さらには、これらの概念がネットワークの個々の単位に保存されていると考える人もいる。
ANNは複雑な予測タスクを実際に実行でき、人間や非人間の概念を学習することができると結論付けます。
論文 参考訳(メタデータ) (2023-12-08T19:52:48Z) - From Psychological Curiosity to Artificial Curiosity: Curiosity-Driven
Learning in Artificial Intelligence Tasks [56.20123080771364]
心理学的好奇心は、探索と情報取得を通じて学習を強化するために、人間の知性において重要な役割を果たす。
人工知能(AI)コミュニティでは、人工好奇心は効率的な学習に自然な本質的な動機を与える。
CDLはますます人気を博し、エージェントは新たな知識を学習するために自己動機付けされている。
論文 参考訳(メタデータ) (2022-01-20T17:07:03Z) - Autonomous Reinforcement Learning: Formalism and Benchmarking [106.25788536376007]
人間や動物が行うような現実世界の具体的学習は、連続的で非エポゾディックな世界にある。
RLの一般的なベンチマークタスクはエピソジックであり、試行錯誤によってエージェントに複数の試行を行う環境がリセットされる。
この相違は、擬似環境向けに開発されたRLアルゴリズムを現実世界のプラットフォーム上で実行しようとする場合、大きな課題となる。
論文 参考訳(メタデータ) (2021-12-17T16:28:06Z) - Systematic human learning and generalization from a brief tutorial with
explanatory feedback [3.7826494079172557]
本研究では,人間の成体による抽象的推論課題の学習能力について考察する。
課題をマスターする参加者は,少数の試行錯誤で達成し,学習範囲外のパズルによく当てはまる。
また,課題を習得した者の多くは有効な解法戦略を記述でき,その参加者は,戦略記述が曖昧で不完全である者よりも,伝達パズルに優れていた。
論文 参考訳(メタデータ) (2021-07-10T00:14:41Z) - Exploring Bayesian Deep Learning for Urgent Instructor Intervention Need
in MOOC Forums [58.221459787471254]
大規模なオープンオンラインコース(MOOC)は、その柔軟性のおかげで、eラーニングの一般的な選択肢となっている。
多くの学習者とその多様な背景から、リアルタイムサポートの提供は課税されている。
MOOCインストラクターの大量の投稿と高い作業負荷により、インストラクターが介入を必要とするすべての学習者を識別できる可能性は低いです。
本稿では,モンテカルロドロップアウトと変分推論という2つの手法を用いて,学習者によるテキスト投稿のベイジアン深層学習を初めて検討する。
論文 参考訳(メタデータ) (2021-04-26T15:12:13Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z) - Explainable Reinforcement Learning: A Survey [0.0]
説明可能な人工知能(XAI)はここ数年で勢いを増している。
XAIモデルには1つの有害な特徴がある。
本調査は、説明可能な強化学習(XRL)手法の概要を提供することで、このギャップに対処しようとするものである。
論文 参考訳(メタデータ) (2020-05-13T10:52:49Z) - Neural Additive Models: Interpretable Machine Learning with Neural Nets [77.66871378302774]
ディープニューラルネットワーク(DNN)は、さまざまなタスクにおいて優れたパフォーマンスを達成した強力なブラックボックス予測器である。
本稿では、DNNの表現性と一般化した加法モデルの固有知性を組み合わせたニューラル付加モデル(NAM)を提案する。
NAMは、ニューラルネットワークの線形結合を学び、それぞれが単一の入力機能に付随する。
論文 参考訳(メタデータ) (2020-04-29T01:28:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。