論文の概要: Doing Experiments and Revising Rules with Natural Language and
Probabilistic Reasoning
- arxiv url: http://arxiv.org/abs/2402.06025v2
- Date: Mon, 19 Feb 2024 16:09:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 01:05:34.618784
- Title: Doing Experiments and Revising Rules with Natural Language and
Probabilistic Reasoning
- Title(参考訳): 自然言語による実験と規則改正と確率論的推論
- Authors: Top Piriyakulkij, Kevin Ellis
- Abstract要約: 実験を行うことで、人間が隠れたルールを積極的に推論する方法のモデルを構築します。
これら3つの原則 – 明示的な仮説,確率的ルール,オンライン更新 – を組み合わせることで,禅道的なタスクにおける人的パフォーマンスが説明できることが分かりました。
- 参考スコア(独自算出の注目度): 7.11993673836973
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We build a computational model of how humans actively infer hidden rules by
doing experiments. The basic principles behind the model is that, even if the
rule is deterministic, the learner considers a broader space of fuzzy
probabilistic rules, which it represents in natural language, and updates its
hypotheses online after each experiment according to approximately Bayesian
principles. In the same framework we also model experiment design according to
information-theoretic criteria. We find that the combination of these three
principles -- explicit hypotheses, probabilistic rules, and online updates --
can explain human performance on a Zendo-style task, and that removing any of
these components leaves the model unable to account for the data.
- Abstract(参考訳): 実験によって人間が隠れたルールを積極的に推論する方法の計算モデルを構築した。
このモデルの背後にある基本的な原理は、たとえ規則が決定論的であっても、学習者は自然言語で表されるファジィ確率規則の広い空間を検討し、実験の後に概ねベイズ原理に従ってその仮説をオンラインで更新するということである。
同じフレームワークでは、情報理論の基準に従って実験設計もモデル化する。
これら3つの原則 – 明示的な仮説,確率的ルール,オンライン更新 – の組み合わせによって,zendoスタイルのタスクにおけるヒューマンパフォーマンスの説明が可能になると同時に,これらのコンポーネントの削除によって,モデルにデータの説明ができないことが分かりました。
関連論文リスト
- Transformers are uninterpretable with myopic methods: a case study with
bounded Dyck grammars [36.780346257061495]
解釈可能性法は、訓練されたモデルによって実装されたアルゴリズムを理解することを目的としている。
私たちは、モデルの個々の部分にのみフォーカスするメソッドの批判的な見解を取ります。
論文 参考訳(メタデータ) (2023-12-03T15:34:46Z) - Phenomenal Yet Puzzling: Testing Inductive Reasoning Capabilities of
Language Models with Hypothesis Refinement [95.10400704620797]
言語モデル(LM)は、しばしば帰納的推論に不足する。
我々は,反復的仮説修正を通じて,LMの帰納的推論能力を体系的に研究する。
本研究は, LMの誘導的推論過程と人間とのいくつかの相違点を明らかにし, 誘導的推論タスクにおけるLMの使用の可能性と限界に光を当てる。
論文 参考訳(メタデータ) (2023-10-12T17:51:10Z) - Machine Learning with Probabilistic Law Discovery: A Concise
Introduction [77.34726150561087]
Probabilistic Law Discovery (PLD) は、確率論的ルール学習の変種を実装した論理ベースの機械学習手法である。
PLDはDecision Tree/Random Forestメソッドに近いが、関連するルールの定義方法に大きく異なる。
本稿はPLDの主な原則を概説し、その利点と限界を強調し、いくつかのアプリケーションガイドラインを提供する。
論文 参考訳(メタデータ) (2022-12-22T17:40:13Z) - Machine Learning Approaches for Principle Prediction in Naturally
Occurring Stories [9.652610879417326]
本研究では,自然発生ストーリーデータに対する規範的原理予測の課題に対する機械学習モデルの利用について検討する。
個別の原則は分類できるが、「道徳的原則」が表すもののあいまいさは、人間の参加者と自律システムの両方に課題をもたらすことを示す。
論文 参考訳(メタデータ) (2022-11-19T03:14:23Z) - Observing Interventions: A logic for thinking about experiments [62.997667081978825]
本稿では,実験から学ぶ論理への第一歩について述べる。
我々のアプローチにとって重要なことは、介入の概念が(現実的または仮説的な)実験の形式的表現として使用できるという考えである。
提案された全ての論理系に対して、健全で完全な公理化を提供する。
論文 参考訳(メタデータ) (2021-11-25T09:26:45Z) - Plinko: A Theory-Free Behavioral Measure of Priors for Statistical
Learning and Mental Model Updating [62.997667081978825]
Plinko(リンク)は,参加者が利用可能なすべての結果に対してボール滴の分布を推定する行動課題である。
対象者は,確率分布の確率分布を中心にクラスタリングし,事前クラスタメンバシップは学習能力を示す可能性があることを示す。
我々は,個々の参加者が信頼できる表現であり,物理的に不可解な球滴分布に直面した場合,学習が阻害されないことを検証した。
論文 参考訳(メタデータ) (2021-07-23T22:27:30Z) - Exploring Lexical Irregularities in Hypothesis-Only Models of Natural
Language Inference [5.283529004179579]
自然言語推論(NLI)またはテキスト関連認識(RTE)は、文のペア間の関係を予測するタスクです。
包含を理解するモデルは前提と仮説の両方をエンコードするべきである。
Poliakらによる実験。
仮説でのみ観察されたパターンに対するこれらのモデルの強い好みを明らかにした。
論文 参考訳(メタデータ) (2021-01-19T01:08:06Z) - Identifying Learning Rules From Neural Network Observables [26.96375335939315]
学習ルールの異なるクラスは、重み、アクティベーション、即時的な階層的活動変化の集計統計に基づいてのみ分離可能であることを示す。
本研究は, シナプス後活動の電気生理学的記録から得られる活性化パターンが, 学習規則の同定に有効であることを示すものである。
論文 参考訳(メタデータ) (2020-10-22T14:36:54Z) - Model-Based Robust Deep Learning: Generalizing to Natural,
Out-of-Distribution Data [104.69689574851724]
本稿では,摂動に基づく逆方向の強靭性からモデルに基づく頑健な深層学習へのパラダイムシフトを提案する。
我々の目標は、深層ニューラルネットワークを訓練し、データの自然な変動に対して堅牢にするための一般的なトレーニングアルゴリズムを提供することです。
論文 参考訳(メタデータ) (2020-05-20T13:46:31Z) - Predicting Performance for Natural Language Processing Tasks [128.34208911925424]
実験条件を入力として,NLP実験の評価スコアを予測する回帰モデルを構築した。
9つの異なるNLPタスクを実験した結果、予測器は目に見えない言語や異なるモデリングアーキテクチャに対して有意義な予測を生成できることがわかった。
論文 参考訳(メタデータ) (2020-05-02T16:02:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。