論文の概要: Ecologically rational meta-learned inference explains human category
learning
- arxiv url: http://arxiv.org/abs/2402.01821v1
- Date: Fri, 2 Feb 2024 16:32:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 00:04:37.162877
- Title: Ecologically rational meta-learned inference explains human category
learning
- Title(参考訳): 生態学的に合理的なメタ学習推論は人間のカテゴリー学習を説明する
- Authors: Akshay K. Jagadish, Julian Coda-Forno, Mirko Thalmann, Eric Schulz,
and Marcel Binz
- Abstract要約: 我々は、生態学的に合理的なメタ学習推論(ERMI)と呼ばれるモデルのクラスを開発する。
ERMIは2つの異なる実験で、人間のデータを他の7つの認知モデルより定量的に説明します。
ERMIの生態学的に有効な事前評価により,OpenML-CC18分類ベンチマークで最先端のパフォーマンスを達成できることが示されている。
- 参考スコア(独自算出の注目度): 8.213829427624407
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ecological rationality refers to the notion that humans are rational agents
adapted to their environment. However, testing this theory remains challenging
due to two reasons: the difficulty in defining what tasks are ecologically
valid and building rational models for these tasks. In this work, we
demonstrate that large language models can generate cognitive tasks,
specifically category learning tasks, that match the statistics of real-world
tasks, thereby addressing the first challenge. We tackle the second challenge
by deriving rational agents adapted to these tasks using the framework of
meta-learning, leading to a class of models called ecologically rational
meta-learned inference (ERMI). ERMI quantitatively explains human data better
than seven other cognitive models in two different experiments. It additionally
matches human behavior on a qualitative level: (1) it finds the same tasks
difficult that humans find difficult, (2) it becomes more reliant on an
exemplar-based strategy for assigning categories with learning, and (3) it
generalizes to unseen stimuli in a human-like way. Furthermore, we show that
ERMI's ecologically valid priors allow it to achieve state-of-the-art
performance on the OpenML-CC18 classification benchmark.
- Abstract(参考訳): エコロジー的合理性(Ecoological rationality)とは、人間は環境に適応した合理的エージェントであるという考えを指す。
しかしながら、この理論の検証は、生態学的に妥当なタスクの定義が困難であることと、これらのタスクの合理的モデルを構築することの2つの理由から、依然として困難である。
本研究では,大規模言語モデルが実世界の課題の統計に合致する認知タスク,特にカテゴリ学習タスクを生成できることを示し,最初の課題に対処する。
本稿では,これらの課題に適応した有理的エージェントをメタラーニングの枠組みを用いて導き,生態学的に合理的なメタラーニング推論(ERMI)と呼ばれるモデルのクラスに導出する。
ERMIは2つの異なる実験で、人間のデータを他の7つの認知モデルより定量的に説明します。
さらに、質的レベルでの人間の行動にも適合する:(1)人間が難しいと感じるのと同じタスクを見つける、(2)カテゴリーを学習に割り当てる例題ベースの戦略に依存する、(3)人間のような方法で知覚できない刺激に一般化する。
さらに、ERMIの生態学的に有効な事前評価により、OpenML-CC18分類ベンチマークで最先端のパフォーマンスを達成することができることを示す。
関連論文リスト
- Ontology Completion with Natural Language Inference and Concept Embeddings: An Analysis [26.918368764004796]
本研究では,特定のオントロジーから欠落する有能な知識の発見という課題を,よく研究された分類学拡張タスクの一般化として考察する。
1行の作業は、このタスクを自然言語推論(NLI)問題として扱い、不足した知識を特定するために言語モデルによって取得された知識に依存します。
別の研究の行では、概念埋め込みを使用して、カテゴリベースの帰納のための認知モデルからインスピレーションを得て、異なる概念が共通しているものを特定する。
論文 参考訳(メタデータ) (2024-03-25T21:46:35Z) - Can Foundation Models Watch, Talk and Guide You Step by Step to Make a
Cake? [62.59699229202307]
AIの進歩にもかかわらず、インタラクティブなタスクガイダンスシステムの開発は依然として大きな課題である。
我々は、人間のユーザと人間のインストラクターとの自然なインタラクションに基づいて、新しいマルチモーダルベンチマークデータセット、ウォッチ、トーク、ガイド(WTaG)を作成しました。
いくつかの基礎モデルを活用して、これらのモデルが認識可能なタスクガイダンスに迅速に適応できるかを調査した。
論文 参考訳(メタデータ) (2023-11-01T15:13:49Z) - From Heuristic to Analytic: Cognitively Motivated Strategies for
Coherent Physical Commonsense Reasoning [66.98861219674039]
ヒューリスティック分析推論(HAR)戦略は、モデル決定のための合理化のコヒーレンスを大幅に改善する。
以上の結果から, PLM推論の一貫性と信頼性を効果的に向上できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-10-24T19:46:04Z) - Language Aligned Visual Representations Predict Human Behavior in
Naturalistic Learning Tasks [0.0]
人間は自然物の関連する特徴を識別し、一般化する能力を持っている。
カテゴリー学習と報奨学習の2つの実験を行った。
参加者は数回の臨床試験で関連する刺激の特徴を特定できた。
本研究では,多様な深層学習モデルの試行錯誤精度を評価するため,広範囲なモデル比較を行った。
論文 参考訳(メタデータ) (2023-06-15T08:18:29Z) - User Behavior Simulation with Large Language Model based Agents [116.74368915420065]
LLMベースのエージェントフレームワークを提案し,実際のユーザ動作をシミュレートするサンドボックス環境を設計する。
実験結果から,本手法のシミュレーション行動は実人の行動に非常に近いことが判明した。
論文 参考訳(メタデータ) (2023-06-05T02:58:35Z) - Modelling human logical reasoning process in dynamic environmental
stress with cognitive agents [13.171768256928509]
本研究では,ドリフト拡散と深部強化学習を統合した認知エージェントを提案する。
21,157個の論理応答の大規模なデータセットを活用することで、動的ストレスのパフォーマンスへの影響を調査する。
定量的に、このフレームワークは、主観的および刺激特異的な行動差を捉えることにより、認知モデリングを改善する。
全体として、この研究は、動的文脈における人間の論理的推論プロセスのバガリーをシミュレートし、理解するための、強力でデータ駆動の方法論を示している。
論文 参考訳(メタデータ) (2023-01-15T23:46:37Z) - Modeling Human Behavior Part I -- Learning and Belief Approaches [0.0]
探索とフィードバックを通じて行動のモデルや方針を学ぶ手法に焦点を当てる。
次世代の自律的適応システムは、主にAIエージェントと人間がチームとして一緒に働く。
論文 参考訳(メタデータ) (2022-05-13T07:33:49Z) - Autonomous Reinforcement Learning: Formalism and Benchmarking [106.25788536376007]
人間や動物が行うような現実世界の具体的学習は、連続的で非エポゾディックな世界にある。
RLの一般的なベンチマークタスクはエピソジックであり、試行錯誤によってエージェントに複数の試行を行う環境がリセットされる。
この相違は、擬似環境向けに開発されたRLアルゴリズムを現実世界のプラットフォーム上で実行しようとする場合、大きな課題となる。
論文 参考訳(メタデータ) (2021-12-17T16:28:06Z) - Phy-Q: A Benchmark for Physical Reasoning [5.45672244836119]
エージェントが物理的シナリオを推論し、それに応じてアクションを取る必要がある新しいベンチマークを提案する。
幼児期に獲得した身体的知識と、ロボットが現実世界で操作するために必要な能力に触発されて、我々は15の不可欠な物理的シナリオを特定した。
各シナリオに対して、さまざまな異なるタスクテンプレートを作成し、同じシナリオ内のすべてのタスクテンプレートを、1つの特定の物理ルールを使用することで解決できるようにします。
論文 参考訳(メタデータ) (2021-08-31T09:11:27Z) - BEHAVIOR: Benchmark for Everyday Household Activities in Virtual,
Interactive, and Ecological Environments [70.18430114842094]
本稿では,シミュレーションにおける100のアクティビティを持つAIのベンチマークであるBEHAVIORを紹介する。
これらの活動は現実的で多様性があり、複雑であるように設計されています。
われわれは、バーチャルリアリティー(VR)における500件の人間デモを含む。
論文 参考訳(メタデータ) (2021-08-06T23:36:23Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。