論文の概要: Human-like Category Learning by Injecting Ecological Priors from Large Language Models into Neural Networks
- arxiv url: http://arxiv.org/abs/2402.01821v2
- Date: Tue, 28 May 2024 07:40:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-30 03:38:05.939148
- Title: Human-like Category Learning by Injecting Ecological Priors from Large Language Models into Neural Networks
- Title(参考訳): 大規模言語モデルからニューラルネットワークへの生態的優先順位の注入による人間的なカテゴリー学習
- Authors: Akshay K. Jagadish, Julian Coda-Forno, Mirko Thalmann, Eric Schulz, Marcel Binz,
- Abstract要約: 我々は、生態学的に合理的なメタ学習推論(ERMI)と呼ばれるモデルのクラスを開発する。
ERMIは2つの異なる実験で、人間のデータを他の7つの認知モデルより定量的に説明します。
ERMIの生態学的に有効な事前評価により,OpenML-CC18分類ベンチマークで最先端のパフォーマンスを達成できることが示されている。
- 参考スコア(独自算出の注目度): 8.213829427624407
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ecological rationality refers to the notion that humans are rational agents adapted to their environment. However, testing this theory remains challenging due to two reasons: the difficulty in defining what tasks are ecologically valid and building rational models for these tasks. In this work, we demonstrate that large language models can generate cognitive tasks, specifically category learning tasks, that match the statistics of real-world tasks, thereby addressing the first challenge. We tackle the second challenge by deriving rational agents adapted to these tasks using the framework of meta-learning, leading to a class of models called ecologically rational meta-learned inference (ERMI). ERMI quantitatively explains human data better than seven other cognitive models in two different experiments. It additionally matches human behavior on a qualitative level: (1) it finds the same tasks difficult that humans find difficult, (2) it becomes more reliant on an exemplar-based strategy for assigning categories with learning, and (3) it generalizes to unseen stimuli in a human-like way. Furthermore, we show that ERMI's ecologically valid priors allow it to achieve state-of-the-art performance on the OpenML-CC18 classification benchmark.
- Abstract(参考訳): エコロジー的合理性(Ecoological rationality)とは、人間は環境に適応した合理的エージェントである、という概念を指す。
しかしながら、この理論を検証することは、どのタスクがエコロジー的に有効かを定義するのが困難であることと、これらのタスクに合理的なモデルを構築することの2つの理由から難しいままである。
本研究では,大規模言語モデルが実世界の課題の統計に合致する認知タスク,特にカテゴリ学習タスクを生成できることを示し,最初の課題に対処する。
本稿では,これらの課題に適応した有理的エージェントをメタラーニングの枠組みを用いて導き,生態学的に合理的なメタラーニング推論(ERMI)と呼ばれるモデルのクラスに導出する。
ERMIは2つの異なる実験で、人間のデータを他の7つの認知モデルより定量的に説明します。
さらに、質的なレベルで人間の行動にマッチする:(1)人間が難しいと感じるのと同じタスクを見つけ、(2)学習でカテゴリーを割り当てる模範的な戦略に頼りやすくなり、(3)人間のような方法で見えない刺激に一般化する。
さらに、ERMIの生態学的に有効な事前評価により、OpenML-CC18分類ベンチマークで最先端のパフォーマンスを達成することができることを示す。
関連論文リスト
- Predicting and Understanding Human Action Decisions: Insights from Large Language Models and Cognitive Instance-Based Learning [0.0]
大きな言語モデル(LLM)は、様々なタスクにまたがってその能力を実証している。
本稿では,LLMの推論と生成能力を利用して,2つの逐次意思決定タスクにおける人間の行動を予測する。
我々は,LLMの性能を,人間の経験的意思決定を模倣した認知的インスタンスベース学習モデルと比較した。
論文 参考訳(メタデータ) (2024-07-12T14:13:06Z) - Language Models Trained to do Arithmetic Predict Human Risky and Intertemporal Choice [4.029252551781513]
本稿では,認知モデルとしての大規模言語モデルの有用性を高める新しい手法を提案する。
生態学的に有効な算術的データセットに基づいて事前訓練されたLLMは、従来の認知モデルよりも人間の行動を予測する。
論文 参考訳(メタデータ) (2024-05-29T17:37:14Z) - Ontology Completion with Natural Language Inference and Concept Embeddings: An Analysis [26.918368764004796]
本研究では,特定のオントロジーから欠落する有能な知識の発見という課題を,よく研究された分類学拡張タスクの一般化として考察する。
1行の作業は、このタスクを自然言語推論(NLI)問題として扱い、不足した知識を特定するために言語モデルによって取得された知識に依存します。
別の研究の行では、概念埋め込みを使用して、カテゴリベースの帰納のための認知モデルからインスピレーションを得て、異なる概念が共通しているものを特定する。
論文 参考訳(メタデータ) (2024-03-25T21:46:35Z) - Can Foundation Models Watch, Talk and Guide You Step by Step to Make a
Cake? [62.59699229202307]
AIの進歩にもかかわらず、インタラクティブなタスクガイダンスシステムの開発は依然として大きな課題である。
我々は、人間のユーザと人間のインストラクターとの自然なインタラクションに基づいて、新しいマルチモーダルベンチマークデータセット、ウォッチ、トーク、ガイド(WTaG)を作成しました。
いくつかの基礎モデルを活用して、これらのモデルが認識可能なタスクガイダンスに迅速に適応できるかを調査した。
論文 参考訳(メタデータ) (2023-11-01T15:13:49Z) - Language Aligned Visual Representations Predict Human Behavior in
Naturalistic Learning Tasks [0.0]
人間は自然物の関連する特徴を識別し、一般化する能力を持っている。
カテゴリー学習と報奨学習の2つの実験を行った。
参加者は数回の臨床試験で関連する刺激の特徴を特定できた。
本研究では,多様な深層学習モデルの試行錯誤精度を評価するため,広範囲なモデル比較を行った。
論文 参考訳(メタデータ) (2023-06-15T08:18:29Z) - User Behavior Simulation with Large Language Model based Agents [116.74368915420065]
LLMベースのエージェントフレームワークを提案し,実際のユーザ動作をシミュレートするサンドボックス環境を設計する。
実験結果から,本手法のシミュレーション行動は実人の行動に非常に近いことが判明した。
論文 参考訳(メタデータ) (2023-06-05T02:58:35Z) - ANALOGYKB: Unlocking Analogical Reasoning of Language Models with A Million-scale Knowledge Base [51.777618249271725]
ANALOGYKBは、既存の知識グラフ(KGs)から派生した100万スケールのアナロジー知識ベースである
1)KGから直接抽出できる同一関係のアナロジー、2)大きな言語モデル(LLM)によって実現される選択とフィルタリングパイプラインと識別される類似関係のアナロジーである。
論文 参考訳(メタデータ) (2023-05-10T09:03:01Z) - Modelling human logical reasoning process in dynamic environmental
stress with cognitive agents [13.171768256928509]
本研究では,ドリフト拡散と深部強化学習を統合した認知エージェントを提案する。
21,157個の論理応答の大規模なデータセットを活用することで、動的ストレスのパフォーマンスへの影響を調査する。
定量的に、このフレームワークは、主観的および刺激特異的な行動差を捉えることにより、認知モデリングを改善する。
全体として、この研究は、動的文脈における人間の論理的推論プロセスのバガリーをシミュレートし、理解するための、強力でデータ駆動の方法論を示している。
論文 参考訳(メタデータ) (2023-01-15T23:46:37Z) - Autonomous Reinforcement Learning: Formalism and Benchmarking [106.25788536376007]
人間や動物が行うような現実世界の具体的学習は、連続的で非エポゾディックな世界にある。
RLの一般的なベンチマークタスクはエピソジックであり、試行錯誤によってエージェントに複数の試行を行う環境がリセットされる。
この相違は、擬似環境向けに開発されたRLアルゴリズムを現実世界のプラットフォーム上で実行しようとする場合、大きな課題となる。
論文 参考訳(メタデータ) (2021-12-17T16:28:06Z) - Task-Agnostic Morphology Evolution [94.97384298872286]
モルフォロジーと振る舞いを共同適用する現在のアプローチでは、特定のタスクの報酬をモルフォロジー最適化のシグナルとして使用します。
これはしばしば高価なポリシー最適化を必要とし、一般化するために構築されていないタスクに依存した形態をもたらす。
我々は,これらの問題を緩和するための新しいアプローチであるタスク非依存形態進化(tame)を提案する。
論文 参考訳(メタデータ) (2021-02-25T18:59:21Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。