論文の概要: EST: Evaluating Scientific Thinking in Artificial Agents
- arxiv url: http://arxiv.org/abs/2206.09203v1
- Date: Sat, 18 Jun 2022 13:32:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-26 04:41:31.302730
- Title: EST: Evaluating Scientific Thinking in Artificial Agents
- Title(参考訳): EST: 人工エージェントの科学的思考を評価する
- Authors: Manjie Xu, Guangyuan Jiang, Chi Zhang, Song-Chun Zhu, Yixin Zhu
- Abstract要約: 子どもたちは、フォーマルな研究において科学的推論と著しく似た方法で学習と思考を実証する。
人間のように学習し、思考できる機械の構築に向けて、私たちが現在達成している知性が、そのような科学的思考プロセスを実行することができるかどうか、という疑問が自然に浮かび上がっています。
人工エージェントの科学的思考能力を評価するためのEST環境を考案する。
- 参考スコア(独自算出の注目度): 86.18513085126686
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Theoretical ideas and empirical research have shown us a seemingly surprising
result: children, even very young toddlers, demonstrate learning and thinking
in a strikingly similar manner to scientific reasoning in formal research.
Encountering a novel phenomenon, children make hypotheses against data, conduct
causal inference from observation, test their theory via experimentation, and
correct the proposition if inconsistency arises. Rounds of such processes
continue until the underlying mechanism is found. Towards building machines
that can learn and think like people, one natural question for us to ask is:
whether the intelligence we achieve today manages to perform such a scientific
thinking process, and if any, at what level. In this work, we devise the EST
environment for evaluating the scientific thinking ability in artificial
agents. Motivated by the stream of research on causal discovery, we build our
interactive EST environment based on Blicket detection. Specifically, in each
episode of EST, an agent is presented with novel observations and asked to
figure out all objects' Blicketness. At each time step, the agent proposes new
experiments to validate its hypothesis and updates its current belief. By
evaluating Reinforcement Learning (RL) agents on both a symbolic and visual
version of this task, we notice clear failure of today's learning methods in
reaching a level of intelligence comparable to humans. Such inefficacy of
learning in scientific thinking calls for future research in building humanlike
intelligence.
- Abstract(参考訳): 子どもは、非常に若い幼児でさえ、形式的な研究において科学的推論と非常によく似た方法で学習と思考を示しています。
新たな現象を仮定すると、子どもたちはデータに対して仮説を立て、観察から因果推論を行い、実験を通して理論を検証し、矛盾が発生した場合、命題を正す。
そのようなプロセスのラウンドは、基盤となるメカニズムが見つかるまで継続する。
私たちが今日達成した知性が、そのような科学的思考プロセスを実行し、どんなレベルでも実行することができるかどうか、という疑問です。
本研究では,人工エージェントの科学的思考能力を評価するためのest環境を考案する。
因果発見の研究の流れに触発されて,Blicket検出に基づく対話型EST環境を構築した。
具体的には、estの各エピソードにおいて、エージェントが新しい観察を行い、すべてのオブジェクトのblicketnessを解明するように要求される。
それぞれの時間ステップで、エージェントは仮説を検証する新しい実験を提案し、現在の信念を更新する。
このタスクのシンボリックバージョンとビジュアルバージョンの両方で強化学習(RL)エージェントを評価することで、今日の学習方法が人間に匹敵するインテリジェンスレベルに到達できないことが明らかになった。
科学的思考における学習の非効率性は、人間のような知性を構築するための将来の研究を要求する。
関連論文リスト
- Sim-to-Real Causal Transfer: A Metric Learning Approach to
Causally-Aware Interaction Representations [62.48505112245388]
エージェント相互作用の現代的表現の因果認識を詳細に検討する。
近年の表現は、非因果剤の摂動に対して部分的に耐性があることが示されている。
因果アノテーションを用いた潜在表現を正規化するための計量学習手法を提案する。
論文 参考訳(メタデータ) (2023-12-07T18:57:03Z) - Self-mediated exploration in artificial intelligence inspired by
cognitive psychology [1.3351610617039975]
物理環境の探索は、データ取得に必須の先駆者であり、分析的または直接的な試行を通じて知識生成を可能にする。
この研究は、人間の行動と人工エージェントを結び付け、自己開発を支援する。
その後の研究では、人工エージェントが収束に向けて繰り返し実施される以前のヒトの治験を反映するように設計されている。
その結果、ほとんどのエージェントが学んだ因果関係が、内部の状態と、人間に報告されたものと一致するための探索の間にあることが示された。
論文 参考訳(メタデータ) (2023-02-13T18:20:44Z) - A Rubric for Human-like Agents and NeuroAI [2.749726993052939]
コントリビュートされた研究は、振る舞いの模倣から機械学習メソッドのテストまで幅広い。
これら3つの目標のうちの1つが自動的に他の目標の進捗に変換されることは想定できない。
これは、弱く強いニューロAIとヒトのようなエージェントの例を用いて明らかにされている。
論文 参考訳(メタデータ) (2022-12-08T16:59:40Z) - A Neural Active Inference Model of Perceptual-Motor Learning [62.39667564455059]
アクティブ推論フレームワーク(英: active inference framework、AIF)は、現代の神経科学を基盤とした、有望な新しい計算フレームワークである。
本研究では,ヒトの視覚行動指導において,AIFが期待する役割を捉える能力をテストする。
本稿では,多次元世界状態から自由エネルギーの一次元分布にマッピングする先行関数の新たな定式化について述べる。
論文 参考訳(メタデータ) (2022-11-16T20:00:38Z) - Empirical Estimates on Hand Manipulation are Recoverable: A Step Towards
Individualized and Explainable Robotic Support in Everyday Activities [80.37857025201036]
ロボットシステムの鍵となる課題は、他のエージェントの振る舞いを理解することである。
正しい推論の処理は、(衝突)因子が実験的に制御されない場合、特に困難である。
人に関する観察研究を行うために必要なツールをロボットに装備することを提案する。
論文 参考訳(メタデータ) (2022-01-27T22:15:56Z) - Information is Power: Intrinsic Control via Information Capture [110.3143711650806]
我々は,潜時状態空間モデルを用いて推定したエージェントの状態訪問のエントロピーを最小化する,コンパクトで汎用的な学習目的を論じる。
この目的は、不確実性の低減に対応する環境情報収集と、将来の世界状態の予測不可能性の低減に対応する環境制御の両方をエージェントに誘導する。
論文 参考訳(メタデータ) (2021-12-07T18:50:42Z) - ACRE: Abstract Causal REasoning Beyond Covariation [90.99059920286484]
因果誘導における現在の視覚システムの系統的評価のための抽象因果分析データセットについて紹介する。
Blicket実験における因果発見の研究の流れに触発され、独立シナリオと介入シナリオのいずれにおいても、以下の4種類の質問で視覚的推論システムに問い合わせる。
純粋なニューラルモデルは確率レベルのパフォーマンスの下で連想戦略に向かう傾向があるのに対し、ニューロシンボリックな組み合わせは後方ブロッキングの推論に苦しむ。
論文 参考訳(メタデータ) (2021-03-26T02:42:38Z) - Imitating Interactive Intelligence [24.95842455898523]
仮想環境の簡略化を用いて、人間と自然に相互作用できる人工エージェントの設計方法を検討する。
人間とロバストに相互作用できるエージェントを構築するには、人間と対話しながらトレーニングするのが理想的です。
我々は,人間とエージェントエージェントの対話行動の相違を低減するために,逆強化学習の考え方を用いる。
論文 参考訳(メタデータ) (2020-12-10T13:55:47Z) - Intrinsic motivation in virtual assistant interaction for fostering
spontaneous interactions [3.420509295457138]
本研究は,感情工学的アプローチによる本質的なモチベーションをカバーすることを目的とする。
新しい動機づけモデルが提案され、本質的な動機づけは能力の期待と不確実性という2つの要因によって影響を受ける。
最初の実験の結果、期待度の高いエンゲージは、期待度が低いよりも本質的に動機づけられた相互作用を示すことがわかった。
論文 参考訳(メタデータ) (2020-10-13T14:23:57Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。