論文の概要: Interactive Visual Reasoning under Uncertainty
- arxiv url: http://arxiv.org/abs/2206.09203v2
- Date: Sun, 29 Oct 2023 05:04:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-01 01:40:47.567956
- Title: Interactive Visual Reasoning under Uncertainty
- Title(参考訳): 不確かさ下でのインタラクティブなビジュアル推論
- Authors: Manjie Xu, Guangyuan Jiang, Wei Liang, Chi Zhang, Yixin Zhu
- Abstract要約: 我々は,不確実性下での人工エージェントの推論能力を評価するためのIVRE環境を考案した。
IVREは、Blicket検出を中心にしたリッチなシナリオを特徴とする対話型環境である。
- 参考スコア(独自算出の注目度): 29.596555383319814
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: One of the fundamental cognitive abilities of humans is to quickly resolve
uncertainty by generating hypotheses and testing them via active trials.
Encountering a novel phenomenon accompanied by ambiguous cause-effect
relationships, humans make hypotheses against data, conduct inferences from
observation, test their theory via experimentation, and correct the proposition
if inconsistency arises. These iterative processes persist until the underlying
mechanism becomes clear. In this work, we devise the IVRE (pronounced as
"ivory") environment for evaluating artificial agents' reasoning ability under
uncertainty. IVRE is an interactive environment featuring rich scenarios
centered around Blicket detection. Agents in IVRE are placed into environments
with various ambiguous action-effect pairs and asked to determine each object's
role. They are encouraged to propose effective and efficient experiments to
validate their hypotheses based on observations and actively gather new
information. The game ends when all uncertainties are resolved or the maximum
number of trials is consumed. By evaluating modern artificial agents in IVRE,
we notice a clear failure of today's learning methods compared to humans. Such
inefficacy in interactive reasoning ability under uncertainty calls for future
research in building human-like intelligence.
- Abstract(参考訳): 人間の基本的な認知能力の1つは、仮説を生成し、アクティブトライアルを通じてそれらをテストすることで、不確実性を迅速に解決することである。
不明瞭な因果関係を伴う新しい現象を考慮し、人間はデータに対して仮説を立て、観察から推論を行い、実験を通して理論を検証し、矛盾が発生した場合の命題を正す。
これらの反復プロセスは、基盤となるメカニズムが明確になるまで持続する。
本研究では,不確実性下でのエージェントの推論能力を評価するために,ivre (ivory) 環境を考案する。
IVREは、Blicket検出を中心としたリッチなシナリオを備えた対話型環境である。
IVREのエージェントは、さまざまなあいまいなアクション効果対を持つ環境に配置され、各オブジェクトの役割を決定するように要求される。
彼らは、観察に基づいて仮説を検証する効果的で効率的な実験を提案し、積極的に新しい情報を集めることを奨励されている。
すべての不確実性が解決されたり、最大試行回数が消費された場合、ゲームは終了する。
現代の人工エージェントをIVREで評価することで、今日の学習方法が人間に比べて明らかに失敗していることに気づく。
不確実性下での対話的推論能力の非効率性は、人間のような知性を構築するための将来の研究を要求する。
関連論文リスト
- Sim-to-Real Causal Transfer: A Metric Learning Approach to
Causally-Aware Interaction Representations [62.48505112245388]
エージェント相互作用の現代的表現の因果認識を詳細に検討する。
近年の表現は、非因果剤の摂動に対して部分的に耐性があることが示されている。
因果アノテーションを用いた潜在表現を正規化するための計量学習手法を提案する。
論文 参考訳(メタデータ) (2023-12-07T18:57:03Z) - Self-mediated exploration in artificial intelligence inspired by
cognitive psychology [1.3351610617039975]
物理環境の探索は、データ取得に必須の先駆者であり、分析的または直接的な試行を通じて知識生成を可能にする。
この研究は、人間の行動と人工エージェントを結び付け、自己開発を支援する。
その後の研究では、人工エージェントが収束に向けて繰り返し実施される以前のヒトの治験を反映するように設計されている。
その結果、ほとんどのエージェントが学んだ因果関係が、内部の状態と、人間に報告されたものと一致するための探索の間にあることが示された。
論文 参考訳(メタデータ) (2023-02-13T18:20:44Z) - A Rubric for Human-like Agents and NeuroAI [2.749726993052939]
コントリビュートされた研究は、振る舞いの模倣から機械学習メソッドのテストまで幅広い。
これら3つの目標のうちの1つが自動的に他の目標の進捗に変換されることは想定できない。
これは、弱く強いニューロAIとヒトのようなエージェントの例を用いて明らかにされている。
論文 参考訳(メタデータ) (2022-12-08T16:59:40Z) - A Neural Active Inference Model of Perceptual-Motor Learning [62.39667564455059]
アクティブ推論フレームワーク(英: active inference framework、AIF)は、現代の神経科学を基盤とした、有望な新しい計算フレームワークである。
本研究では,ヒトの視覚行動指導において,AIFが期待する役割を捉える能力をテストする。
本稿では,多次元世界状態から自由エネルギーの一次元分布にマッピングする先行関数の新たな定式化について述べる。
論文 参考訳(メタデータ) (2022-11-16T20:00:38Z) - Empirical Estimates on Hand Manipulation are Recoverable: A Step Towards
Individualized and Explainable Robotic Support in Everyday Activities [80.37857025201036]
ロボットシステムの鍵となる課題は、他のエージェントの振る舞いを理解することである。
正しい推論の処理は、(衝突)因子が実験的に制御されない場合、特に困難である。
人に関する観察研究を行うために必要なツールをロボットに装備することを提案する。
論文 参考訳(メタデータ) (2022-01-27T22:15:56Z) - Information is Power: Intrinsic Control via Information Capture [110.3143711650806]
我々は,潜時状態空間モデルを用いて推定したエージェントの状態訪問のエントロピーを最小化する,コンパクトで汎用的な学習目的を論じる。
この目的は、不確実性の低減に対応する環境情報収集と、将来の世界状態の予測不可能性の低減に対応する環境制御の両方をエージェントに誘導する。
論文 参考訳(メタデータ) (2021-12-07T18:50:42Z) - ACRE: Abstract Causal REasoning Beyond Covariation [90.99059920286484]
因果誘導における現在の視覚システムの系統的評価のための抽象因果分析データセットについて紹介する。
Blicket実験における因果発見の研究の流れに触発され、独立シナリオと介入シナリオのいずれにおいても、以下の4種類の質問で視覚的推論システムに問い合わせる。
純粋なニューラルモデルは確率レベルのパフォーマンスの下で連想戦略に向かう傾向があるのに対し、ニューロシンボリックな組み合わせは後方ブロッキングの推論に苦しむ。
論文 参考訳(メタデータ) (2021-03-26T02:42:38Z) - Imitating Interactive Intelligence [24.95842455898523]
仮想環境の簡略化を用いて、人間と自然に相互作用できる人工エージェントの設計方法を検討する。
人間とロバストに相互作用できるエージェントを構築するには、人間と対話しながらトレーニングするのが理想的です。
我々は,人間とエージェントエージェントの対話行動の相違を低減するために,逆強化学習の考え方を用いる。
論文 参考訳(メタデータ) (2020-12-10T13:55:47Z) - Intrinsic motivation in virtual assistant interaction for fostering
spontaneous interactions [3.420509295457138]
本研究は,感情工学的アプローチによる本質的なモチベーションをカバーすることを目的とする。
新しい動機づけモデルが提案され、本質的な動機づけは能力の期待と不確実性という2つの要因によって影響を受ける。
最初の実験の結果、期待度の高いエンゲージは、期待度が低いよりも本質的に動機づけられた相互作用を示すことがわかった。
論文 参考訳(メタデータ) (2020-10-13T14:23:57Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。