論文の概要: Inferring the Future by Imagining the Past
- arxiv url: http://arxiv.org/abs/2305.17195v1
- Date: Fri, 26 May 2023 18:38:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-30 21:21:07.816851
- Title: Inferring the Future by Imagining the Past
- Title(参考訳): 過去を想像して未来を推測する
- Authors: Kartik Chandra, Tony Chen, Tzu-Mao Li, Jonathan Ragan-Kelley, Josh
Tenenbaum
- Abstract要約: 人間はしばしば、知的エージェントの単一のスナップショット画像から過去と未来の複雑な出来事を推測することができる。
このような推論を行うためのモンテカルロアルゴリズムを提供する。
提案アルゴリズムは,従来の手法では拡張できない様々な領域において,人間の直観と一致していることを示す。
- 参考スコア(独自算出の注目度): 17.95952025137644
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A single panel of a comic book can say a lot: it shows not only where
characters currently are, but also where they came from, what their motivations
are, and what might happen next. More generally, humans can often infer a
complex sequence of past and future events from a *single snapshot image* of an
intelligent agent.
Building on recent work in cognitive science, we offer a Monte Carlo
algorithm for making such inferences. Drawing a connection to Monte Carlo path
tracing in computer graphics, we borrow ideas that help us dramatically improve
upon prior work in sample efficiency. This allows us to scale to a wide variety
of challenging inference problems with only a handful of samples. It also
suggests some degree of cognitive plausibility, and indeed we present human
subject studies showing that our algorithm matches human intuitions in a
variety of domains that previous methods could not scale to.
- Abstract(参考訳): 漫画本の1枚のパネルは、現在キャラクターがいる場所だけでなく、彼らがどこから来たのか、彼らのモチベーションが何であるか、次に何が起こるのかを示す。
より一般的に、人間は知的エージェントの*単一スナップショット画像*から過去と将来の複雑な出来事を推測することができる。
認知科学における最近の研究に基づいて,このような推論を行うモンテカルロアルゴリズムを提案する。
コンピュータグラフィックスにおけるモンテカルロ経路トレースへの接続を描き、サンプル効率の先行作業において劇的に改善するアイデアを借用します。
これにより、ほんの一握りのサンプルだけで、さまざまな難しい推論問題にスケールできます。
これはまた、ある程度の認知的可能性も示唆しており、実際に、我々のアルゴリズムが、以前の方法ではスケールできない様々な領域において、人間の直観と一致することを示す人間の主題研究を示す。
関連論文リスト
- Does Spatial Cognition Emerge in Frontier Models? [56.47912101304053]
本研究では,フロンティアモデルにおける空間認知を体系的に評価するベンチマークSPACEを提案する。
その結果、現代のフロンティアモデルは動物の空間知能に劣っていることが示唆された。
論文 参考訳(メタデータ) (2024-10-09T01:41:49Z) - Acting as Inverse Inverse Planning [19.267798639508946]
このようなツールに新しい計算フレームワークを提供する。
聴衆をシミュレートするために、認知科学から確立された原則を借りる。
我々は,ストーリーテリングを,逆プランナーの推論を操作する行動を選択するタスクである「逆プランニング*逆プランニング」として扱う。
論文 参考訳(メタデータ) (2023-05-26T13:26:36Z) - Neural Novel Actor: Learning a Generalized Animatable Neural
Representation for Human Actors [98.24047528960406]
本稿では,複数の人物の多視点画像のスパース集合から,汎用的アニマタブルなニューラル表現を学習するための新しい手法を提案する。
学習された表現は、カメラのスパースセットから任意の人の新しいビューイメージを合成し、さらにユーザのポーズ制御でアニメーション化することができる。
論文 参考訳(メタデータ) (2022-08-25T07:36:46Z) - A-ACT: Action Anticipation through Cycle Transformations [89.83027919085289]
未来を予測できる人間の能力が、機械学習アルゴリズムにどのように移行できるかを分析するために、一歩後退します。
人間の心理学に関する最近の研究は、発生を予測して、人間の脳が両方のシステムにカウントされていることを説明している。
本研究では,行動予測作業における各システムの影響について検討し,学習フレームワークに統合するためのパラダイムを導入する。
論文 参考訳(メタデータ) (2022-04-02T21:50:45Z) - The Abduction of Sherlock Holmes: A Dataset for Visual Abductive
Reasoning [113.25016899663191]
人間は、画像のリテラルの内容を超えるものについて、誘惑的に推論し仮説を立てる能力がある。
本稿では,103K画像の注釈付きコーパスであるSherlockについて述べる。
論文 参考訳(メタデータ) (2022-02-10T02:26:45Z) - Visual Perspective Taking for Opponent Behavior Modeling [22.69165968663182]
ロボットのためのエンドツーエンドの長期視覚予測フレームワークを提案する。
視覚的に隠れて見るという文脈で、我々のアプローチを実証する。
我々は,実世界のマルチエージェント活動に完全に統合できる物理ロボットの能力において,視覚行動モデリングとパースペクティブテイキングスキルが重要な役割を果たすことを示唆する。
論文 参考訳(メタデータ) (2021-05-11T16:02:32Z) - Perpetual Motion: Generating Unbounded Human Motion [61.40259979876424]
我々は、長期的な予測、つまり、人間の動きの長いシーケンスを生成することに焦点を当てる。
本研究では,非決定論的,テキストに変化する,永続的な人間の動きを生成するモデルを提案する。
我々は、これをホワイトノイズガウス過程のKL分岐の重み付き関数を用いて訓練し、潜時シーケンスの時間依存性を許容する。
論文 参考訳(メタデータ) (2020-07-27T21:50:36Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z) - Visual Prediction of Priors for Articulated Object Interaction [37.759459329701194]
人間は先行体験を迅速かつ効率的に構築することができる。
大人は台所などの新しい空間に入る際にもこの行動を示す。
我々は、視覚を通して、類似したドメイン間の相互作用間で知識を伝達する手段を提供する、コンテキスト優先予測法を開発した。
論文 参考訳(メタデータ) (2020-06-06T21:17:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。