論文の概要: Inferring the Future by Imagining the Past
- arxiv url: http://arxiv.org/abs/2305.17195v2
- Date: Mon, 30 Oct 2023 13:24:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-02 02:16:29.998288
- Title: Inferring the Future by Imagining the Past
- Title(参考訳): 過去を想像して未来を推測する
- Authors: Kartik Chandra, Tony Chen, Tzu-Mao Li, Jonathan Ragan-Kelley, Josh
Tenenbaum
- Abstract要約: 人間は通常、空力シーンの静的スナップショットから過去と将来のイベントの複雑なシーケンスを推論する。
本稿では、人間がこのような迅速で柔軟な推論を行う方法をモデル化する。
私たちの重要な技術的洞察は、推論問題とモンテカルロのパストレースとの間に驚くべきつながりがあることです。
- 参考スコア(独自算出の注目度): 16.94725365663225
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A single panel of a comic book can say a lot: it can depict not only where
the characters currently are, but also their motions, their motivations, their
emotions, and what they might do next. More generally, humans routinely infer
complex sequences of past and future events from a *static snapshot* of a
*dynamic scene*, even in situations they have never seen before.
In this paper, we model how humans make such rapid and flexible inferences.
Building on a long line of work in cognitive science, we offer a Monte Carlo
algorithm whose inferences correlate well with human intuitions in a wide
variety of domains, while only using a small, cognitively-plausible number of
samples. Our key technical insight is a surprising connection between our
inference problem and Monte Carlo path tracing, which allows us to apply
decades of ideas from the computer graphics community to this
seemingly-unrelated theory of mind task.
- Abstract(参考訳): 漫画本の1枚のパネルは、現在キャラクターがどこにいるかだけでなく、彼らの動き、モチベーション、感情、次に何をすべきかを描写することができる。
より一般に、人間は、これまで見たことのない状況でも*静的なスナップショット*から、過去の出来事と将来の出来事の複雑なシーケンスを日常的に推測する。
本稿では,人間がこのような迅速かつ柔軟な推論を行う方法をモデル化する。
認知科学における長い研究に基づいて、我々はモンテカルロのアルゴリズムを提供し、その推論は様々な領域における人間の直観とよく相関する。
私たちの重要な技術的洞察は、推論問題とモンテカルロ経路追跡の驚くべき関係であり、コンピュータグラフィックスコミュニティから何十年ものアイデアを、一見無関係な心のタスクに応用することができます。
関連論文リスト
- Does Spatial Cognition Emerge in Frontier Models? [56.47912101304053]
本研究では,フロンティアモデルにおける空間認知を体系的に評価するベンチマークSPACEを提案する。
その結果、現代のフロンティアモデルは動物の空間知能に劣っていることが示唆された。
論文 参考訳(メタデータ) (2024-10-09T01:41:49Z) - Acting as Inverse Inverse Planning [19.267798639508946]
このようなツールに新しい計算フレームワークを提供する。
聴衆をシミュレートするために、認知科学から確立された原則を借りる。
我々は,ストーリーテリングを,逆プランナーの推論を操作する行動を選択するタスクである「逆プランニング*逆プランニング」として扱う。
論文 参考訳(メタデータ) (2023-05-26T13:26:36Z) - Neural Novel Actor: Learning a Generalized Animatable Neural
Representation for Human Actors [98.24047528960406]
本稿では,複数の人物の多視点画像のスパース集合から,汎用的アニマタブルなニューラル表現を学習するための新しい手法を提案する。
学習された表現は、カメラのスパースセットから任意の人の新しいビューイメージを合成し、さらにユーザのポーズ制御でアニメーション化することができる。
論文 参考訳(メタデータ) (2022-08-25T07:36:46Z) - A-ACT: Action Anticipation through Cycle Transformations [89.83027919085289]
未来を予測できる人間の能力が、機械学習アルゴリズムにどのように移行できるかを分析するために、一歩後退します。
人間の心理学に関する最近の研究は、発生を予測して、人間の脳が両方のシステムにカウントされていることを説明している。
本研究では,行動予測作業における各システムの影響について検討し,学習フレームワークに統合するためのパラダイムを導入する。
論文 参考訳(メタデータ) (2022-04-02T21:50:45Z) - The Abduction of Sherlock Holmes: A Dataset for Visual Abductive
Reasoning [113.25016899663191]
人間は、画像のリテラルの内容を超えるものについて、誘惑的に推論し仮説を立てる能力がある。
本稿では,103K画像の注釈付きコーパスであるSherlockについて述べる。
論文 参考訳(メタデータ) (2022-02-10T02:26:45Z) - Visual Perspective Taking for Opponent Behavior Modeling [22.69165968663182]
ロボットのためのエンドツーエンドの長期視覚予測フレームワークを提案する。
視覚的に隠れて見るという文脈で、我々のアプローチを実証する。
我々は,実世界のマルチエージェント活動に完全に統合できる物理ロボットの能力において,視覚行動モデリングとパースペクティブテイキングスキルが重要な役割を果たすことを示唆する。
論文 参考訳(メタデータ) (2021-05-11T16:02:32Z) - Perpetual Motion: Generating Unbounded Human Motion [61.40259979876424]
我々は、長期的な予測、つまり、人間の動きの長いシーケンスを生成することに焦点を当てる。
本研究では,非決定論的,テキストに変化する,永続的な人間の動きを生成するモデルを提案する。
我々は、これをホワイトノイズガウス過程のKL分岐の重み付き関数を用いて訓練し、潜時シーケンスの時間依存性を許容する。
論文 参考訳(メタデータ) (2020-07-27T21:50:36Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z) - Visual Prediction of Priors for Articulated Object Interaction [37.759459329701194]
人間は先行体験を迅速かつ効率的に構築することができる。
大人は台所などの新しい空間に入る際にもこの行動を示す。
我々は、視覚を通して、類似したドメイン間の相互作用間で知識を伝達する手段を提供する、コンテキスト優先予測法を開発した。
論文 参考訳(メタデータ) (2020-06-06T21:17:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。