論文の概要: PROST: Physical Reasoning of Objects through Space and Time
- arxiv url: http://arxiv.org/abs/2106.03634v1
- Date: Mon, 7 Jun 2021 14:06:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2021-06-09 04:09:40.683374
- Title: PROST: Physical Reasoning of Objects through Space and Time
- Title(参考訳): PROST:空間と時間による物体の物理的推論
- Authors: St\'ephane Aroca-Ouellette, Cory Paik, Alessandro Roncone, and
Katharina Kann
- Abstract要約: このデータセットには、14のテンプレートを手作業でキュレートした18,736の多重選択質問が含まれている。
我々は、最先端の事前学習モデルが物理的推論において不十分であることを示す分析を行う。
- 参考スコア(独自算出の注目度): 68.69796589964076
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a new probing dataset named PROST: Physical Reasoning about
Objects Through Space and Time. This dataset contains 18,736 multiple-choice
questions made from 14 manually curated templates, covering 10 physical
reasoning concepts. All questions are designed to probe both causal and masked
language models in a zero-shot setting. We conduct an extensive analysis which
demonstrates that state-of-the-art pretrained models are inadequate at physical
reasoning: they are influenced by the order in which answer options are
presented to them, they struggle when the superlative in a question is inverted
(e.g., most <-> least), and increasing the amount of pretraining data and
parameters only yields minimal improvements. These results provide support for
the hypothesis that current pretrained models' ability to reason about physical
interactions is inherently limited by a lack of real world experience. By
highlighting these limitations, we hope to motivate the development of models
with a human-like understanding of the physical world.
- Abstract(参考訳): 空間と時間を通じてオブジェクトに関する物理的な推論を行う。
このデータセットには、14のテンプレートを手作業でキュレートした18,736の質問が含まれている。
すべての質問は、ゼロショット設定で因果モデルとマスク付き言語モデルの両方を調べるように設計されている。
我々は、最先端の事前学習モデルが物理的推論において不十分であることを示す広範囲な分析を行う。それらは、答えオプションが提示される順序に影響され、質問の最上位が逆転された場合(例えば、ほとんどの<->最小値)に苦労し、事前学習データやパラメータの増加は最小限の改善しか得られない。
これらの結果は、現在の事前訓練されたモデルが物理的相互作用を推論する能力は、現実世界の経験の欠如によって本質的に制限されているという仮説を支持する。
これらの制限を強調して、人間のような物理的世界を理解するモデルの開発を動機づけたいと考えています。
関連論文リスト
- PhysiX: A Foundation Model for Physics Simulations [27.359872113159405]
物理シミュレーションのための最初の大規模基礎モデルであるPhysorXを紹介する。
PhysiXはデータボトルネックに効果的に対処し、タスク固有のベースラインを上回ります。
その結果,自然ビデオから学んだ知識が物理シミュレーションにうまく移行できることが示唆された。
論文 参考訳(メタデータ) (2025-06-21T18:10:12Z) - CausalVQA: A Physically Grounded Causal Reasoning Benchmark for Video Models [4.889577550694335]
CausalVQAはビデオ質問応答(VQA)のためのベンチマークデータセットである
それは、物理的世界の因果関係に対するモデルの理解を調査する質問と回答のペアで構成されている。
論文 参考訳(メタデータ) (2025-06-11T17:10:36Z) - Seeing is Not Reasoning: MVPBench for Graph-based Evaluation of Multi-path Visual Physical CoT [24.085953089267772]
複雑な場面において,OpenAI o3 と GPT-4o が基本的な物理法則,空間的相互作用,因果的影響を把握できないことを示す。
我々は、視覚連鎖(CoT)レンズによる視覚的身体的推論を厳格に評価するベンチマークであるMVPBenchを紹介した。
最先端のMLLMでさえ、物理領域における視覚的推論精度の低下と画像テキストアライメントの弱さを示す。
論文 参考訳(メタデータ) (2025-05-30T03:48:59Z) - Compositional Physical Reasoning of Objects and Events from Videos [122.6862357340911]
本稿では,物体の動きや相互作用から隠れた物理的特性を推定するという課題に対処する。
我々は、ComPhyの最先端ビデオ推論モデルを評価し、これらの隠れプロパティをキャプチャする限られた能力を明らかにする。
また,視覚的および隠れた物理的特性を学習し,原因を解明する,新しいニューロシンボリックな枠組みであるPhysical Concept Reasoner(PCR)を提案する。
論文 参考訳(メタデータ) (2024-08-02T15:19:55Z) - ContPhy: Continuum Physical Concept Learning and Reasoning from Videos [86.63174804149216]
ContPhyは、マシン物理常識を評価するための新しいベンチマークである。
私たちは、さまざまなAIモデルを評価し、ContPhyで満足なパフォーマンスを達成するのに依然として苦労していることがわかった。
また、近年の大規模言語モデルとパーティクルベースの物理力学モデルを組み合わせるためのオラクルモデル(ContPRO)を導入する。
論文 参考訳(メタデータ) (2024-02-09T01:09:21Z) - Physion++: Evaluating Physical Scene Understanding that Requires Online
Inference of Different Physical Properties [100.19685489335828]
この研究は、人工システムにおける視覚的身体的予測を厳格に評価する新しいデータセットとベンチマークであるPhysylon++を提案する。
正確な予測が質量、摩擦、弾性、変形性などの特性の推定に依存するシナリオをテストする。
我々は,様々なレベルの学習と組込み知識にまたがる最先端予測モデルの性能を評価し,その性能を人間の予測と比較した。
論文 参考訳(メタデータ) (2023-06-27T17:59:33Z) - PACS: A Dataset for Physical Audiovisual CommonSense Reasoning [119.0100966278682]
本稿では,物理コモンセンス属性にアノテートされた最初のオーディオヴィジュアル・ベンチマークPACSについて述べる。
PACSには13,400の質問対があり、1,377のユニークな物理コモンセンス質問と1,526の動画が含まれている。
PACSを用いて,新しい課題に対して複数の最先端モデルを評価する。
論文 参考訳(メタデータ) (2022-03-21T17:05:23Z) - CRAFT: A Benchmark for Causal Reasoning About Forces and inTeractions [11.078508605894411]
CRAFTは、物理的力とオブジェクト相互作用に関する因果推論を必要とする新しい視覚的質問応答データセットです。
10種類の仮想環境から3kビデオから生成される、38kビデオと質問ペアを含んでいる。
人間の認知心理学の分野における力のダイナミクスの理論に着想を得て,対象の意図を理解するための新しい質問カテゴリーを導入する。
論文 参考訳(メタデータ) (2020-12-08T09:11:32Z) - Visual Grounding of Learned Physical Models [66.04898704928517]
人間は、物体の物理的特性を直感的に認識し、複雑な相互作用に従事している場合でも、その動きを予測する。
我々は、物理を同時に推論し、視覚と力学の先行に基づく将来の予測を行うニューラルモデルを提案する。
実験により、我々のモデルはいくつかの観測範囲内で物理的特性を推測できることが示され、モデルが目に見えないシナリオに迅速に適応し、将来正確な予測を行うことができる。
論文 参考訳(メタデータ) (2020-04-28T17:06:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。