論文の概要: ESPRIT: Explaining Solutions to Physical Reasoning Tasks
- arxiv url: http://arxiv.org/abs/2005.00730v2
- Date: Thu, 14 May 2020 00:24:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 11:49:33.187180
- Title: ESPRIT: Explaining Solutions to Physical Reasoning Tasks
- Title(参考訳): ESPRIT:物理推論課題へのソリューションの説明
- Authors: Nazneen Fatema Rajani, Rui Zhang, Yi Chern Tan, Stephan Zheng, Jeremy
Weiss, Aadit Vyas, Abhijit Gupta, Caiming XIong, Richard Socher, Dragomir
Radev
- Abstract要約: ESPRITは自然言語における定性的物理学に関する常識推論のためのフレームワークである。
我々のフレームワークは、エージェントや人間が容易に解を推論できるように、物理的シミュレーションがどのように因果的に進化するかを説明することを学ぶ。
人間の評価は、ESPRITが重要な微細な細部を生み出し、人間のアノテーションよりも物理的な概念を高い範囲でカバーしていることを示している。
- 参考スコア(独自算出の注目度): 106.77019206219984
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks lack the ability to reason about qualitative physics and so
cannot generalize to scenarios and tasks unseen during training. We propose
ESPRIT, a framework for commonsense reasoning about qualitative physics in
natural language that generates interpretable descriptions of physical events.
We use a two-step approach of first identifying the pivotal physical events in
an environment and then generating natural language descriptions of those
events using a data-to-text approach. Our framework learns to generate
explanations of how the physical simulation will causally evolve so that an
agent or a human can easily reason about a solution using those interpretable
descriptions. Human evaluations indicate that ESPRIT produces crucial
fine-grained details and has high coverage of physical concepts compared to
even human annotations. Dataset, code and documentation are available at
https://github.com/salesforce/esprit.
- Abstract(参考訳): ニューラルネットワークには定性的物理を推論する能力がなく、訓練中に見つからないシナリオやタスクに一般化できない。
本研究では,物理事象の解釈可能な記述を生成する自然言語の定性物理に関する常識推論フレームワークESPRITを提案する。
まず、環境における重要な物理イベントを識別し、次にデータからテキストへのアプローチを用いて、それらのイベントの自然言語記述を生成する2段階のアプローチを用いる。
本フレームワークは, エージェントや人間が解釈可能な記述を用いて容易に解を推論できるように, 物理的シミュレーションがどのように因果的に進化するかを説明することを学習する。
人間の評価は、ESPRITが重要な微細な細部を生み出し、人間のアノテーションよりも物理的な概念を多くカバーしていることを示している。
データセット、コード、ドキュメントはhttps://github.com/salesforce/espritで入手できる。
関連論文リスト
- Neural Force Field: Learning Generalized Physical Representation from a Few Examples [24.651024239605288]
大規模なトレーニングにもかかわらず、現在のAIモデルは、同様の一般化を達成するのに依然として苦労している。
ニューラル正規微分方程式(NODE)に基づくモデリングフレームワークであるニューラルフォース場(NFF)を提案する。
NFFは、重力、支持、衝突などの基本的な物理的概念を解釈可能な方法で捉えている。
論文 参考訳(メタデータ) (2025-02-13T05:50:13Z) - A Multi-Task Text Classification Pipeline with Natural Language Explanations: A User-Centric Evaluation in Sentiment Analysis and Offensive Language Identification in Greek Tweets [8.846643533783205]
この研究は、テキスト分類タスクで使用できる新しいパイプラインの初期の概念を紹介している。
テキストをラベル付けする分類器と、説明を提供する説明生成器の2つのモデルから構成される。
ギリシャのツイートにおける感情分析と攻撃的な言語識別のタスクを中心に実験が行われている。
論文 参考訳(メタデータ) (2024-10-14T08:41:31Z) - Compositional Physical Reasoning of Objects and Events from Videos [122.6862357340911]
本稿では,物体の動きや相互作用から隠れた物理的特性を推定するという課題に対処する。
我々は、ComPhyの最先端ビデオ推論モデルを評価し、これらの隠れプロパティをキャプチャする限られた能力を明らかにする。
また,視覚的および隠れた物理的特性を学習し,原因を解明する,新しいニューロシンボリックな枠組みであるPhysical Concept Reasoner(PCR)を提案する。
論文 参考訳(メタデータ) (2024-08-02T15:19:55Z) - Physical Property Understanding from Language-Embedded Feature Fields [27.151380830258603]
本稿では,画像の集合を用いて物体の物理的特性を高密度に予測する手法を提案する。
人間が視覚を通して物理学をどう考えるかに触発されて、我々は大きな言語モデルを活用して、各対象に対して候補となる材料を提案する。
我々の手法は正確で、アノテーションなしで、オープン世界のどんなオブジェクトにも適用できます。
論文 参考訳(メタデータ) (2024-04-05T17:45:07Z) - PhyGrasp: Generalizing Robotic Grasping with Physics-informed Large
Multimodal Models [58.33913881592706]
人間は、自分の直感的な物理学を巧みに把握し、これまで見たことのない物体であっても、効率的に把握を変更できる。
この研究は、そのような物理的常識的推論をロボット操作に注入することに注力している。
自然言語と3次元点雲の2つのモードからの入力を利用するマルチモーダル大モデルであるPhyGraspを紹介する。
論文 参考訳(メタデータ) (2024-02-26T18:57:52Z) - Interpreting Pretrained Language Models via Concept Bottlenecks [55.47515772358389]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて大きな進歩を遂げてきた。
ブラックボックスの性質による解釈可能性の欠如は、責任ある実装に課題をもたらす。
本研究では,人間にとって理解しやすい高レベルで有意義な概念を用いて,PLMを解釈する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-08T20:41:18Z) - CLEVRER-Humans: Describing Physical and Causal Events the Human Way [55.44915246065028]
CLEVRER-Humansベンチマークは,人間ラベルを用いた物理的事象の因果判定のためのビデオデータセットである。
まず、ビデオ内のイベントを新たに表現するための、新しい反復的なイベントクローゼタスク、すなわち、Causal Event Graphs (CEGs) と呼ぶもので、第2に、ニューラルネットワーク生成モデルに基づくデータ拡張技術である。
論文 参考訳(メタデータ) (2023-10-05T16:09:48Z) - Imagination-Augmented Natural Language Understanding [71.51687221130925]
自然言語理解タスクを解決するために,Imagination-Augmented Cross-modal (iACE)を導入する。
iACEは、強力な生成的および事前訓練された視覚・言語モデルから変換された外部知識で視覚的な想像を可能にする。
GLUEとSWAGの実験は、iACEが視覚的に教師付き事前訓練されたモデルよりも一貫した改善を達成していることを示している。
論文 参考訳(メタデータ) (2022-04-18T19:39:36Z) - Physion: Evaluating Physical Prediction from Vision in Humans and
Machines [46.19008633309041]
我々は、この能力を正確に測定する視覚的および身体的予測ベンチマークを示す。
我々は、様々な物理予測を行う能力について、アルゴリズムの配列を比較した。
物理的な状態にアクセス可能なグラフニューラルネットワークは、人間の振る舞いを最もよく捉えている。
論文 参考訳(メタデータ) (2021-06-15T16:13:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。