論文の概要: GLUCOSE: GeneraLized and COntextualized Story Explanations
- arxiv url: http://arxiv.org/abs/2009.07758v2
- Date: Thu, 29 Oct 2020 18:10:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 23:01:59.384856
- Title: GLUCOSE: GeneraLized and COntextualized Story Explanations
- Title(参考訳): GLUCOSE: ジェネラライズド・コネマライズド・ストーリーの解説
- Authors: Nasrin Mostafazadeh, Aditya Kalyanpur, Lori Moon, David Buchanan,
Lauren Berkowitz, Or Biran, Jennifer Chu-Carroll
- Abstract要約: 本稿では,暗黙的なコモンセンス因果知識の大規模データセットであるGLUCOSEを紹介する。
我々は,GLUCOSEデータを大規模にクラウドソーシングするためのプラットフォームを提案する。
既存の知識資源と事前学習言語モデルでは,GLUCOSEの豊富な推論内容は含まないか,容易に予測できないことを示す。
- 参考スコア(独自算出の注目度): 2.985011228784964
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When humans read or listen, they make implicit commonsense inferences that
frame their understanding of what happened and why. As a step toward AI systems
that can build similar mental models, we introduce GLUCOSE, a large-scale
dataset of implicit commonsense causal knowledge, encoded as causal
mini-theories about the world, each grounded in a narrative context. To
construct GLUCOSE, we drew on cognitive psychology to identify ten dimensions
of causal explanation, focusing on events, states, motivations, and emotions.
Each GLUCOSE entry includes a story-specific causal statement paired with an
inference rule generalized from the statement. This paper details two concrete
contributions. First, we present our platform for effectively crowdsourcing
GLUCOSE data at scale, which uses semi-structured templates to elicit causal
explanations. Using this platform, we collected a total of ~670K specific
statements and general rules that capture implicit commonsense knowledge about
everyday situations. Second, we show that existing knowledge resources and
pretrained language models do not include or readily predict GLUCOSE's rich
inferential content. However, when state-of-the-art neural models are trained
on this knowledge, they can start to make commonsense inferences on unseen
stories that match humans' mental models.
- Abstract(参考訳): 人間が読むか聞くとき、彼らは暗黙の常識的推論を行い、何が起きたのか、なぜ起きたのかを理解する。
同様のメンタルモデルを構築することができるAIシステムへのステップとして、暗黙のコモンセンス因果的知識の大規模データセットであるGLUCOSEを紹介します。
GLUCOSEを構築するために、我々は認知心理学に基づいて10次元の因果説明を識別し、出来事、状態、モチベーション、感情に焦点をあてた。
各GLUCOSEエントリには、そのステートメントから一般化された推論ルールと組み合わせたストーリー固有の因果文が含まれている。
本稿では2つの具体的な貢献について述べる。
まず,我々は,半構造化テンプレートを用いて因果説明を導出するグルコースデータを大規模にクラウドソーシングするプラットフォームを提案する。
このプラットフォームを用いて,日常の状況に関する暗黙の常識的知識をキャプチャする,約670万の特定の文と一般的なルールを収集した。
第2に,既存の知識資源や事前学習言語モデルでは,GLUCOSEの豊富な推論内容は含まないか,容易に予測できないことを示す。
しかし、最先端のニューラルモデルがこの知識に基づいて訓練されると、人間のメンタルモデルにマッチする見えないストーリーに対して常識的な推論を始めることができる。
関連論文リスト
- Discovery of the Hidden World with Large Language Models [100.38157787218044]
COAT: Causal representatiOn AssistanTについて紹介する。
COATは、非構造化データから潜在的な因果因子を抽出する因子プロジェクタとしてLLMを組み込んでいる。
LLMはデータ値の収集に使用される追加情報を提供するよう指示することもできる。
論文 参考訳(メタデータ) (2024-02-06T12:18:54Z) - Neural Causal Abstractions [63.21695740637627]
我々は、変数とそのドメインをクラスタリングすることで、因果抽象化の新しいファミリーを開発する。
本稿では,ニューラルネットワークモデルを用いて,そのような抽象化が現実的に学習可能であることを示す。
本実験は、画像データを含む高次元設定に因果推論をスケールする方法を記述し、その理論を支持する。
論文 参考訳(メタデータ) (2024-01-05T02:00:27Z) - MoCa: Measuring Human-Language Model Alignment on Causal and Moral
Judgment Tasks [49.60689355674541]
認知科学の豊富な文献は人々の因果関係と道徳的直観を研究してきた。
この研究は、人々の判断に体系的に影響を及ぼす多くの要因を明らかにした。
大規模言語モデル(LLM)が、人間の参加者と一致するテキストベースのシナリオについて因果的、道徳的な判断を下すかどうかを検証する。
論文 参考訳(メタデータ) (2023-10-30T15:57:32Z) - POSQA: Probe the World Models of LLMs with Size Comparisons [38.30479784257936]
身体的言語理解は、言語理解が単に脳の精神的処理の問題ではないことを強調している。
LLM(Large Language Models)の爆発的成長と、私たちの日常生活にすでに広く存在していることから、現実の理解を検証する必要性が高まっている。
論文 参考訳(メタデータ) (2023-10-20T10:05:01Z) - Language Knowledge-Assisted Representation Learning for Skeleton-Based
Action Recognition [71.35205097460124]
人間が他人の行動を理解して認識する方法は、複雑な神経科学の問題である。
LA-GCNは、大規模言語モデル(LLM)知識アシストを用いたグラフ畳み込みネットワークを提案する。
論文 参考訳(メタデータ) (2023-05-21T08:29:16Z) - Adversarial Transformer Language Models for Contextual Commonsense
Inference [14.12019824666882]
コモンセンス推論はコヒーレントなコモンセンスアサーションを生成するタスクである。
課題のいくつかは、推測された事実のトピックに対する制御可能性の欠如、トレーニング中の常識知識の欠如である。
我々は、上記の課題に対処する技術を開発する。
論文 参考訳(メタデータ) (2023-02-10T18:21:13Z) - GreaseLM: Graph REASoning Enhanced Language Models for Question
Answering [159.9645181522436]
GreaseLMは、事前訓練されたLMとグラフニューラルネットワークの符号化された表現を、複数の層にわたるモダリティ相互作用操作で融合する新しいモデルである。
GreaseLMは、状況制約と構造化知識の両方の推論を必要とする問題に、より確実に答えることができる。
論文 参考訳(メタデータ) (2022-01-21T19:00:05Z) - DegreEmbed: incorporating entity embedding into logic rule learning for
knowledge graph reasoning [7.066269573204757]
知識グラフのリンク予測は、既存の知識に基づいて推論することで、行方不明の事実を完遂することを目的としたタスクである。
組込み学習と論理ルールマイニングを組み合わせたKG上での推論モデルであるDegreEmbedを提案する。
論文 参考訳(メタデータ) (2021-12-18T13:38:48Z) - iReason: Multimodal Commonsense Reasoning using Videos and Natural
Language with Interpretability [0.0]
因果的知識は、堅牢なAIシステムを構築する上で不可欠である。
iReasonは、ビデオと自然言語のキャプションの両方を用いて、視覚意味のコモンセンス知識を推論するフレームワークである。
論文 参考訳(メタデータ) (2021-06-25T02:56:34Z) - Paragraph-level Commonsense Transformers with Recurrent Memory [77.4133779538797]
物語からコヒーレントなコモンセンス推論を生成するために,段落レベルの情報を含む談話認識モデルを訓練する。
以上の結果から,PARA-COMETは文レベルのベースライン,特にコヒーレントかつ新規な推論に優れていた。
論文 参考訳(メタデータ) (2020-10-04T05:24:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。