論文の概要: GLUCOSE: GeneraLized and COntextualized Story Explanations
- arxiv url: http://arxiv.org/abs/2009.07758v2
- Date: Thu, 29 Oct 2020 18:10:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 23:01:59.384856
- Title: GLUCOSE: GeneraLized and COntextualized Story Explanations
- Title(参考訳): GLUCOSE: ジェネラライズド・コネマライズド・ストーリーの解説
- Authors: Nasrin Mostafazadeh, Aditya Kalyanpur, Lori Moon, David Buchanan,
Lauren Berkowitz, Or Biran, Jennifer Chu-Carroll
- Abstract要約: 本稿では,暗黙的なコモンセンス因果知識の大規模データセットであるGLUCOSEを紹介する。
我々は,GLUCOSEデータを大規模にクラウドソーシングするためのプラットフォームを提案する。
既存の知識資源と事前学習言語モデルでは,GLUCOSEの豊富な推論内容は含まないか,容易に予測できないことを示す。
- 参考スコア(独自算出の注目度): 2.985011228784964
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When humans read or listen, they make implicit commonsense inferences that
frame their understanding of what happened and why. As a step toward AI systems
that can build similar mental models, we introduce GLUCOSE, a large-scale
dataset of implicit commonsense causal knowledge, encoded as causal
mini-theories about the world, each grounded in a narrative context. To
construct GLUCOSE, we drew on cognitive psychology to identify ten dimensions
of causal explanation, focusing on events, states, motivations, and emotions.
Each GLUCOSE entry includes a story-specific causal statement paired with an
inference rule generalized from the statement. This paper details two concrete
contributions. First, we present our platform for effectively crowdsourcing
GLUCOSE data at scale, which uses semi-structured templates to elicit causal
explanations. Using this platform, we collected a total of ~670K specific
statements and general rules that capture implicit commonsense knowledge about
everyday situations. Second, we show that existing knowledge resources and
pretrained language models do not include or readily predict GLUCOSE's rich
inferential content. However, when state-of-the-art neural models are trained
on this knowledge, they can start to make commonsense inferences on unseen
stories that match humans' mental models.
- Abstract(参考訳): 人間が読むか聞くとき、彼らは暗黙の常識的推論を行い、何が起きたのか、なぜ起きたのかを理解する。
同様のメンタルモデルを構築することができるAIシステムへのステップとして、暗黙のコモンセンス因果的知識の大規模データセットであるGLUCOSEを紹介します。
GLUCOSEを構築するために、我々は認知心理学に基づいて10次元の因果説明を識別し、出来事、状態、モチベーション、感情に焦点をあてた。
各GLUCOSEエントリには、そのステートメントから一般化された推論ルールと組み合わせたストーリー固有の因果文が含まれている。
本稿では2つの具体的な貢献について述べる。
まず,我々は,半構造化テンプレートを用いて因果説明を導出するグルコースデータを大規模にクラウドソーシングするプラットフォームを提案する。
このプラットフォームを用いて,日常の状況に関する暗黙の常識的知識をキャプチャする,約670万の特定の文と一般的なルールを収集した。
第2に,既存の知識資源や事前学習言語モデルでは,GLUCOSEの豊富な推論内容は含まないか,容易に予測できないことを示す。
しかし、最先端のニューラルモデルがこの知識に基づいて訓練されると、人間のメンタルモデルにマッチする見えないストーリーに対して常識的な推論を始めることができる。
関連論文リスト
- Artificial Scientific Discovery [5.241773225218436]
この論文はAlphaGoからChatGPTにまたがって、人工科学者のビジョンを実現するために必要な概念を検証している。
人工科学者は、その発見を説明するために使用される言語の独自の解釈を開発する必要がある。
この視点は、現代のマルチモーダルモデルをインタプリタと見なし、解釈可能で費用対効果の高いCLIPのようなモデルを構築するための新しい方法を考案することにつながります。
論文 参考訳(メタデータ) (2024-11-18T15:51:45Z) - Knowledge Overshadowing Causes Amalgamated Hallucination in Large Language Models [65.32990889402927]
「我々はこの現象を知識の誇張として造る。」
その結果, 幻覚率の増大は, 不均衡比と支配的条件記述の長さに左右されることがわかった。
本稿では,その発生前に幻覚をキャッチするための信号として,オーバーシェーディング条件を用いることを提案する。
論文 参考訳(メタデータ) (2024-07-10T20:37:42Z) - Chain-of-Knowledge: Integrating Knowledge Reasoning into Large Language Models by Learning from Knowledge Graphs [55.317267269115845]
Chain-of-Knowledge (CoK)は知識推論のための包括的なフレームワークである。
CoKにはデータセット構築とモデル学習の両方のための方法論が含まれている。
KnowReasonで広範な実験を行う。
論文 参考訳(メタデータ) (2024-06-30T10:49:32Z) - EventGround: Narrative Reasoning by Grounding to Eventuality-centric Knowledge Graphs [41.928535719157054]
本研究では,事象中心の知識グラフに自由文を接地する問題に対処するため,EventGroundと呼ばれる初期包括的フレームワークを提案する。
これらの問題に対処するために、単純で効果的な解析と部分的な情報抽出方法を提案する。
基礎知識を取り入れた我々の枠組みは、解釈可能な証拠を提供しながら最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-03-30T01:16:37Z) - Neural Causal Abstractions [63.21695740637627]
我々は、変数とそのドメインをクラスタリングすることで、因果抽象化の新しいファミリーを開発する。
本稿では,ニューラルネットワークモデルを用いて,そのような抽象化が現実的に学習可能であることを示す。
本実験は、画像データを含む高次元設定に因果推論をスケールする方法を記述し、その理論を支持する。
論文 参考訳(メタデータ) (2024-01-05T02:00:27Z) - MoCa: Measuring Human-Language Model Alignment on Causal and Moral
Judgment Tasks [49.60689355674541]
認知科学の豊富な文献は人々の因果関係と道徳的直観を研究してきた。
この研究は、人々の判断に体系的に影響を及ぼす多くの要因を明らかにした。
大規模言語モデル(LLM)が、人間の参加者と一致するテキストベースのシナリオについて因果的、道徳的な判断を下すかどうかを検証する。
論文 参考訳(メタデータ) (2023-10-30T15:57:32Z) - POSQA: Probe the World Models of LLMs with Size Comparisons [38.30479784257936]
身体的言語理解は、言語理解が単に脳の精神的処理の問題ではないことを強調している。
LLM(Large Language Models)の爆発的成長と、私たちの日常生活にすでに広く存在していることから、現実の理解を検証する必要性が高まっている。
論文 参考訳(メタデータ) (2023-10-20T10:05:01Z) - Adversarial Transformer Language Models for Contextual Commonsense
Inference [14.12019824666882]
コモンセンス推論はコヒーレントなコモンセンスアサーションを生成するタスクである。
課題のいくつかは、推測された事実のトピックに対する制御可能性の欠如、トレーニング中の常識知識の欠如である。
我々は、上記の課題に対処する技術を開発する。
論文 参考訳(メタデータ) (2023-02-10T18:21:13Z) - Acquiring and Modelling Abstract Commonsense Knowledge via Conceptualization [49.00409552570441]
本研究では,コモンセンス推論における概念化の役割について検討し,人間の概念化を再現する枠組みを定式化する。
ATOMIC は大規模な人為的注釈付き CKG であり,この枠組みを分類プロベースで支援している。
論文 参考訳(メタデータ) (2022-06-03T12:24:49Z) - GreaseLM: Graph REASoning Enhanced Language Models for Question
Answering [159.9645181522436]
GreaseLMは、事前訓練されたLMとグラフニューラルネットワークの符号化された表現を、複数の層にわたるモダリティ相互作用操作で融合する新しいモデルである。
GreaseLMは、状況制約と構造化知識の両方の推論を必要とする問題に、より確実に答えることができる。
論文 参考訳(メタデータ) (2022-01-21T19:00:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。