論文の概要: Do Children Texts Hold The Key To Commonsense Knowledge?
- arxiv url: http://arxiv.org/abs/2210.04530v1
- Date: Mon, 10 Oct 2022 09:56:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 14:41:15.107271
- Title: Do Children Texts Hold The Key To Commonsense Knowledge?
- Title(参考訳): 子どものテキストは常識知識の鍵を握っているか?
- Authors: Julien Romero and Simon Razniewski
- Abstract要約: 本稿では,子どもの文章がコモンセンス・ナレッジ・コンピレーションの鍵を握っているかどうかを考察する。
いくつかのコーパスによる分析では、子供の文章は確かにより多く、より典型的な常識的主張を含んでいることが示されている。
実験により、この利点は一般的な言語モデルに基づくコモンセンス知識抽出設定で活用できることが示されている。
- 参考スコア(独自算出の注目度): 14.678465723838599
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Compiling comprehensive repositories of commonsense knowledge is a
long-standing problem in AI. Many concerns revolve around the issue of
reporting bias, i.e., that frequency in text sources is not a good proxy for
relevance or truth. This paper explores whether children's texts hold the key
to commonsense knowledge compilation, based on the hypothesis that such content
makes fewer assumptions on the reader's knowledge, and therefore spells out
commonsense more explicitly. An analysis with several corpora shows that
children's texts indeed contain much more, and more typical commonsense
assertions. Moreover, experiments show that this advantage can be leveraged in
popular language-model-based commonsense knowledge extraction settings, where
task-unspecific fine-tuning on small amounts of children texts (childBERT)
already yields significant improvements. This provides a refreshing perspective
different from the common trend of deriving progress from ever larger models
and corpora.
- Abstract(参考訳): 常識知識の包括的なリポジトリをコンパイルすることは、AIの長年の問題である。
多くの懸念は、レポートバイアスの問題、すなわち、テキストソースの頻度が関連性や真理のよいプロキシではないという問題に反する。
本稿では,子どもの文章が,読者の知識に対する仮定が少ないという仮説に基づいて,常識知識の編纂の鍵を握っているかどうかを考察する。
いくつかのコーパスによる分析では、子供の文章は確かにより多く、より典型的な常識的主張を含んでいる。
さらに、この利点は、少数の児童テキスト(子BERT)のタスク非特異な微調整が既に大幅に改善されている、一般的な言語モデルに基づくコモンセンス知識抽出設定で活用できることを示す。
これは、より大きなモデルやコーパスから進歩を引き出す一般的な傾向とは異なる、リフレッシュな視点を提供する。
関連論文リスト
- What Really is Commonsense Knowledge? [58.5342212738895]
我々は、既存のコモンセンス知識の定義を調査し、概念を定義するための3つのフレームワークに基礎を置き、それらをコモンセンス知識の統一的な定義に統合する。
次に、アノテーションと実験のための統合された定義をCommonsenseQAとCommonsenseQA 2.0データセットで使用します。
本研究は,2つのデータセットには非常識知識のインスタンスが多数存在し,これら2つのサブセットに対して大きな性能差があることを示す。
論文 参考訳(メタデータ) (2024-11-06T14:54:19Z) - ClaimVer: Explainable Claim-Level Verification and Evidence Attribution of Text Through Knowledge Graphs [13.608282497568108]
ClaimVerは、ユーザの情報と検証のニーズを満たすように設計された、人間中心のフレームワークである。
各クレームをハイライトし、信頼された知識グラフに対して検証し、クレームの予測に対して簡潔で明確な説明を提供する。
論文 参考訳(メタデータ) (2024-03-12T17:07:53Z) - Rule or Story, Which is a Better Commonsense Expression for Talking with Large Language Models? [49.83570853386928]
人間は物語を通して暗黙的にコモンセンスを伝え、伝承する。
本稿では,物語を通して表現される大規模言語モデル(LLM)の固有コモンセンス能力について検討する。
論文 参考訳(メタデータ) (2024-02-22T07:55:26Z) - MORE: Multi-mOdal REtrieval Augmented Generative Commonsense Reasoning [66.06254418551737]
本稿では,テキストと画像の両面を利用したマルチモーダル検索フレームワークを提案し,言語モデルのコモンセンス性を向上する。
Common-Genタスクの実験では、シングルモードと複数モードの事前学習モデルに基づくMOREの有効性が実証されている。
論文 参考訳(メタデータ) (2024-02-21T08:54:47Z) - Visually Grounded Commonsense Knowledge Acquisition [132.42003872906062]
大規模なコモンセンス知識ベースは、幅広いAIアプリケーションを促進する。
視覚知覚には、現実世界の実体に関する豊富な常識知識が含まれる。
本稿では,遠隔教師付きマルチインスタンス学習問題としてCKEを定式化するCLEVERを提案する。
論文 参考訳(メタデータ) (2022-11-22T07:00:16Z) - ComFact: A Benchmark for Linking Contextual Commonsense Knowledge [31.19689856957576]
そこで我々は,KGから状況に関連のあるコモンセンス知識を特定するために,モデルにコンテキストを付与し,訓練を行う,コモンセンス事実リンクの新しい課題を提案する。
われわれの新しいベンチマークであるComFactは、4つのスタイリスティックな多様なデータセットにまたがるコモンセンスのための293kのインコンテキスト関連アノテーションを含んでいる。
論文 参考訳(メタデータ) (2022-10-23T09:30:39Z) - Dimensions of Commonsense Knowledge [60.49243784752026]
我々は,その関係に特に焦点をあてて,広く普及しているコモンセンスソースを調査した。
我々はこれらの関係を13の知識次元に集約し、それぞれがソースにあるより具体的な関係を抽象化する。
論文 参考訳(メタデータ) (2021-01-12T17:52:39Z) - Improving Machine Reading Comprehension with Contextualized Commonsense
Knowledge [62.46091695615262]
我々は、機械読解の理解を改善するために、常識知識を抽出することを目指している。
構造化知識を文脈内に配置することで,関係を暗黙的に表現することを提案する。
我々は,教師の学習パラダイムを用いて,複数種類の文脈的知識を学生機械読取機に注入する。
論文 参考訳(メタデータ) (2020-09-12T17:20:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。