論文の概要: Do Children Texts Hold The Key To Commonsense Knowledge?
- arxiv url: http://arxiv.org/abs/2210.04530v1
- Date: Mon, 10 Oct 2022 09:56:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 14:41:15.107271
- Title: Do Children Texts Hold The Key To Commonsense Knowledge?
- Title(参考訳): 子どものテキストは常識知識の鍵を握っているか?
- Authors: Julien Romero and Simon Razniewski
- Abstract要約: 本稿では,子どもの文章がコモンセンス・ナレッジ・コンピレーションの鍵を握っているかどうかを考察する。
いくつかのコーパスによる分析では、子供の文章は確かにより多く、より典型的な常識的主張を含んでいることが示されている。
実験により、この利点は一般的な言語モデルに基づくコモンセンス知識抽出設定で活用できることが示されている。
- 参考スコア(独自算出の注目度): 14.678465723838599
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Compiling comprehensive repositories of commonsense knowledge is a
long-standing problem in AI. Many concerns revolve around the issue of
reporting bias, i.e., that frequency in text sources is not a good proxy for
relevance or truth. This paper explores whether children's texts hold the key
to commonsense knowledge compilation, based on the hypothesis that such content
makes fewer assumptions on the reader's knowledge, and therefore spells out
commonsense more explicitly. An analysis with several corpora shows that
children's texts indeed contain much more, and more typical commonsense
assertions. Moreover, experiments show that this advantage can be leveraged in
popular language-model-based commonsense knowledge extraction settings, where
task-unspecific fine-tuning on small amounts of children texts (childBERT)
already yields significant improvements. This provides a refreshing perspective
different from the common trend of deriving progress from ever larger models
and corpora.
- Abstract(参考訳): 常識知識の包括的なリポジトリをコンパイルすることは、AIの長年の問題である。
多くの懸念は、レポートバイアスの問題、すなわち、テキストソースの頻度が関連性や真理のよいプロキシではないという問題に反する。
本稿では,子どもの文章が,読者の知識に対する仮定が少ないという仮説に基づいて,常識知識の編纂の鍵を握っているかどうかを考察する。
いくつかのコーパスによる分析では、子供の文章は確かにより多く、より典型的な常識的主張を含んでいる。
さらに、この利点は、少数の児童テキスト(子BERT)のタスク非特異な微調整が既に大幅に改善されている、一般的な言語モデルに基づくコモンセンス知識抽出設定で活用できることを示す。
これは、より大きなモデルやコーパスから進歩を引き出す一般的な傾向とは異なる、リフレッシュな視点を提供する。
関連論文リスト
- Rule or Story, Which is a Better Commonsense Expression for Talking with
Large Language Models? [52.806705229189504]
人間は物語を通して暗黙的にコモンセンスを伝え、伝承する。
本稿では,物語を通して表現される大規模言語モデル(LLM)の固有コモンセンス能力について検討する。
論文 参考訳(メタデータ) (2024-02-22T07:55:26Z) - MORE: Multi-mOdal REtrieval Augmented Generative Commonsense Reasoning [72.16858362186208]
本稿では,テキストと画像の両面を利用したマルチモーダル検索フレームワークを提案し,言語モデルのコモンセンス性を向上する。
Common-Genタスクの実験では、シングルモードと複数モードの事前学習モデルに基づくMOREの有効性が実証されている。
論文 参考訳(メタデータ) (2024-02-21T08:54:47Z) - On the effect of curriculum learning with developmental data for grammar
acquisition [4.4044968357361745]
この研究は、文法習得が言語の単純さによって引き起こされる程度と、データのソースモダリティ(音声対テキスト)について考察する。
特にBabyLMトレーニングコーパス(AO-Childes)とOpen Subtitles(Open Subtitles)の2つを対象とする。
論文 参考訳(メタデータ) (2023-10-31T20:05:30Z) - Context-faithful Prompting for Large Language Models [51.194410884263135]
大言語モデル(LLM)は世界事実に関するパラメトリック知識を符号化する。
パラメトリック知識への依存は、文脈的手がかりを見落とし、文脈に敏感なNLPタスクにおいて誤った予測をもたらす可能性がある。
我々は, LLMの文脈的忠実度を, 知識の衝突と, 棄権による予測の2つの側面で評価し, 向上する。
論文 参考訳(メタデータ) (2023-03-20T17:54:58Z) - Visually Grounded Commonsense Knowledge Acquisition [132.42003872906062]
大規模なコモンセンス知識ベースは、幅広いAIアプリケーションを促進する。
視覚知覚には、現実世界の実体に関する豊富な常識知識が含まれる。
本稿では,遠隔教師付きマルチインスタンス学習問題としてCKEを定式化するCLEVERを提案する。
論文 参考訳(メタデータ) (2022-11-22T07:00:16Z) - ComFact: A Benchmark for Linking Contextual Commonsense Knowledge [31.19689856957576]
そこで我々は,KGから状況に関連のあるコモンセンス知識を特定するために,モデルにコンテキストを付与し,訓練を行う,コモンセンス事実リンクの新しい課題を提案する。
われわれの新しいベンチマークであるComFactは、4つのスタイリスティックな多様なデータセットにまたがるコモンセンスのための293kのインコンテキスト関連アノテーションを含んでいる。
論文 参考訳(メタデータ) (2022-10-23T09:30:39Z) - Commonsense Knowledge in Word Associations and ConceptNet [37.751909219863585]
本稿では,ConcpetNet と SWOW という2つの大規模知識資源の詳細な比較を行った。
本稿では,2つのグラフの構造,重なり合い,相違点と,それらが状況的常識的知識をエンコードする程度について検討する。
論文 参考訳(メタデータ) (2021-09-20T06:06:30Z) - Dimensions of Commonsense Knowledge [60.49243784752026]
我々は,その関係に特に焦点をあてて,広く普及しているコモンセンスソースを調査した。
我々はこれらの関係を13の知識次元に集約し、それぞれがソースにあるより具体的な関係を抽象化する。
論文 参考訳(メタデータ) (2021-01-12T17:52:39Z) - Improving Machine Reading Comprehension with Contextualized Commonsense
Knowledge [62.46091695615262]
我々は、機械読解の理解を改善するために、常識知識を抽出することを目指している。
構造化知識を文脈内に配置することで,関係を暗黙的に表現することを提案する。
我々は,教師の学習パラダイムを用いて,複数種類の文脈的知識を学生機械読取機に注入する。
論文 参考訳(メタデータ) (2020-09-12T17:20:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。