論文の概要: CAT: A Contextualized Conceptualization and Instantiation Framework for
Commonsense Reasoning
- arxiv url: http://arxiv.org/abs/2305.04808v2
- Date: Wed, 10 May 2023 11:40:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-11 16:00:34.383876
- Title: CAT: A Contextualized Conceptualization and Instantiation Framework for
Commonsense Reasoning
- Title(参考訳): CAT:Commonsense Reasoningのためのコンテキスト化概念化と検証フレームワーク
- Authors: Weiqi Wang, Tianqing Fang, Baixuan Xu, Chun Yi Louis Bo, Yangqiu Song,
Lei Chen
- Abstract要約: CAT(Contextualized ConceptuAlization and InsTantiation)は、イベントの概念化とインスタンス化を統合して、大規模にコモンセンス知識ベースを概念化する半教師付き学習フレームワークである。
本フレームワークは,2つの概念化タスクにおける最先端性能を実現し,得られた抽象コモンセンス知識は,コモンセンス推論モデルを大幅に改善することができる。
- 参考スコア(独自算出の注目度): 29.858089150407885
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Commonsense reasoning, aiming at endowing machines with a human-like ability
to make situational presumptions, is extremely challenging to generalize. For
someone who barely knows about "meditation," while is knowledgeable about
"singing," he can still infer that "meditation makes people relaxed" from the
existing knowledge that "singing makes people relaxed" by first conceptualizing
"singing" as a "relaxing event" and then instantiating that event to
"meditation." This process, known as conceptual induction and deduction, is
fundamental to commonsense reasoning while lacking both labeled data and
methodologies to enhance commonsense modeling. To fill such a research gap, we
propose CAT (Contextualized ConceptuAlization and InsTantiation), a
semi-supervised learning framework that integrates event conceptualization and
instantiation to conceptualize commonsense knowledge bases at scale. Extensive
experiments show that our framework achieves state-of-the-art performances on
two conceptualization tasks, and the acquired abstract commonsense knowledge
can significantly improve commonsense inference modeling. Our code, data, and
fine-tuned models are publicly available at
https://github.com/HKUST-KnowComp/CAT.
- Abstract(参考訳): 人間のような状況予測能力を持つ機械をエンドウイングすることを目的としたコモンセンス推論は、一般化するのが極めて困難である。
歌」についてほとんど知識がないものの、「歌」についてほとんど知識がない人に対しては、「歌」を「楽しませる」という既存の知識から「楽しませる」と推測し、その出来事を「楽しませる出来事」として概念化して「楽しませる」ことができる。
このプロセスは概念的帰納的帰納的推論(conceptual induction and deduction)と呼ばれ、コモンセンスモデリングを強化するためのラベル付きデータと方法論の両方を欠いている。
このような研究のギャップを埋めるために,cat(contextualized conceptization and instantiation)という,イベント概念化とインスタンス化を統合した半教師付き学習フレームワークを提案する。
広範な実験により,2つの概念化タスクにおいて最先端のパフォーマンスを達成し,得られた抽象コモンセンス知識により,コモンセンス推論モデルを大幅に改善できることを示した。
私たちのコード、データ、微調整されたモデルはhttps://github.com/HKUST-KnowComp/CAT.comで公開されています。
関連論文リスト
- Crystal: Introspective Reasoners Reinforced with Self-Feedback [118.53428015478957]
本稿では,イントロスペクティブ・コモンセンス推論器であるCrystalを開発するための新しい手法を提案する。
コモンセンス問題に対処するため、まず与えられた質問に関連する知識ステートメントのイントロスペクションを行い、その後、それまでのイントロスペクションされた知識に根ざした情報予測を行う。
実験により、クリスタルは標準的な微調整法と連鎖蒸留法の両方で著しく優れており、コモンセンス推論プロセスの透明性を高めていることが示された。
論文 参考訳(メタデータ) (2023-10-07T21:23:58Z) - Investigating Forgetting in Pre-Trained Representations Through
Continual Learning [51.30807066570425]
事前学習した言語モデルの汎用性に及ぼす表現忘れの影響について検討する。
様々な事前学習されたLMで一般化が破壊され,構文的・意味的知識は連続学習によって忘れられることがわかった。
論文 参考訳(メタデータ) (2023-05-10T08:27:59Z) - Consciousness is learning: predictive processing systems that learn by
binding may perceive themselves as conscious [0.0]
予測処理システムは、単一事例からの認識と行動のためのワーキングメモリを形成することにより、新しい状況において柔軟に一般化できると主張している。
複数の生存戦略と再生戦略を同時に実施する複雑な行動方針の強化学習に知覚的価値予測を用いることで、脳がどのように進化したかを説明する。
「意識体験」とは、意識のメタ問題への解答として、そのような学習システムが自身の機能を知覚的に表す方法である。
論文 参考訳(メタデータ) (2023-01-17T17:06:48Z) - COPEN: Probing Conceptual Knowledge in Pre-trained Language Models [60.10147136876669]
概念的知識は人間の認知と知識基盤の基本である。
既存の知識探索作業は、事前訓練された言語モデル(PLM)の事実知識のみに焦点を当て、概念知識を無視する。
PLMが概念的類似性によってエンティティを編成し、概念的特性を学習し、コンテキスト内でエンティティを概念化するかどうかを調査する3つのタスクを設計する。
タスクのために、393のコンセプトをカバーする24kのデータインスタンスを収集、注釈付けします。
論文 参考訳(メタデータ) (2022-11-08T08:18:06Z) - Acquiring and Modelling Abstract Commonsense Knowledge via
Conceptualization [31.925713490764867]
本稿では,コモンセンス推論における概念化の可能性について考察する。
そこで我々は,大規模人間の注釈付きCKGであるATOMICの文脈的概念化ツールを開発した。
実験では、抽象的な三重項でデータを直接拡張することで、コモンセンスモデリングに役立ちます。
論文 参考訳(メタデータ) (2022-06-03T12:24:49Z) - Discovering Human-Object Interaction Concepts via Self-Compositional
Learning [93.38239238988719]
本稿では,HOI概念発見(HOI Concept Discovery)と呼ばれる包括的HOI理解のための,新しい課題を紹介する。
HOI概念発見のための自己構成学習フレームワーク(SCL)を考案する。
提案手法の有効性を実証するために,いくつかの一般的なHOIデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-03-27T10:31:55Z) - Observing Interventions: A logic for thinking about experiments [62.997667081978825]
本稿では,実験から学ぶ論理への第一歩について述べる。
我々のアプローチにとって重要なことは、介入の概念が(現実的または仮説的な)実験の形式的表現として使用できるという考えである。
提案された全ての論理系に対して、健全で完全な公理化を提供する。
論文 参考訳(メタデータ) (2021-11-25T09:26:45Z) - Common Sense or World Knowledge? Investigating Adapter-Based Knowledge
Injection into Pretrained Transformers [54.417299589288184]
本研究では,概念ネットとそれに対応するオープンマインド・コモンセンス(OMCS)コーパスから,BERTの分布知識と概念知識を補完するモデルについて検討する。
我々のアダプタベースのモデルは,ConceptNet や OMCS に明示的に存在する概念的知識のタイプを必要とする推論タスクにおいて,BERT を大幅に上回っている。
論文 参考訳(メタデータ) (2020-05-24T15:49:57Z) - The Tensor Brain: Semantic Decoding for Perception and Memory [25.49830575143093]
我々は知識グラフとテンソルの数学的モデルを用いて知覚と記憶を分析する。
知覚と記憶の生物学的実現は情報処理に制約を課すと主張する。
特に,明示的な認識と宣言的記憶は意味的デコーダを必要とすることを示唆する。
論文 参考訳(メタデータ) (2020-01-29T07:48:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。