論文の概要: Acquiring and Modelling Abstract Commonsense Knowledge via
Conceptualization
- arxiv url: http://arxiv.org/abs/2206.01532v1
- Date: Fri, 3 Jun 2022 12:24:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-06 12:59:54.849919
- Title: Acquiring and Modelling Abstract Commonsense Knowledge via
Conceptualization
- Title(参考訳): 概念化による抽象常識知識の獲得とモデル化
- Authors: Mutian He, Tianqing Fang, Weiqi Wang, Yangqiu Song
- Abstract要約: 本稿では,コモンセンス推論における概念化の可能性について考察する。
そこで我々は,大規模人間の注釈付きCKGであるATOMICの文脈的概念化ツールを開発した。
実験では、抽象的な三重項でデータを直接拡張することで、コモンセンスモデリングに役立ちます。
- 参考スコア(独自算出の注目度): 31.925713490764867
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conceptualization, or viewing entities and situations as instances of
abstract concepts in mind and making inferences based on that, is a vital
component in human intelligence for commonsense reasoning. Although recent
artificial intelligence has made progress in acquiring and modelling
commonsense, attributed to large neural language models and commonsense
knowledge graphs (CKGs), conceptualization is yet to thoroughly be introduced,
making current approaches ineffective to cover knowledge about countless
diverse entities and situations in the real world. To address the problem, we
thoroughly study the possible role of conceptualization in commonsense
reasoning, and formulate a framework to replicate human conceptual induction
from acquiring abstract knowledge about abstract concepts. Aided by the
taxonomy Probase, we develop tools for contextualized conceptualization on
ATOMIC, a large-scale human annotated CKG. We annotate a dataset for the
validity of conceptualizations for ATOMIC on both event and triple level,
develop a series of heuristic rules based on linguistic features, and train a
set of neural models, so as to generate and verify abstract knowledge. Based on
these components, a pipeline to acquire abstract knowledge is built. A large
abstract CKG upon ATOMIC is then induced, ready to be instantiated to infer
about unseen entities or situations. Furthermore, experiments find directly
augmenting data with abstract triples to be helpful in commonsense modelling.
- Abstract(参考訳): 概念化(conceptization)、あるいは、概念を念頭に置いた抽象概念の例としてエンティティや状況を見ること、それに基づく推論を行うことは、常識推論において人間の知性において不可欠な要素である。
最近の人工知能は、大規模なニューラルネットワークモデルとコモンセンス知識グラフ(CKG)によるコモンセンスの獲得とモデル化に進歩しているが、概念化はまだ完全には導入されていない。
この問題に対処するために,コモンセンス推論における概念化の役割を徹底的に検討し,抽象概念に関する抽象的知識を得ることから人間の概念誘導を再現する枠組みを定式化する。
そこで本研究では,ヒトの大規模注釈付きCKGであるATOMICの文脈的概念化ツールを開発した。
我々は,ATOMICの概念化の妥当性を示すデータセットをイベントレベルとトリプルレベルの両方でアノテートし,言語的特徴に基づく一連のヒューリスティックルールを開発し,抽象知識の生成と検証のために一連のニューラルネットワークを訓練する。
これらのコンポーネントに基づいて、抽象知識を取得するパイプラインを構築する。
ATOMIC上の大きな抽象CKGが誘導され、未確認の実体や状況について推論するようにインスタンス化される。
さらに、実験では、抽象三重項によるデータを直接拡張することで、コモンセンスモデリングに役立ちます。
関連論文リスト
- CANDLE: Iterative Conceptualization and Instantiation Distillation from
Large Language Models for Commonsense Reasoning [46.84711485390993]
CANDLEは、コモンセンス知識ベースに対する概念化とインスタンス化を反復的に行うフレームワークである。
CANDLEをATOMICに適用することにより、600万の概念化と三重項のインスタンス化を含む総合的な知識基盤を構築する。
論文 参考訳(メタデータ) (2024-01-14T13:24:30Z) - A Cognitively-Inspired Neural Architecture for Visual Abstract Reasoning
Using Contrastive Perceptual and Conceptual Processing [14.201935774784632]
人間の認知に触発された視覚的抽象的推論タスクを解決するための新しいニューラルアーキテクチャを提案する。
この原則にインスパイアされたアーキテクチャは、反復的で自己コントラストの学習プロセスとして、視覚的抽象的推論をモデル化します。
機械学習データセットRAVENの実験は、CPCNetが以前公開されたすべてのモデルよりも高い精度を達成することを示している。
論文 参考訳(メタデータ) (2023-09-19T11:18:01Z) - Intrinsic Physical Concepts Discovery with Object-Centric Predictive
Models [86.25460882547581]
PHYsical Concepts Inference NEtwork (PHYCINE) は、異なる抽象レベルの物理概念を監督なしで推論するシステムである。
物理概念変数を含むオブジェクト表現は因果推論タスクの性能向上に有効であることを示す。
論文 参考訳(メタデータ) (2023-03-03T11:52:21Z) - Does Deep Learning Learn to Abstract? A Systematic Probing Framework [69.2366890742283]
抽象化はディープラーニングモデルにとって望ましい機能であり、具体的なインスタンスから抽象概念を誘導し、学習コンテキストを超えて柔軟に適用することを意味する。
本稿では,伝達可能性の観点から,ディープラーニングモデルの抽象化能力を検討するための体系的探索フレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-23T12:50:02Z) - Mapping Knowledge Representations to Concepts: A Review and New
Perspectives [0.6875312133832078]
本論は、内部表現と人間の理解可能な概念を関連付けることを目的とした研究に焦点をあてる。
この分類学と因果関係の理論は、ニューラルネットワークの説明から期待できるもの、期待できないものを理解するのに有用である。
この分析は、モデル説明可能性の目標に関するレビューされた文献の曖昧さも明らかにしている。
論文 参考訳(メタデータ) (2022-12-31T12:56:12Z) - On Binding Objects to Symbols: Learning Physical Concepts to Understand
Real from Fake [155.6741526791004]
我々は、ディープニューラルネットワークが合成データを生成する驚くべき能力に照らして、古典的な信号と記号の障壁を再考する。
物理オブジェクトを抽象概念として特徴付け,それ以前の解析を用いて,物理オブジェクトが有限なアーキテクチャで符号化可能であることを示す。
我々は、有限時間でデジタルIDに物理的実体を結合することは、有限資源で可能であると結論付けた。
論文 参考訳(メタデータ) (2022-07-25T17:21:59Z) - Automatic Concept Extraction for Concept Bottleneck-based Video
Classification [58.11884357803544]
本稿では,概念に基づくビデオ分類に必要かつ十分な概念抽象セットを厳格に構成する概念発見抽出モジュールを提案する。
提案手法は,自然言語における概念概念の抽象概念を応用し,複雑なタスクに概念ボトルネック法を一般化する。
論文 参考訳(メタデータ) (2022-06-21T06:22:35Z) - AIGenC: An AI generalisation model via creativity [1.933681537640272]
本稿では,創造性に関する認知理論に触発された計算モデル(AIGenC)を紹介する。
人工エージェントが変換可能な表現を学習、使用、生成するために必要なコンポーネントを配置する。
本稿では, 人工エージェントの配当効率を向上するモデルの有効性について論じる。
論文 参考訳(メタデータ) (2022-05-19T17:43:31Z) - Causal Reasoning Meets Visual Representation Learning: A Prospective
Study [117.08431221482638]
解釈可能性の欠如、堅牢性、分布外一般化が、既存の視覚モデルの課題となっている。
人間レベルのエージェントの強い推論能力にインスパイアされた近年では、因果推論パラダイムの開発に多大な努力が注がれている。
本稿では,この新興分野を包括的に概観し,注目し,議論を奨励し,新たな因果推論手法の開発の急激さを先導することを目的とする。
論文 参考訳(メタデータ) (2022-04-26T02:22:28Z) - A Minimalist Dataset for Systematic Generalization of Perception,
Syntax, and Semantics [131.93113552146195]
我々は,機械が一般化可能な概念を学習する能力を調べるため,新しいデータセットであるHINT(Hand written arithmetic with INTegers)を提案する。
HINTでは、イメージなどの生信号から概念がどのように認識されるかを学ぶことが機械のタスクである。
我々は、RNN、Transformer、GPT-3など、様々なシーケンス・ツー・シーケンスモデルで広範囲に実験を行った。
論文 参考訳(メタデータ) (2021-03-02T01:32:54Z) - A Data-Driven Study of Commonsense Knowledge using the ConceptNet
Knowledge Base [8.591839265985412]
汎用人工知能(AI)の実現における重要なフロンティアとして,コモンセンス知識と推論の獲得が認められている。
本稿では,コンセプションネットの知識基盤を実証的かつ構造的に分析することにより,コモンセンス知識のより深い理解を可能にする体系的な研究を提案し,実施する。
最先端の教師なしグラフ表現学習(「埋め込み」)とクラスタリング技術を用いて、慎重に設計された3つの研究課題に関する詳細な実験結果から、ConceptNet関係の深いサブ構造を明らかにする。
論文 参考訳(メタデータ) (2020-11-28T08:08:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。