論文の概要: ContextGPT: Infusing LLMs Knowledge into Neuro-Symbolic Activity
Recognition Models
- arxiv url: http://arxiv.org/abs/2403.06586v1
- Date: Mon, 11 Mar 2024 10:32:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-12 19:35:44.133726
- Title: ContextGPT: Infusing LLMs Knowledge into Neuro-Symbolic Activity
Recognition Models
- Title(参考訳): contextgpt: llms知識をニューロシンボリック活動認識モデルに導入する
- Authors: Luca Arrotta, Claudio Bettini, Gabriele Civitarese, Michele Fiori
- Abstract要約: 本研究では,人間活動に関する常識知識から抽出する新しいプロンプトエンジニアリング手法であるContextGPTを提案する。
2つの公開データセットで行った評価は、ContextGPTから常識知識を注入することで得られるNeSyモデルがデータ不足のシナリオにどのように有効であるかを示す。
- 参考スコア(独自算出の注目度): 0.3277163122167433
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Context-aware Human Activity Recognition (HAR) is a hot research area in
mobile computing, and the most effective solutions in the literature are based
on supervised deep learning models. However, the actual deployment of these
systems is limited by the scarcity of labeled data that is required for
training. Neuro-Symbolic AI (NeSy) provides an interesting research direction
to mitigate this issue, by infusing common-sense knowledge about human
activities and the contexts in which they can be performed into HAR deep
learning classifiers. Existing NeSy methods for context-aware HAR rely on
knowledge encoded in logic-based models (e.g., ontologies) whose design,
implementation, and maintenance to capture new activities and contexts require
significant human engineering efforts, technical knowledge, and domain
expertise. Recent works show that pre-trained Large Language Models (LLMs)
effectively encode common-sense knowledge about human activities. In this work,
we propose ContextGPT: a novel prompt engineering approach to retrieve from
LLMs common-sense knowledge about the relationship between human activities and
the context in which they are performed. Unlike ontologies, ContextGPT requires
limited human effort and expertise. An extensive evaluation carried out on two
public datasets shows how a NeSy model obtained by infusing common-sense
knowledge from ContextGPT is effective in data scarcity scenarios, leading to
similar (and sometimes better) recognition rates than logic-based approaches
with a fraction of the effort.
- Abstract(参考訳): 文脈認識型ヒューマンアクティビティ認識(HAR)はモバイルコンピューティングにおけるホットな研究分野であり、文献の最も効果的な解決策は教師付きディープラーニングモデルに基づいている。
しかし、これらのシステムの実際の展開は、トレーニングに必要なラベル付きデータの不足によって制限される。
ニューロシンボリックai(nesy)は、人間の活動やそれらの文脈に関する常識的な知識をharディープラーニングの分類器に取り入れることで、この問題を緩和するための興味深い研究方向を提供する。
コンテキスト認識のための既存のnesyメソッドは、新しいアクティビティとコンテキストをキャプチャするために設計、実装、メンテナンスを行う論理ベースのモデル(オントロジーなど)にエンコードされた知識に依存している。
近年の研究では、事前学習された大規模言語モデル(llm)が、人間の活動に関する常識的な知識を効果的にエンコードしていることが示されている。
本稿では,人間の活動と行動の文脈との関係に関するllmsの共通感覚知識から情報を得るための,新しいプロンプトエンジニアリング手法であるcontextgptを提案する。
オントロジーとは異なり、ContextGPTは人間の努力と専門知識の制限を必要とする。
2つのパブリックデータセットで実施された広範囲な評価では、コンテキストgptから共通センス知識を流用したネッシーモデルが、データ不足のシナリオにおいてどのように有効であるかが示されている。
関連論文リスト
- Large Language Models are Limited in Out-of-Context Knowledge Reasoning [65.72847298578071]
大規模言語モデル (LLMs) は、文脈内推論の実行において広範な知識と強力な能力を持っている。
本稿では、複数の知識を組み合わせて新しい知識を推論する、文脈外知識推論(OCKR)という、文脈外推論の重要な側面に焦点を当てる。
論文 参考訳(メタデータ) (2024-06-11T15:58:59Z) - Combatting Human Trafficking in the Cyberspace: A Natural Language
Processing-Based Methodology to Analyze the Language in Online Advertisements [55.2480439325792]
このプロジェクトは、高度自然言語処理(NLP)技術により、オンラインC2Cマーケットプレースにおける人身売買の急激な問題に取り組む。
我々は、最小限の監督で擬似ラベル付きデータセットを生成する新しい手法を導入し、最先端のNLPモデルをトレーニングするための豊富なリソースとして機能する。
重要な貢献は、Integrated Gradientsを使った解釈可能性フレームワークの実装であり、法執行にとって重要な説明可能な洞察を提供する。
論文 参考訳(メタデータ) (2023-11-22T02:45:01Z) - Beyond Factuality: A Comprehensive Evaluation of Large Language Models
as Knowledge Generators [78.63553017938911]
大規模言語モデル(LLM)は、下流の知識集約タスクのための情報検索技術より優れている。
しかし、コミュニティの懸念は、この無検閲の知識を使用することの事実と潜在的意味について多岐にわたる。
本研究では,6つの重要な視点から生成した知識を評価するために設計されたCONNERを紹介する。
論文 参考訳(メタデータ) (2023-10-11T08:22:37Z) - Neuro-Symbolic Approaches for Context-Aware Human Activity Recognition [0.7734726150561088]
本研究では,訓練期間中の人間活動認識モデルにおける知識制約を注入する意味的損失関数に基づく新しいアプローチを提案する。
本研究の結果は,データ駆動モデルの性能向上におけるセマンティックな損失関数の影響を示すものである。
論文 参考訳(メタデータ) (2023-06-08T09:23:09Z) - In-Context Analogical Reasoning with Pre-Trained Language Models [10.344428417489237]
我々は、AIシステムにおけるアナロジーを支援するために、直感的な言語ベースの抽象化の使用について検討する。
具体的には,大規模事前学習言語モデル(PLM)を視覚的Raven's Progressive Matrices(RPM)に適用する。
PLMはゼロショットリレーショナル推論に顕著な能力を示し、人間のパフォーマンスを超え、教師付き視覚ベースの手法に近づいた。
論文 参考訳(メタデータ) (2023-05-28T04:22:26Z) - Exploring In-Context Learning Capabilities of Foundation Models for
Generating Knowledge Graphs from Text [3.114960935006655]
本論文は,知識グラフの自動構築と完成の技術をテキストから改善することを目的としている。
この文脈では、新しいパラダイムの1つは、言語モデルがプロンプトとともにそのまま使われる、コンテキスト内学習である。
論文 参考訳(メタデータ) (2023-05-15T17:10:19Z) - What Makes Good Contrastive Learning on Small-Scale Wearable-based
Tasks? [59.51457877578138]
本研究では,ウェアラブル型行動認識タスクにおけるコントラスト学習について検討する。
本稿では,PyTorchライブラリのtextttCL-HAR について述べる。
論文 参考訳(メタデータ) (2022-02-12T06:10:15Z) - Knowledge-driven Active Learning [70.37119719069499]
アクティブな学習戦略は、ディープラーニングモデルをトレーニングするために必要なラベル付きデータの量を最小限にすることを目的としている。
ほとんどの積極的な戦略は不確実なサンプルの選択に基づいており、しばしば決定境界に近いサンプルに制限される。
本稿では、一般的なドメイン知識を考慮し、エキスパートでないユーザがより少ないサンプルでモデルを訓練できるようにする。
論文 参考訳(メタデータ) (2021-10-15T06:11:53Z) - B-HAR: an open-source baseline framework for in depth study of human
activity recognition datasets and workflows [1.7639472693362923]
本稿では,ベースラインフレームワークの定義,標準化,開発のためのオープンソースフレームワークであるB-HARを提案する。
データ準備のための最も一般的なデータ処理方法と、最も一般的な機械学習およびディープラーニングパターン認識モデルを実装している。
論文 参考訳(メタデータ) (2021-01-23T12:42:41Z) - A Survey on Extraction of Causal Relations from Natural Language Text [9.317718453037667]
因果関係はテキストに頻繁に現れ、テキストから因果関係を計算することで、予測タスクのための因果関係を構築するのに役立つ。
既存の因果抽出技術には、知識ベース、統計機械学習(ML)ベース、深層学習ベースアプローチなどがある。
論文 参考訳(メタデータ) (2021-01-16T10:49:39Z) - Continual Learning for Natural Language Generation in Task-oriented
Dialog Systems [72.92029584113676]
自然言語生成(NLG)はタスク指向対話システムにおいて重要な要素である。
我々は,NLGの知識を新たなドメインや機能に段階的に拡張する"継続的学習"環境で研究する。
この目標に対する大きな課題は、破滅的な忘れことであり、継続的に訓練されたモデルは、以前に学んだ知識を忘れがちである。
論文 参考訳(メタデータ) (2020-10-02T10:32:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。