論文の概要: Exploring Large Language Models as a Source of Common-Sense Knowledge
for Robots
- arxiv url: http://arxiv.org/abs/2311.08412v1
- Date: Thu, 19 Oct 2023 14:20:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-19 14:03:29.388079
- Title: Exploring Large Language Models as a Source of Common-Sense Knowledge
for Robots
- Title(参考訳): ロボットの常識知識の源泉としての大規模言語モデルの探索
- Authors: Felix Ocker and J\"org Deigm\"oller and Julian Eggert
- Abstract要約: 常識的な知識はしばしば暗黙的であり、つまり、人間には明らかだが明示的ではない。
本稿では,Large Models Language (LLM) がこのギャップを埋めるかどうかを検討する。
- 参考スコア(独自算出の注目度): 1.8744872048553658
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Service robots need common-sense knowledge to help humans in everyday
situations as it enables them to understand the context of their actions.
However, approaches that use ontologies face a challenge because common-sense
knowledge is often implicit, i.e., it is obvious to humans but not explicitly
stated. This paper investigates if Large Language Models (LLMs) can fill this
gap. Our experiments reveal limited effectiveness in the selective extraction
of contextual action knowledge, suggesting that LLMs may not be sufficient on
their own. However, the large-scale extraction of general, actionable knowledge
shows potential, indicating that LLMs can be a suitable tool for efficiently
creating ontologies for robots. This paper shows that the technique used for
knowledge extraction can be applied to populate a minimalist ontology,
showcasing the potential of LLMs in synergy with formal knowledge
representation.
- Abstract(参考訳): サービスロボットは、日常の状況で人間が行動の文脈を理解するのを助けるために、常識的な知識を必要とする。
しかし、常識的な知識はしばしば暗黙的であり、人間には明白であるが明示されていないため、オントロジーを使うアプローチは課題に直面している。
本稿では,Large Language Models (LLM) がこのギャップを埋めるかどうかを検討する。
実験の結果, 文脈行動知識の選択的抽出において, LLMは単独では不十分である可能性が示唆された。
しかし, ロボットのオントロジーを効率的に作成する上で, LLMが適切なツールであることを示すため, 汎用的, 行動可能な知識を大規模に抽出することは潜在的に有益である。
本稿では, 知識抽出に用いる手法が, 正規知識表現とシナジーにおけるLLMの可能性を示すミニマリストオントロジーに応用可能であることを示す。
関連論文リスト
- Logic Augmented Generation [1.534667887016089]
大きな言語モデル(LLM)はこれらの制限を克服し、オープンなタスクや非構造化環境に適している。
両世界の利点を組み合わせた論理拡張生成(LAG)を構想する。
LAGを総合的な知性、すなわち医療診断と気候予測の2つのタスクで実証する。
論文 参考訳(メタデータ) (2024-11-21T10:54:35Z) - A Perspective on Large Language Models, Intelligent Machines, and Knowledge Acquisition [0.6138671548064355]
大言語モデル(LLM)は「知識」を生成できることで知られている。
しかし、抽象概念と推論を理解するためのLLMと人間の能力の間には大きなギャップがある。
我々はこれらの問題を、人間の知識獲得とチューリングテストの哲学的な文脈で論じる。
論文 参考訳(メタデータ) (2024-08-13T03:25:49Z) - WorkArena++: Towards Compositional Planning and Reasoning-based Common Knowledge Work Tasks [85.95607119635102]
大型言語モデル(LLM)は人間のような知性を模倣することができる。
WorkArena++は、Webエージェントの計画、問題解決、論理的/論理的推論、検索、コンテキスト的理解能力を評価するように設計されている。
論文 参考訳(メタデータ) (2024-07-07T07:15:49Z) - Knowledge Graph-Enhanced Large Language Models via Path Selection [58.228392005755026]
大規模言語モデル(LLM)は、様々な現実世界のアプリケーションで前例のない性能を示している。
LLMは実際に不正確な出力、すなわち幻覚の問題を発生させることが知られている。
上記の問題に対処する3段階の原理的フレームワークKELPを提案する。
論文 参考訳(メタデータ) (2024-06-19T21:45:20Z) - What's in an embedding? Would a rose by any embedding smell as sweet? [0.0]
大規模言語モデル(LLM)は、真の「理解」と知識を「理解」する能力に欠けるとしてしばしば批判される。
我々は, LLM が「幾何学的」な経験的「下地」を発達させ, NLP の様々な応用に適していると考えられることを示唆する。
これらの制限を克服するために、LLMはシンボリックAI要素を含む知識の「代数的」表現と統合されるべきである。
論文 参考訳(メタデータ) (2024-06-11T01:10:40Z) - ContextGPT: Infusing LLMs Knowledge into Neuro-Symbolic Activity
Recognition Models [0.3277163122167433]
本研究では,人間活動に関する常識知識から抽出する新しいプロンプトエンジニアリング手法であるContextGPTを提案する。
2つの公開データセットで行った評価は、ContextGPTから常識知識を注入することで得られるNeSyモデルがデータ不足のシナリオにどのように有効であるかを示す。
論文 参考訳(メタデータ) (2024-03-11T10:32:23Z) - Knowledge Plugins: Enhancing Large Language Models for Domain-Specific
Recommendations [50.81844184210381]
本稿では,大規模言語モデルをDOmain固有のKnowledgEで拡張し,実践的アプリケーション,すなわちDOKEの性能を向上させるためのパラダイムを提案する。
このパラダイムはドメイン知識抽出器に依存し,1)タスクに効果的な知識を準備すること,2)特定のサンプルごとに知識を選択すること,3)LLMで理解可能な方法で知識を表現すること,の3つのステップで動作する。
論文 参考訳(メタデータ) (2023-11-16T07:09:38Z) - Democratizing Reasoning Ability: Tailored Learning from Large Language
Model [97.4921006089966]
そこで我々は,そのような推論能力をより小さなLMに蒸留する,適切な学習手法を提案する。
対話型多ラウンド学習パラダイムを構築することにより,理科教員としてのLLMの可能性を活用する。
より小さなLMの推論可能性を活用するために,学生が自作ミスから学習する動機付けを目的とした自己回帰学習を提案する。
論文 参考訳(メタデータ) (2023-10-20T07:50:10Z) - Knowledge Rumination for Pre-trained Language Models [77.55888291165462]
本稿では,学習前の言語モデルが外部コーパスから検索することなく,関連する潜在知識を活用できるようにするための,Knowledge Ruminationと呼ばれる新しいパラダイムを提案する。
本稿では,RoBERTa,DeBERTa,GPT-3などの言語モデルに適用する。
論文 参考訳(メタデータ) (2023-05-15T15:47:09Z) - Do As I Can, Not As I Say: Grounding Language in Robotic Affordances [119.29555551279155]
大規模な言語モデルは、世界に関する豊富な意味知識を符号化することができる。
このような知識は、自然言語で表現された高レベルで時間的に拡張された命令を動作させようとするロボットにとって極めて有用である。
低レベルのスキルを大規模言語モデルと組み合わせることで,言語モデルが複雑かつ時間的に拡張された命令を実行する手順について高いレベルの知識を提供することを示す。
論文 参考訳(メタデータ) (2022-04-04T17:57:11Z) - Language Models as a Knowledge Source for Cognitive Agents [9.061356032792954]
言語モデル (LM) は大量のコーパスで訓練された文補完エンジンである。
本稿では,認知システムのための新たな知識源として言語モデルを用いる上での課題と機会について概説する。
また、認知システムが提供する能力を用いて、言語モデルからの知識抽出を改善する方法も特定する。
論文 参考訳(メタデータ) (2021-09-17T01:12:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。