論文の概要: Exploring Large Language Models as a Source of Common-Sense Knowledge
for Robots
- arxiv url: http://arxiv.org/abs/2311.08412v1
- Date: Thu, 19 Oct 2023 14:20:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-19 14:03:29.388079
- Title: Exploring Large Language Models as a Source of Common-Sense Knowledge
for Robots
- Title(参考訳): ロボットの常識知識の源泉としての大規模言語モデルの探索
- Authors: Felix Ocker and J\"org Deigm\"oller and Julian Eggert
- Abstract要約: 常識的な知識はしばしば暗黙的であり、つまり、人間には明らかだが明示的ではない。
本稿では,Large Models Language (LLM) がこのギャップを埋めるかどうかを検討する。
- 参考スコア(独自算出の注目度): 1.8744872048553658
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Service robots need common-sense knowledge to help humans in everyday
situations as it enables them to understand the context of their actions.
However, approaches that use ontologies face a challenge because common-sense
knowledge is often implicit, i.e., it is obvious to humans but not explicitly
stated. This paper investigates if Large Language Models (LLMs) can fill this
gap. Our experiments reveal limited effectiveness in the selective extraction
of contextual action knowledge, suggesting that LLMs may not be sufficient on
their own. However, the large-scale extraction of general, actionable knowledge
shows potential, indicating that LLMs can be a suitable tool for efficiently
creating ontologies for robots. This paper shows that the technique used for
knowledge extraction can be applied to populate a minimalist ontology,
showcasing the potential of LLMs in synergy with formal knowledge
representation.
- Abstract(参考訳): サービスロボットは、日常の状況で人間が行動の文脈を理解するのを助けるために、常識的な知識を必要とする。
しかし、常識的な知識はしばしば暗黙的であり、人間には明白であるが明示されていないため、オントロジーを使うアプローチは課題に直面している。
本稿では,Large Language Models (LLM) がこのギャップを埋めるかどうかを検討する。
実験の結果, 文脈行動知識の選択的抽出において, LLMは単独では不十分である可能性が示唆された。
しかし, ロボットのオントロジーを効率的に作成する上で, LLMが適切なツールであることを示すため, 汎用的, 行動可能な知識を大規模に抽出することは潜在的に有益である。
本稿では, 知識抽出に用いる手法が, 正規知識表現とシナジーにおけるLLMの可能性を示すミニマリストオントロジーに応用可能であることを示す。
関連論文リスト
- ContextGPT: Infusing LLMs Knowledge into Neuro-Symbolic Activity
Recognition Models [0.3277163122167433]
本研究では,人間活動に関する常識知識から抽出する新しいプロンプトエンジニアリング手法であるContextGPTを提案する。
2つの公開データセットで行った評価は、ContextGPTから常識知識を注入することで得られるNeSyモデルがデータ不足のシナリオにどのように有効であるかを示す。
論文 参考訳(メタデータ) (2024-03-11T10:32:23Z) - Knowledge Plugins: Enhancing Large Language Models for Domain-Specific
Recommendations [50.81844184210381]
本稿では,大規模言語モデルをDOmain固有のKnowledgEで拡張し,実践的アプリケーション,すなわちDOKEの性能を向上させるためのパラダイムを提案する。
このパラダイムはドメイン知識抽出器に依存し,1)タスクに効果的な知識を準備すること,2)特定のサンプルごとに知識を選択すること,3)LLMで理解可能な方法で知識を表現すること,の3つのステップで動作する。
論文 参考訳(メタデータ) (2023-11-16T07:09:38Z) - Democratizing Reasoning Ability: Tailored Learning from Large Language
Model [97.4921006089966]
そこで我々は,そのような推論能力をより小さなLMに蒸留する,適切な学習手法を提案する。
対話型多ラウンド学習パラダイムを構築することにより,理科教員としてのLLMの可能性を活用する。
より小さなLMの推論可能性を活用するために,学生が自作ミスから学習する動機付けを目的とした自己回帰学習を提案する。
論文 参考訳(メタデータ) (2023-10-20T07:50:10Z) - Language Models as Zero-Shot Trajectory Generators [0.0]
大規模言語モデル(LLM)は、最近、低レベルのスキルの選択へのアクセスを与えられたとき、ロボットのハイレベルプランナーとして約束されている。
物体検出と分割視覚モデルのみへのアクセスを与えられた場合, LLM が操作スキルのための高密度なエンドエフェクタ・ポーズを直接予測できるかどうかを検討する。
我々はLLMが、様々な共通タスクに十分な低レベルロボット制御の理解を実際に持っていることを初めて明らかにした。
論文 参考訳(メタデータ) (2023-10-17T21:57:36Z) - MechGPT, a language-based strategy for mechanics and materials modeling
that connects knowledge across scales, disciplines and modalities [0.0]
我々は,Large Language Model (LLM) を用いて,質問応答対を原料から抽出し,微調整する。
得られたMechGPT LLM基盤モデルは、知識検索、様々な言語タスク、仮説生成、異なる領域にわたる知識の接続能力を調べるために、一連の計算実験で使用される。
論文 参考訳(メタデータ) (2023-10-16T14:29:35Z) - Brain in a Vat: On Missing Pieces Towards Artificial General
Intelligence in Large Language Models [83.63242931107638]
本稿では,知的エージェントの4つの特徴について述べる。
実世界の物体との活発な関わりは、概念的表現を形成するためのより堅牢な信号をもたらすと我々は主張する。
我々は、人工知能分野における将来的な研究の方向性を概説して結論付ける。
論文 参考訳(メタデータ) (2023-07-07T13:58:16Z) - Language models are weak learners [71.33837923104808]
本研究では,プロンプトベースの大規模言語モデルは弱い学習者として効果的に動作可能であることを示す。
これらのモデルをブースティングアプローチに組み込むことで、モデル内の知識を活用して、従来のツリーベースのブースティングよりも優れています。
結果は、プロンプトベースのLLMが、少数の学習者だけでなく、より大きな機械学習パイプラインのコンポーネントとして機能する可能性を示している。
論文 参考訳(メタデータ) (2023-06-25T02:39:19Z) - Knowledge Rumination for Pre-trained Language Models [77.55888291165462]
本稿では,学習前の言語モデルが外部コーパスから検索することなく,関連する潜在知識を活用できるようにするための,Knowledge Ruminationと呼ばれる新しいパラダイムを提案する。
本稿では,RoBERTa,DeBERTa,GPT-3などの言語モデルに適用する。
論文 参考訳(メタデータ) (2023-05-15T15:47:09Z) - Do As I Can, Not As I Say: Grounding Language in Robotic Affordances [119.29555551279155]
大規模な言語モデルは、世界に関する豊富な意味知識を符号化することができる。
このような知識は、自然言語で表現された高レベルで時間的に拡張された命令を動作させようとするロボットにとって極めて有用である。
低レベルのスキルを大規模言語モデルと組み合わせることで,言語モデルが複雑かつ時間的に拡張された命令を実行する手順について高いレベルの知識を提供することを示す。
論文 参考訳(メタデータ) (2022-04-04T17:57:11Z) - Language Models as a Knowledge Source for Cognitive Agents [9.061356032792954]
言語モデル (LM) は大量のコーパスで訓練された文補完エンジンである。
本稿では,認知システムのための新たな知識源として言語モデルを用いる上での課題と機会について概説する。
また、認知システムが提供する能力を用いて、言語モデルからの知識抽出を改善する方法も特定する。
論文 参考訳(メタデータ) (2021-09-17T01:12:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。