論文の概要: Penetrative AI: Making LLMs Comprehend the Physical World
- arxiv url: http://arxiv.org/abs/2310.09605v2
- Date: Sat, 13 Jan 2024 10:25:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 01:09:45.276256
- Title: Penetrative AI: Making LLMs Comprehend the Physical World
- Title(参考訳): penetrative ai: llmを物理的世界を理解する
- Authors: Huatao Xu, Liying Han, Qirui Yang, Mo Li, Mani Srivastava
- Abstract要約: 大きな言語モデル(LLM)は、様々なタスクにまたがる顕著な機能を示しています。
本稿は,IoTセンサとアクチュエータを用いて,LLMを物理的世界と相互作用し,推論するために拡張する方法について検討する。
- 参考スコア(独自算出の注目度): 3.2470963690312837
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent developments in Large Language Models (LLMs) have demonstrated their
remarkable capabilities across a range of tasks. Questions, however, persist
about the nature of LLMs and their potential to integrate common-sense human
knowledge when performing tasks involving information about the real physical
world. This paper delves into these questions by exploring how LLMs can be
extended to interact with and reason about the physical world through IoT
sensors and actuators, a concept that we term "Penetrative AI". The paper
explores such an extension at two levels of LLMs' ability to penetrate into the
physical world via the processing of sensory signals. Our preliminary findings
indicate that LLMs, with ChatGPT being the representative example in our
exploration, have considerable and unique proficiency in employing the embedded
world knowledge for interpreting IoT sensor data and reasoning over them about
tasks in the physical realm. Not only this opens up new applications for LLMs
beyond traditional text-based tasks, but also enables new ways of incorporating
human knowledge in cyber-physical systems.
- Abstract(参考訳): 近年のLLM(Large Language Models)は,様々なタスクにまたがってその顕著な能力を実証している。
しかし、LLMの性質と、現実世界に関する情報を含むタスクを実行する際に、常識的な人間の知識を統合する可能性について疑問が残る。
本稿では,iotセンサとアクチュエータによる物理世界とのインタラクションと推論のために,llmをいかに拡張できるかを検討することで,これらの疑問を考察する。
本稿では,知覚信号の処理によって物理世界へ浸透するLLMの2つのレベルにおける拡張について検討する。
我々の予備的な知見は、ChatGPTが我々の探索の代表的な例であるLCMは、IoTセンサデータの解釈と物理領域におけるタスクの推論に組込み世界の知識を活用するのに、相当かつユニークな習熟度を持っていることを示唆している。
これは、従来のテキストベースのタスクを超えて、llmの新しいアプリケーションを開くだけでなく、サイバー物理システムに人間の知識を組み込む新しい方法を可能にする。
関連論文リスト
- Rethinking Interpretability in the Era of Large Language Models [76.1947554386879]
大規模言語モデル(LLM)は、幅広いタスクにまたがる顕著な機能を示している。
自然言語で説明できる能力により、LLMは人間に与えられるパターンのスケールと複雑さを拡大することができる。
これらの新しい機能は、幻覚的な説明や膨大な計算コストなど、新しい課題を提起する。
論文 参考訳(メタデータ) (2024-01-30T17:38:54Z) - Large Language Models for Generative Information Extraction: A Survey [93.28676955662002]
情報抽出は、平易な自然言語テキストから構造的知識を抽出することを目的としている。
生成型大規模言語モデル(LLM)は、テキストの理解と生成において顕著な能力を示した。
LLMは生成パラダイムに基づいたIEタスクに対して実行可能なソリューションを提供する。
論文 参考訳(メタデータ) (2023-12-29T14:25:22Z) - Insights into Classifying and Mitigating LLMs' Hallucinations [48.04565928175536]
本稿では,AI幻覚の根本原因を解明し,人工知能におけるその意義を明らかにする。
我々は,大規模な言語モデルの全体的な信頼性を高めることを目的として,幻覚を緩和するための潜在的戦略を探究する。
論文 参考訳(メタデータ) (2023-11-14T12:30:28Z) - Self-driven Grounding: Large Language Model Agents with Automatical
Language-aligned Skill Learning [38.038143548554686]
大規模言語モデル(LLM)は、人間の世界に関する豊富な意味知識を持つ強力な自動推論と計画能力を示す。
既存の研究では、LLMを微調整したり、事前に定義された動作APIを使用してLLMと環境をブリッジしようとする。
本稿では,自己駆動型スキル学習でLLMを自動的に,段階的にグラウンド化するための,自己駆動型グラウンディングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-04T04:31:24Z) - ExpeL: LLM Agents Are Experiential Learners [60.54312035818746]
実験学習エージェント(ExpeL)を導入し、パラメトリック更新を必要とせずにエージェント体験から学習できるようにする。
我々のエージェントは、経験を自律的に収集し、学習課題の集合から自然言語を用いて知識を抽出する。
推論において、エージェントは抽出された洞察と過去の経験をリコールし、情報的決定を行う。
論文 参考訳(メタデータ) (2023-08-20T03:03:34Z) - Large Language Models for Telecom: Forthcoming Impact on the Industry [13.456882619578707]
汎用的な言語理解と生成を実現するAI駆動型モデルであるLarge Language Models (LLMs)が、トランスフォーメーション・フォースとして登場した。
LLMの内部動作を掘り下げて、現在の機能と制限に関する洞察を提供しています。
通信分野におけるLCMの活用という特徴的課題に対処する,本質的な研究の方向性を明らかにする。
論文 参考訳(メタデータ) (2023-08-11T08:41:00Z) - Brain in a Vat: On Missing Pieces Towards Artificial General
Intelligence in Large Language Models [83.63242931107638]
本稿では,知的エージェントの4つの特徴について述べる。
実世界の物体との活発な関わりは、概念的表現を形成するためのより堅牢な信号をもたらすと我々は主張する。
我々は、人工知能分野における将来的な研究の方向性を概説して結論付ける。
論文 参考訳(メタデータ) (2023-07-07T13:58:16Z) - Sensecape: Enabling Multilevel Exploration and Sensemaking with Large
Language Models [12.141818433363628]
Sensecapeは、大規模な言語モデルで複雑な情報タスクをサポートするために設計された対話型システムである。
Sensecapeはユーザーに対して、より多くのトピックを探索し、知識を階層的に構造化することを可能にする。
論文 参考訳(メタデータ) (2023-05-19T07:31:59Z) - Inner Monologue: Embodied Reasoning through Planning with Language
Models [81.07216635735571]
大規模言語モデル(LLM)は自然言語処理以外の領域に適用できる。
具体化された環境でのLLMの計画には、何をすべきかだけでなく、どのように、いつ行うべきかを考える必要がある。
環境フィードバックを活用することで、LLMはロボット制御シナリオにおいてよりリッチな処理と計画を行うことができる内部モノローグを形成することができる。
論文 参考訳(メタデータ) (2022-07-12T15:20:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。