論文の概要: Penetrative AI: Making LLMs Comprehend the Physical World
- arxiv url: http://arxiv.org/abs/2310.09605v1
- Date: Sat, 14 Oct 2023 15:48:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 19:32:50.994900
- Title: Penetrative AI: Making LLMs Comprehend the Physical World
- Title(参考訳): penetrative ai: llmを物理的世界を理解する
- Authors: Huatao Xu, Liying Han, Mo Li, Mani Srivastava
- Abstract要約: 大きな言語モデル(LLM)は、様々なタスクにまたがる顕著な機能を示しています。
本稿は,IoTセンサとアクチュエータを用いて,LLMを物理的世界と相互作用し,推論するために拡張する方法について検討する。
- 参考スコア(独自算出の注目度): 2.879319420520976
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent developments in Large Language Models (LLMs) have demonstrated their
remarkable capabilities across a range of tasks. Questions, however, persist
about the nature of LLMs and their potential to integrate common-sense human
knowledge when performing tasks involving information about the real physical
world. This paper delves into these questions by exploring how LLMs can be
extended to interact with and reason about the physical world through IoT
sensors and actuators, a concept that we term "\textit{Penetrative AI}". The
paper explores such an extension at two levels of LLMs' ability to penetrate
into the physical world via the processing of sensory signals. Our preliminary
findings indicate that LLMs, with ChatGPT being the representative example in
our exploration, have considerable and unique proficiency in employing the
knowledge they learned during training for interpreting IoT sensor data and
reasoning over them about tasks in the physical realm. Not only this opens up
new applications for LLMs beyond traditional text-based tasks, but also enables
new ways of incorporating human knowledge in cyber-physical systems.
- Abstract(参考訳): 近年のLLM(Large Language Models)は,様々なタスクにまたがってその顕著な能力を実証している。
しかし、LLMの性質と、現実世界に関する情報を含むタスクを実行する際に、常識的な人間の知識を統合する可能性について疑問が残る。
本稿は,IoTセンサやアクチュエータを通じて,LLMをどのように拡張して物理世界と対話し,理屈を定めるか,という,“\textit{Penetrative AI}”という概念を探求する。
本稿では,知覚信号の処理によって物理世界へ浸透するLLMの2つのレベルにおける拡張について検討する。
予備的な結果から,私たちの探索においてChatGPTが代表的な例として挙げられるLCMは,IoTセンサデータの解釈や物理領域におけるタスクの推論に学んだ知識を活用する上で,極めて有能な能力を持っていることが示唆された。
これは、従来のテキストベースのタスクを超えて、llmの新しいアプリケーションを開くだけでなく、サイバー物理システムに人間の知識を組み込む新しい方法を可能にする。
関連論文リスト
- IoT-LLM: Enhancing Real-World IoT Task Reasoning with Large Language Models [15.779982408779945]
大規模言語モデル(LLM)は、テキストや視覚領域にまたがる顕著な能力を示してきたが、しばしば物理法則に違反した出力を生成する。
人間の認識にインスパイアされた我々は、IoTセンサデータと、物理的な世界でのIoTタスク推論に関する関連する知識を用いて、知覚能力の向上によるLLMの強化について検討する。
我々は,IoT-LLMがLLMによるIoTタスクの推論性能を大幅に向上し,従来の手法と比較して,各タスクの平均65%の改善を実現していることを示す。
論文 参考訳(メタデータ) (2024-10-03T12:24:18Z) - A Roadmap for Embodied and Social Grounding in LLMs [43.74009805483536]
大規模言語モデルとロボットシステムの融合は、ロボット分野における変革的パラダイムへと繋がった。
LLMの知識を経験的世界に根ざすことは、ロボット工学におけるLLMの効率を活かす重要な道であると考えられている。
人間からインスピレーションを得て、この研究はエージェントが世界を把握し、経験するために必要な3つの要素に注意を向ける。
論文 参考訳(メタデータ) (2024-09-25T13:09:23Z) - A Comprehensive Review of Multimodal Large Language Models: Performance and Challenges Across Different Tasks [74.52259252807191]
MLLM(Multimodal Large Language Models)は、単一のモダリティシステムの能力を超えた現実世界のアプリケーションの複雑さに対処する。
本稿では,自然言語,視覚,音声などのマルチモーダルタスクにおけるMLLMの応用を体系的に整理する。
論文 参考訳(メタデータ) (2024-08-02T15:14:53Z) - A Reality check of the benefits of LLM in business [1.9181612035055007]
大規模言語モデル(LLM)は、言語理解および生成タスクにおいて顕著なパフォーマンスを達成した。
ビジネスプロセスにおけるLCMの有用性と準備性について概説する。
論文 参考訳(メタデータ) (2024-06-09T02:36:00Z) - Generative AI-in-the-loop: Integrating LLMs and GPTs into the Next Generation Networks [11.509880721677156]
大規模言語モデル(LLM)が最近登場し、認知タスクにおけるほぼ人間レベルのパフォーマンスを実証している。
次世代AI-in-the-loop」の概念を提案する。
LLMとMLモデルを組み合わせることで、それぞれの能力を活用し、どちらのモデルよりも優れた結果が得られると考えています。
論文 参考訳(メタデータ) (2024-06-06T17:25:07Z) - ChatGPT Alternative Solutions: Large Language Models Survey [0.0]
大規模言語モデル(LLM)はこの領域における研究貢献の急増に火をつけた。
近年、学術と産業のダイナミックな相乗効果が見られ、LLM研究の分野を新たな高地へと押し上げた。
この調査は、ジェネレーティブAIの現状をよく理解し、さらなる探索、強化、イノベーションの機会に光を当てている。
論文 参考訳(メタデータ) (2024-03-21T15:16:50Z) - Rethinking Interpretability in the Era of Large Language Models [76.1947554386879]
大規模言語モデル(LLM)は、幅広いタスクにまたがる顕著な機能を示している。
自然言語で説明できる能力により、LLMは人間に与えられるパターンのスケールと複雑さを拡大することができる。
これらの新しい機能は、幻覚的な説明や膨大な計算コストなど、新しい課題を提起する。
論文 参考訳(メタデータ) (2024-01-30T17:38:54Z) - Insights into Classifying and Mitigating LLMs' Hallucinations [48.04565928175536]
本稿では,AI幻覚の根本原因を解明し,人工知能におけるその意義を明らかにする。
我々は,大規模な言語モデルの全体的な信頼性を高めることを目的として,幻覚を緩和するための潜在的戦略を探究する。
論文 参考訳(メタデータ) (2023-11-14T12:30:28Z) - ExpeL: LLM Agents Are Experiential Learners [60.54312035818746]
実験学習エージェント(ExpeL)を導入し、パラメトリック更新を必要とせずにエージェント体験から学習できるようにする。
我々のエージェントは、経験を自律的に収集し、学習課題の集合から自然言語を用いて知識を抽出する。
推論において、エージェントは抽出された洞察と過去の経験をリコールし、情報的決定を行う。
論文 参考訳(メタデータ) (2023-08-20T03:03:34Z) - Brain in a Vat: On Missing Pieces Towards Artificial General
Intelligence in Large Language Models [83.63242931107638]
本稿では,知的エージェントの4つの特徴について述べる。
実世界の物体との活発な関わりは、概念的表現を形成するためのより堅牢な信号をもたらすと我々は主張する。
我々は、人工知能分野における将来的な研究の方向性を概説して結論付ける。
論文 参考訳(メタデータ) (2023-07-07T13:58:16Z) - Inner Monologue: Embodied Reasoning through Planning with Language
Models [81.07216635735571]
大規模言語モデル(LLM)は自然言語処理以外の領域に適用できる。
具体化された環境でのLLMの計画には、何をすべきかだけでなく、どのように、いつ行うべきかを考える必要がある。
環境フィードバックを活用することで、LLMはロボット制御シナリオにおいてよりリッチな処理と計画を行うことができる内部モノローグを形成することができる。
論文 参考訳(メタデータ) (2022-07-12T15:20:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。