論文の概要: IoT-LLM: Enhancing Real-World IoT Task Reasoning with Large Language Models
- arxiv url: http://arxiv.org/abs/2410.02429v3
- Date: Tue, 20 May 2025 11:12:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:51.359412
- Title: IoT-LLM: Enhancing Real-World IoT Task Reasoning with Large Language Models
- Title(参考訳): IoT-LLM: 大規模言語モデルによる実世界のIoTタスク推論の強化
- Authors: Tuo An, Yunjiao Zhou, Han Zou, Jianfei Yang,
- Abstract要約: LLM(Large Language Models)はテキストやビジュアルタスクに優れるが、物理世界の推論タスクを扱う際に物理法則に反する出力を生成することが多い。
人間の認知に触発されて,モノのインターネット(IoT)センサデータを用いた知覚能力の向上によるLLMの強化と,物理的な世界におけるIoT感覚タスク推論のための関連する知識について検討する。
- 参考スコア(独自算出の注目度): 15.779982408779945
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) excel in textual and visual tasks but often produce outputs that defy physical laws when dealing with physical-world reasoning tasks. Inspired by human cognition, where perception is fundamental to reasoning, we explore augmenting LLMs with enhanced perception abilities using Internet of Things (IoT) sensor data and pertinent knowledge for IoT-sensory task reasoning in the physical world. In this work, we systematically study LLMs' capability to address real-world IoT-sensory tasks by augmenting their perception and knowledge base, and then propose a unified framework, IoT-LLM, to enhance such capability. In IoT-LLM, we customize three steps for LLMs: preprocessing IoT data into formats amenable to LLMs, expanding their understanding via IoT-oriented retrieval-augmented generation based on in-context learning and activating their commonsense knowledge through chain-of-thought prompting and specialized role definitions. We design a new benchmark comprising five real-world tasks with varying data types and reasoning complexities to evaluate the performance of IoT-LLM. Experimental results on six LLMs reveal that IoT-LLM significantly improves the performance of IoT-sensory task reasoning of LLMs, with models like GPT-4o-mini showing a 49.4% average improvement over previous methods.
- Abstract(参考訳): LLM(Large Language Models)はテキストやビジュアルタスクに優れるが、物理世界の推論タスクを扱う際に物理法則に反する出力を生成することが多い。
知覚が推論の基礎となる人間の認知に触発され,IoT(Internet of Things, モノのインターネット)センサデータを用いた知覚能力の向上によるLLMの強化と,物理世界におけるIoT感覚タスク推論に対する関連する知識について検討する。
本研究では,LLMが現実のIoT感覚タスクに対処する能力について,認識と知識ベースを増強することで体系的に研究し,その能力を高めるために統合されたフレームワークであるIoT-LLMを提案する。
IoT-LLMでは、IoTデータをLLMに対応可能なフォーマットにプリプロセッシングすること、コンテキスト内学習に基づくIoT指向の検索拡張生成による理解の拡大、チェーン・オブ・シンセサイティングと特殊な役割定義による常識知識の活性化、という3つのステップをLLM用にカスタマイズしています。
我々は、IoT-LLMの性能を評価するために、さまざまなデータ型と推論複雑さを持つ5つの実世界のタスクからなる新しいベンチマークを設計する。
6つの LLM の実験結果から、IoT-LLM は LLM の IoT-Sensory タスク推論のパフォーマンスを著しく向上させ、GPT-4o-mini などのモデルでは、従来の手法よりも 49.4% 向上していることが明らかになった。
関連論文リスト
- LLM Post-Training: A Deep Dive into Reasoning Large Language Models [131.10969986056]
大規模言語モデル (LLMs) は自然言語処理の状況を変え、多様な応用をもたらした。
ポストトレーニング手法により、LLMは知識を洗練させ、推論を改善し、事実の正確性を高め、ユーザの意図や倫理的配慮をより効果的に整合させることができる。
論文 参考訳(メタデータ) (2025-02-28T18:59:54Z) - From Selection to Generation: A Survey of LLM-based Active Learning [153.8110509961261]
大きな言語モデル(LLM)は、全く新しいデータインスタンスを生成し、よりコスト効率の良いアノテーションを提供するために使われています。
本調査は,LSMに基づくAL手法の直感的な理解を目指して,研究者や実践者の最新のリソースとして機能することを目的としている。
論文 参考訳(メタデータ) (2025-02-17T12:58:17Z) - When IoT Meet LLMs: Applications and Challenges [0.5461938536945723]
大規模言語モデル(LLM)がIoT(Internet of Things)における高度な意思決定とコンテキスト理解をいかに促進するかを示す。
これは、エッジ、フォグ、クラウドシステム間のIoT-LLM統合に関する最初の包括的な研究である。
産業用IoTアプリケーションのための新しいシステムモデルを提案する。
論文 参考訳(メタデータ) (2024-11-20T23:44:51Z) - LLM-based event abstraction and integration for IoT-sourced logs [2.6811507121199325]
本稿では,イベント抽象化と統合において,LLM(Large Language Models)を活用する可能性について述べる。
当社のアプローチは、生のセンサ読み取りからイベントレコードを作成し、複数のIoTソースからのログを単一のイベントログにマージすることを目的としています。
高齢者介護と縦断的健康モニタリングにおけるIoT応用のケーススタディとして,イベント抽象化におけるLCMの機能を示す。
論文 参考訳(メタデータ) (2024-09-05T12:38:13Z) - Efficient Prompting for LLM-based Generative Internet of Things [88.84327500311464]
大規模言語モデル(LLM)は、様々なタスクにおいて顕著な能力を示しており、最近、IoT(Internet of Things)アプリケーションにLLMの能力を統合することが研究の注目を集めている。
セキュリティ上の懸念から、多くの機関は最先端の商用LLMサービスへのアクセスを避け、ローカルネットワーク環境でのオープンソースLLMのデプロイと利用を必要としている。
本研究では,LLMを用いた生成IoT(Generative IoT)システムを提案する。
論文 参考訳(メタデータ) (2024-06-14T19:24:00Z) - A Reality check of the benefits of LLM in business [1.9181612035055007]
大規模言語モデル(LLM)は、言語理解および生成タスクにおいて顕著なパフォーマンスを達成した。
ビジネスプロセスにおけるLCMの有用性と準備性について概説する。
論文 参考訳(メタデータ) (2024-06-09T02:36:00Z) - The Strong Pull of Prior Knowledge in Large Language Models and Its Impact on Emotion Recognition [74.04775677110179]
In-context Learning (ICL) は、Large Language Models (LLM) を用いた自然言語処理のための強力なパラダイムとして登場した。
LLMには、感情認識において強いが矛盾する先行性があり、その予測に影響を及ぼすことが示される。
以上の結果から,ICLをより大きなLCMで事前学習領域外の情動中心タスクに使用する場合,注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-25T19:07:32Z) - Rethinking Machine Unlearning for Large Language Models [85.92660644100582]
大規模言語モデル(LLM)の領域における機械学習の研究
このイニシアチブは、望ましくないデータの影響(機密情報や違法情報など)と関連するモデル機能を排除することを目的としている。
論文 参考訳(メタデータ) (2024-02-13T20:51:58Z) - Penetrative AI: Making LLMs Comprehend the Physical World [3.0266193917041306]
大きな言語モデル(LLM)は、様々なタスクにまたがる顕著な機能を示しています。
本稿は,IoTセンサとアクチュエータを用いて,LLMを物理的世界と相互作用し,推論するために拡張する方法について検討する。
論文 参考訳(メタデータ) (2023-10-14T15:48:15Z) - TRACE: A Comprehensive Benchmark for Continual Learning in Large
Language Models [52.734140807634624]
調整された大規模言語モデル(LLM)は、タスク解決、指示に従うこと、安全性を確保することにおいて、例外的な能力を示す。
既存の連続学習ベンチマークでは、LLMをリードする上で十分な課題が欠如している。
LLMにおける継続学習を評価するための新しいベンチマークであるTRACEを紹介する。
論文 参考訳(メタデータ) (2023-10-10T16:38:49Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z) - Large Language Models as Data Preprocessors [9.99065004972981]
大規模言語モデル (LLM) は人工知能において大きな進歩を遂げている。
本研究では、データマイニングおよび分析アプリケーションにおいて重要な段階である、データ前処理におけるその可能性について検討する。
我々は,最先端のプロンプトエンジニアリング技術を統合したデータ前処理のためのLLMベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-30T23:28:43Z) - Knowledge-Augmented Reasoning Distillation for Small Language Models in
Knowledge-Intensive Tasks [90.11273439036455]
大規模言語モデル(LLM)は知識集約推論タスクにおいて有望なパフォーマンスを示している。
外部知識ベースから得られた知識を付加したLPMから理性を生成するための,小型LMを微調整する新しい手法であるKARDを提案する。
我々は,KARDが知識集約型推論データセットにおいて,小さなT5モデルとGPTモデルの性能を著しく向上させることを示す。
論文 参考訳(メタデータ) (2023-05-28T13:00:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。