論文の概要: Identifying Uncertainty in Self-Adaptive Robotics with Large Language Models
- arxiv url: http://arxiv.org/abs/2504.20684v1
- Date: Tue, 29 Apr 2025 12:07:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.884637
- Title: Identifying Uncertainty in Self-Adaptive Robotics with Large Language Models
- Title(参考訳): 大規模言語モデルを用いた自己適応型ロボットの不確かさの同定
- Authors: Hassan Sartaj, Jalil Boudjadar, Mirgita Frasheri, Shaukat Ali, Peter Gorm Larsen,
- Abstract要約: 我々は,大規模言語モデル(LLM)が自己適応型ロボット工学における不確実性を特定するための体系的なアプローチを可能にする可能性を評価する。
産業用ロボットのケーススタディにおいて,10種類の高度なLCMを多種多様な能力で分析した。
その結果, LLMの回答の63~88%と一致し, LLMの実用性への強い関心を示した。
- 参考スコア(独自算出の注目度): 4.638192191684079
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Future self-adaptive robots are expected to operate in highly dynamic environments while effectively managing uncertainties. However, identifying the sources and impacts of uncertainties in such robotic systems and defining appropriate mitigation strategies is challenging due to the inherent complexity of self-adaptive robots and the lack of comprehensive knowledge about the various factors influencing uncertainty. Hence, practitioners often rely on intuition and past experiences from similar systems to address uncertainties. In this article, we evaluate the potential of large language models (LLMs) in enabling a systematic and automated approach to identify uncertainties in self-adaptive robotics throughout the software engineering lifecycle. For this evaluation, we analyzed 10 advanced LLMs with varying capabilities across four industrial-sized robotics case studies, gathering the practitioners' perspectives on the LLM-generated responses related to uncertainties. Results showed that practitioners agreed with 63-88% of the LLM responses and expressed strong interest in the practicality of LLMs for this purpose.
- Abstract(参考訳): 将来の自己適応型ロボットは、不確実性を効果的に管理しつつ、非常にダイナミックな環境で動作することが期待されている。
しかし,このようなロボットシステムにおける不確実性の原因と影響を特定し,適切な緩和戦略を定義することは,自己適応型ロボットの本質的な複雑さと,不確実性に影響を与える諸要因に関する包括的知識の欠如により困難である。
したがって、実践者は不確実性に対処するために、しばしば類似したシステムからの直観や過去の経験に頼っている。
本稿では,大規模言語モデル(LLM)がソフトウェア工学ライフサイクル全体を通して,自己適応型ロボットの不確実性を特定するために,体系的かつ自動化されたアプローチを可能にする可能性を評価する。
本評価では,4つの産業用ロボットケーススタディにおいて,多種多様な能力を持つ10種類の高度なLCMを解析し,不確実性に関連するLSM生成反応に対する実践者の視点を収集した。
その結果, LLMの回答の63~88%と一致し, LLMの実用性への強い関心を示した。
関連論文リスト
- LLMpatronous: Harnessing the Power of LLMs For Vulnerability Detection [0.0]
脆弱性検出のための大規模言語モデル(LLM)には、ユニークな課題がある。
脆弱性検出に機械学習モデルを使用した以前の試みは、効果がないことが証明されている。
我々は、これらの制限を緩和することに焦点を当てた、堅牢なAI駆動アプローチを提案する。
論文 参考訳(メタデータ) (2025-04-25T15:30:40Z) - Safe LLM-Controlled Robots with Formal Guarantees via Reachability Analysis [0.6749750044497732]
本稿では,Large Language Models (LLM) 制御ロボットを対象とした,データ駆動型リーチビリティ解析に基づく安全保証フレームワークを提案する。
我々のアプローチは、明示的な分析モデルに頼ることなく、安全でない行動に対する厳密な安全保証を提供する。
論文 参考訳(メタデータ) (2025-03-05T21:23:15Z) - Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - MR-Ben: A Meta-Reasoning Benchmark for Evaluating System-2 Thinking in LLMs [55.20845457594977]
大規模言語モデル(LLM)は、問題解決と意思決定の能力の向上を示している。
本稿ではメタ推論技術を必要とするプロセスベースのベンチマークMR-Benを提案する。
メタ推論のパラダイムは,システム2のスロー思考に特に適しています。
論文 参考訳(メタデータ) (2024-06-20T03:50:23Z) - LLM-Driven Robots Risk Enacting Discrimination, Violence, and Unlawful Actions [3.1247504290622214]
研究は、大規模言語モデルが現実世界のロボット実験や応用において差別的な結果や安全でない行動をもたらす可能性を懸念している。
高い評価を受けたLLMの識別基準と安全性基準のHRIに基づく評価を行う。
結果から, 組織的, 定期的, 包括的リスクアセスメントと, 成果改善のための保証の必要性が浮き彫りとなった。
論文 参考訳(メタデータ) (2024-06-13T05:31:49Z) - The Role of Predictive Uncertainty and Diversity in Embodied AI and Robot Learning [10.271978575618169]
不確実性は、特にロボットが分析モデルを備えている場合、ロボット工学において長い間重要な研究領域であった。
このガイドは不確実性の重要性の概要を提供し、アプリケーションの観点からそれを定量化し評価する方法を提供する。
論文 参考訳(メタデータ) (2024-05-06T05:04:59Z) - On the Vulnerability of LLM/VLM-Controlled Robotics [54.57914943017522]
大規模言語モデル(LLM)と視覚言語モデル(VLM)を統合するロボットシステムの脆弱性を,入力モダリティの感度によって強調する。
LLM/VLM制御型2つのロボットシステムにおいて,単純な入力摂動がタスク実行の成功率を22.2%,14.6%減少させることを示す。
論文 参考訳(メタデータ) (2024-02-15T22:01:45Z) - Robots That Ask For Help: Uncertainty Alignment for Large Language Model
Planners [85.03486419424647]
KnowNoは、大きな言語モデルの不確実性を測定し、調整するためのフレームワークである。
KnowNoは、タスク完了に関する統計的保証を提供する共形予測理論に基づいている。
論文 参考訳(メタデータ) (2023-07-04T21:25:12Z) - Revisiting the Adversarial Robustness-Accuracy Tradeoff in Robot
Learning [121.9708998627352]
近年の研究では、現実的なロボット学習の応用において、対人訓練の効果が公平なトレードオフを起こさないことが示されている。
本研究は,ロボット学習におけるロバストネスと精度のトレードオフを再考し,最近のロバストトレーニング手法と理論の進歩により,現実のロボット応用に適した対人トレーニングが可能かどうかを解析する。
論文 参考訳(メタデータ) (2022-04-15T08:12:15Z) - Multi Agent System for Machine Learning Under Uncertainty in Cyber
Physical Manufacturing System [78.60415450507706]
近年の予測機械学習の進歩は、製造における様々なユースケースに応用されている。
ほとんどの研究は、それに関連する不確実性に対処することなく予測精度を最大化することに焦点を当てた。
本稿では,機械学習における不確実性の原因を特定し,不確実性下での機械学習システムの成功基準を確立する。
論文 参考訳(メタデータ) (2021-07-28T10:28:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。