論文の概要: Deceptive Risks in LLM-enhanced Robots
- arxiv url: http://arxiv.org/abs/2410.00434v1
- Date: Tue, 1 Oct 2024 06:33:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-05 05:36:46.235611
- Title: Deceptive Risks in LLM-enhanced Robots
- Title(参考訳): LLM強化ロボットの認知リスク
- Authors: Robert Ranisch, Joschka Haltaufderheide,
- Abstract要約: 本稿では,Large Language Models (LLMs) の社会ロボットへの統合における重要な欠陥について検討する。
LLMは、薬物摂取の通知の設定など、誤ってリマインダー機能を有すると主張した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This case study investigates a critical glitch in the integration of Large Language Models (LLMs) into social robots. LLMs, including ChatGPT, were found to falsely claim to have reminder functionalities, such as setting notifications for medication intake. We tested commercially available care software, which integrated ChatGPT, running on the Pepper robot and consistently reproduced this deceptive pattern. Not only did the system falsely claim the ability to set reminders, but it also proactively suggested managing medication schedules. The persistence of this issue presents a significant risk in healthcare settings, where system reliability is paramount. This case highlights the ethical and safety concerns surrounding the deployment of LLM-integrated robots in healthcare, emphasizing the urgent need for regulatory oversight to prevent potentially harmful consequences for vulnerable populations.
- Abstract(参考訳): 本稿では,Large Language Models (LLMs) の社会ロボットへの統合における重要な欠陥について検討する。
ChatGPTを含むLSMは、薬物摂取の通知を設定するなど、誤ってリマインダー機能を持つと主張した。
We tested commercially available care software which integrated ChatGPT, running on the Pepper Robot, and continuous production this deceptive pattern。
システムは、リマインダーを設定する能力を誤って主張しただけでなく、薬物スケジュールの管理も積極的に提案した。
この問題の持続性は、システムの信頼性が最重要である医療設定において重大なリスクをもたらす。
このケースは、LSM統合されたロボットを医療に配置する際の倫理的および安全性上の懸念を強調し、脆弱な人口に対する潜在的有害な影響を防ぐための規制監督の緊急の必要性を強調している。
関連論文リスト
- Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - The Future of Intelligent Healthcare: A Systematic Analysis and Discussion on the Integration and Impact of Robots Using Large Language Models for Healthcare [4.297070083645049]
医療ロボティクスにおける大規模言語モデル(LLM)は、高齢化と医療専門家の不足に対する医療システムに対する大きな需要に対応するのに役立つ。
我々は、人間ロボットのインタラクション(HRI)、意味推論、タスクプランニングによるマルチモーダルコミュニケーションの観点から、健康的なLLMベースのロボットを設計するために必要なシステム要件を特定した。
さらに,この新興イノベーション分野の倫理的問題,オープン課題,今後の研究方向性についても論じる。
論文 参考訳(メタデータ) (2024-11-05T17:36:32Z) - Safety challenges of AI in medicine [23.817939398729955]
レビューでは、医療の安全性を損なう可能性のあるAIプラクティスの潜在的なリスクについて検討している。
試験は、多様な集団におけるパフォーマンス、一貫性のない運用安定性、効果的なモデルチューニングのための高品質なデータの必要性、モデルの開発とデプロイメントにおけるデータ漏洩のリスクを低減した。
本稿の第2部では、医学的文脈において、大規模言語モデル(LLM)に特有の安全性の問題について論じる。
論文 参考訳(メタデータ) (2024-09-11T13:47:47Z) - A Study on Prompt Injection Attack Against LLM-Integrated Mobile Robotic Systems [4.71242457111104]
大規模言語モデル(LLM)はマルチモーダルプロンプトを処理でき、よりコンテキスト対応の応答を生成することができる。
主な懸念事項の1つは、ロボットナビゲーションタスクでLLMを使用する際の潜在的なセキュリティリスクである。
本研究は,LPM統合システムにおける即時注入が移動ロボットの性能に及ぼす影響について検討する。
論文 参考訳(メタデータ) (2024-08-07T02:48:22Z) - LLM-Driven Robots Risk Enacting Discrimination, Violence, and Unlawful Actions [3.1247504290622214]
研究は、大規模言語モデルが現実世界のロボット実験や応用において差別的な結果や安全でない行動をもたらす可能性を懸念している。
高い評価を受けたLLMの識別基準と安全性基準のHRIに基づく評価を行う。
結果から, 組織的, 定期的, 包括的リスクアセスメントと, 成果改善のための保証の必要性が浮き彫りとなった。
論文 参考訳(メタデータ) (2024-06-13T05:31:49Z) - The Wolf Within: Covert Injection of Malice into MLLM Societies via an MLLM Operative [55.08395463562242]
MLLM(Multimodal Large Language Models)は、AGI(Artificial General Intelligence)の新たな境界を常に定義している。
本稿では,MLLM社会において,悪意のあるコンテンツの間接的伝播という新たな脆弱性について検討する。
論文 参考訳(メタデータ) (2024-02-20T23:08:21Z) - Highlighting the Safety Concerns of Deploying LLMs/VLMs in Robotics [54.57914943017522]
本稿では,大規模言語モデル (LLMs) と視覚言語モデル (VLMs) をロボティクスアプリケーションに統合する際のロバスト性と安全性に関する重要な課題を強調する。
論文 参考訳(メタデータ) (2024-02-15T22:01:45Z) - Prioritizing Safeguarding Over Autonomy: Risks of LLM Agents for Science [65.77763092833348]
大規模言語モデル(LLM)を利用したインテリジェントエージェントは、自律的な実験を行い、様々な分野にわたる科学的発見を促進する上で、大きな可能性を証明している。
彼らの能力は有望だが、これらのエージェントは安全性を慎重に考慮する必要がある新たな脆弱性も導入している。
本稿では,科学領域におけるLSMをベースとしたエージェントの脆弱性の徹底的な調査を行い,その誤用に伴う潜在的なリスクに光を当て,安全性対策の必要性を強調した。
論文 参考訳(メタデータ) (2024-02-06T18:54:07Z) - Insights into Classifying and Mitigating LLMs' Hallucinations [48.04565928175536]
本稿では,AI幻覚の根本原因を解明し,人工知能におけるその意義を明らかにする。
我々は,大規模な言語モデルの全体的な信頼性を高めることを目的として,幻覚を緩和するための潜在的戦略を探究する。
論文 参考訳(メタデータ) (2023-11-14T12:30:28Z) - Redefining Digital Health Interfaces with Large Language Models [69.02059202720073]
大規模言語モデル(LLM)は、複雑な情報を処理できる汎用モデルとして登場した。
LLMが臨床医とデジタル技術との新たなインターフェースを提供する方法を示す。
自動機械学習を用いた新しい予後ツールを開発した。
論文 参考訳(メタデータ) (2023-10-05T14:18:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。