論文の概要: Rapid Integration of LLMs in Healthcare Raises Ethical Concerns: An Investigation into Deceptive Patterns in Social Robots
- arxiv url: http://arxiv.org/abs/2410.00434v2
- Date: Fri, 22 Nov 2024 11:31:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-25 15:01:36.773949
- Title: Rapid Integration of LLMs in Healthcare Raises Ethical Concerns: An Investigation into Deceptive Patterns in Social Robots
- Title(参考訳): 医療におけるLCMの迅速な統合と倫理的懸念--社会ロボットにおける知覚パターンの検討
- Authors: Robert Ranisch, Joschka Haltaufderheide,
- Abstract要約: 大規模言語モデル(LLM)を社会ロボットに統合することで、その能力は大幅に向上した。
市販のLCMベースケアソフトウェアにおいて,ロボットに組み込まれた誤認行動パターンを観察した。
この偽りの行動は、信頼性が最重要である医療環境において重大なリスクをもたらす。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Conversational agents are increasingly used in healthcare, and the integration of Large Language Models (LLMs) has significantly enhanced their capabilities. When integrated into social robots, LLMs offer the potential for more natural interactions. However, while LLMs promise numerous benefits, they also raise critical ethical concerns, particularly around the issue of hallucinations and deceptive patterns. In this case study, we observed a critical pattern of deceptive behavior in commercially available LLM-based care software integrated into robots. The LLM-equipped robot falsely claimed to have medication reminder functionalities. Not only did these systems assure users of their ability to manage medication schedules, but they also proactively suggested this capability, despite lacking it. This deceptive behavior poses significant risks in healthcare environments, where reliability is paramount. Our findings highlights the ethical and safety concerns surrounding the deployment of LLM-integrated robots in healthcare, emphasizing the need for oversight to prevent potentially harmful consequences for vulnerable populations.
- Abstract(参考訳): 会話エージェントは医療でますます使われており、LLM(Large Language Models)の統合により、その能力は大幅に向上している。
社会ロボットに統合されると、LLMはより自然な相互作用の可能性を秘めている。
しかし、LSMは数多くの利益を約束する一方で、特に幻覚や欺くパターンの問題に関して、批判的な倫理的懸念を提起する。
本研究では,市販のLCMベースケアソフトウェアにおいて,ロボットに組み込まれた誤認行動の批判的パターンを観察した。
LLM搭載のロボットは、誤って薬のリマインダー機能を持っていると主張した。
これらのシステムは、薬のスケジュールを管理する能力をユーザーに保証しただけでなく、それを欠いているにもかかわらず、積極的にこの能力を提案した。
この偽りの行動は、信頼性が最重要である医療環境において重大なリスクをもたらす。
本研究は,LLM統合型ロボットの医療への展開に伴う倫理的・安全性上の懸念を浮き彫りにし,脆弱な人口に対する潜在的有害な影響を防ぐための監視の必要性を強調した。
関連論文リスト
- Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - The Future of Intelligent Healthcare: A Systematic Analysis and Discussion on the Integration and Impact of Robots Using Large Language Models for Healthcare [4.297070083645049]
医療ロボティクスにおける大規模言語モデル(LLM)は、高齢化と医療専門家の不足に対する医療システムに対する大きな需要に対応するのに役立つ。
我々は、人間ロボットのインタラクション(HRI)、意味推論、タスクプランニングによるマルチモーダルコミュニケーションの観点から、健康的なLLMベースのロボットを設計するために必要なシステム要件を特定した。
さらに,この新興イノベーション分野の倫理的問題,オープン課題,今後の研究方向性についても論じる。
論文 参考訳(メタデータ) (2024-11-05T17:36:32Z) - Safety challenges of AI in medicine [23.817939398729955]
レビューでは、医療の安全性を損なう可能性のあるAIプラクティスの潜在的なリスクについて検討している。
試験は、多様な集団におけるパフォーマンス、一貫性のない運用安定性、効果的なモデルチューニングのための高品質なデータの必要性、モデルの開発とデプロイメントにおけるデータ漏洩のリスクを低減した。
本稿の第2部では、医学的文脈において、大規模言語モデル(LLM)に特有の安全性の問題について論じる。
論文 参考訳(メタデータ) (2024-09-11T13:47:47Z) - A Study on Prompt Injection Attack Against LLM-Integrated Mobile Robotic Systems [4.71242457111104]
大規模言語モデル(LLM)はマルチモーダルプロンプトを処理でき、よりコンテキスト対応の応答を生成することができる。
主な懸念事項の1つは、ロボットナビゲーションタスクでLLMを使用する際の潜在的なセキュリティリスクである。
本研究は,LPM統合システムにおける即時注入が移動ロボットの性能に及ぼす影響について検討する。
論文 参考訳(メタデータ) (2024-08-07T02:48:22Z) - LLM-Driven Robots Risk Enacting Discrimination, Violence, and Unlawful Actions [3.1247504290622214]
研究は、大規模言語モデルが現実世界のロボット実験や応用において差別的な結果や安全でない行動をもたらす可能性を懸念している。
高い評価を受けたLLMの識別基準と安全性基準のHRIに基づく評価を行う。
結果から, 組織的, 定期的, 包括的リスクアセスメントと, 成果改善のための保証の必要性が浮き彫りとなった。
論文 参考訳(メタデータ) (2024-06-13T05:31:49Z) - The Wolf Within: Covert Injection of Malice into MLLM Societies via an MLLM Operative [55.08395463562242]
MLLM(Multimodal Large Language Models)は、AGI(Artificial General Intelligence)の新たな境界を常に定義している。
本稿では,MLLM社会において,悪意のあるコンテンツの間接的伝播という新たな脆弱性について検討する。
論文 参考訳(メタデータ) (2024-02-20T23:08:21Z) - Highlighting the Safety Concerns of Deploying LLMs/VLMs in Robotics [54.57914943017522]
本稿では,大規模言語モデル (LLMs) と視覚言語モデル (VLMs) をロボティクスアプリケーションに統合する際のロバスト性と安全性に関する重要な課題を強調する。
論文 参考訳(メタデータ) (2024-02-15T22:01:45Z) - Prioritizing Safeguarding Over Autonomy: Risks of LLM Agents for Science [65.77763092833348]
大規模言語モデル(LLM)を利用したインテリジェントエージェントは、自律的な実験を行い、様々な分野にわたる科学的発見を促進する上で、大きな可能性を証明している。
彼らの能力は有望だが、これらのエージェントは安全性を慎重に考慮する必要がある新たな脆弱性も導入している。
本稿では,科学領域におけるLSMをベースとしたエージェントの脆弱性の徹底的な調査を行い,その誤用に伴う潜在的なリスクに光を当て,安全性対策の必要性を強調した。
論文 参考訳(メタデータ) (2024-02-06T18:54:07Z) - Insights into Classifying and Mitigating LLMs' Hallucinations [48.04565928175536]
本稿では,AI幻覚の根本原因を解明し,人工知能におけるその意義を明らかにする。
我々は,大規模な言語モデルの全体的な信頼性を高めることを目的として,幻覚を緩和するための潜在的戦略を探究する。
論文 参考訳(メタデータ) (2023-11-14T12:30:28Z) - Redefining Digital Health Interfaces with Large Language Models [69.02059202720073]
大規模言語モデル(LLM)は、複雑な情報を処理できる汎用モデルとして登場した。
LLMが臨床医とデジタル技術との新たなインターフェースを提供する方法を示す。
自動機械学習を用いた新しい予後ツールを開発した。
論文 参考訳(メタデータ) (2023-10-05T14:18:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。