論文の概要: Benchmarking LLM Privacy Recognition for Social Robot Decision Making
- arxiv url: http://arxiv.org/abs/2507.16124v1
- Date: Tue, 22 Jul 2025 00:36:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-23 21:34:13.916534
- Title: Benchmarking LLM Privacy Recognition for Social Robot Decision Making
- Title(参考訳): 社会ロボット意思決定のためのLLMプライバシ認識のベンチマーク
- Authors: Dakota Sullivan, Shirley Zhang, Jennica Li, Heather Kirkorian, Bilge Mutlu, Kassem Fawaz,
- Abstract要約: ソーシャルロボット(Social Robot)は、人間のコミュニケーション規範に従って人間と対話するエンボディエージェントである。
本研究では,家庭社会ロボットの文脈において,既成のLLMがどの程度プライバシに意識されているかを検討する。
- 参考スコア(独自算出の注目度): 15.763528324946005
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Social robots are embodied agents that interact with people while following human communication norms. These robots interact using verbal and non-verbal cues, and share the physical environments of people. While social robots have previously utilized rule-based systems or probabilistic models for user interaction, the rapid evolution of large language models (LLMs) presents new opportunities to develop LLM-empowered social robots for enhanced human-robot interaction. To fully realize these capabilities, however, robots need to collect data such as audio, fine-grained images, video, and locations. As a result, LLMs often process sensitive personal information, particularly within home environments. Given the tension between utility and privacy risks, evaluating how current LLMs manage sensitive data is critical. Specifically, we aim to explore the extent to which out-of-the-box LLMs are privacy-aware in the context of household social robots. In this study, we present a set of privacy-relevant scenarios crafted through the lens of Contextual Integrity (CI). We first survey users' privacy preferences regarding in-home social robot behaviors and then examine how their privacy orientation affects their choices of these behaviors (N = 450). We then provide the same set of scenarios and questions to state-of-the-art LLMs (N = 10) and find that the agreement between humans and LLMs is low. To further investigate the capabilities of LLMs as a potential privacy controller, we implement four additional prompting strategies and compare their results. Finally, we discuss the implications and potential of AI privacy awareness in human-robot interaction.
- Abstract(参考訳): ソーシャルロボット(Social Robot)は、人間のコミュニケーション規範に従って人間と対話するエンボディエージェントである。
これらのロボットは、言葉と非言語を使って対話し、人々の物理的環境を共有します。
社会ロボットは、これまでルールベースのシステムや確率論的モデルをユーザインタラクションに利用してきたが、大規模言語モデル(LLM)の急速な進化は、人間とロボットのインタラクションを強化するためにLLMを活用した社会ロボットを開発する新たな機会を提供する。
しかし、これらの能力を十分に実現するためには、ロボットは音声、きめ細かい画像、ビデオ、位置などのデータを収集する必要がある。
結果として、LSMは、特に家庭環境において、敏感な個人情報を処理していることが多い。
ユーティリティとプライバシのリスクの緊張を考えると、現在のLCMが機密データを管理する方法を評価することが重要です。
具体的には,家庭内社会ロボットの文脈において,既成のLLMがどの程度プライバシに意識されているかを検討することを目的とする。
本研究では、コンテキスト整合性(CI)のレンズを用いて、プライバシ関連シナリオのセットを提示する。
まず,家庭内社会ロボットの行動に関するユーザのプライバシ嗜好を調査し,プライバシ指向がこれらの行動の選択にどのように影響するかを検討する(N=450)。
次に、最先端のLLM(N = 10)に対して、同じシナリオと質問のセットを提供し、人間とLLMの合意が低いことを確かめる。
潜在的なプライバシコントローラとしてのLCMの能力をさらに検討するため,さらに4つのプロンプト戦略を実装し,その結果を比較した。
最後に、人間とロボットのインタラクションにおけるAIプライバシ意識の意味と可能性について論じる。
関連論文リスト
- "Is it always watching? Is it always listening?" Exploring Contextual Privacy and Security Concerns Toward Domestic Social Robots [4.191809055412282]
社会ロボットは米国の消費者の間で関心を集めている。
リスクの増加には、データリンク、不正なデータ共有、ユーザとその家の物理的安全性などがある。
私たちは、透明性、ユーザビリティ、堅牢なプライバシコントロールの必要性を強調しながら、重要なセキュリティとプライバシに関する懸念を特定しました。
論文 参考訳(メタデータ) (2025-07-14T20:27:40Z) - SocialEval: Evaluating Social Intelligence of Large Language Models [70.90981021629021]
ソーシャルインテリジェンス(英語版) (SI) は、社会的目標を達成するために社会的相互作用をナビゲートする際に賢明に行動する対人能力を持つ人間を装備する。
結果指向の目標達成評価とプロセス指向の対人能力評価という,運用評価パラダイムを提示する。
スクリプトベースのバイリンガルSIベンチマークであるSocialEvalを提案する。
論文 参考訳(メタデータ) (2025-06-01T08:36:51Z) - The Human Robot Social Interaction (HSRI) Dataset: Benchmarking Foundational Models' Social Reasoning [49.32390524168273]
本研究は,実世界のソーシャルインタラクションにおいて,人工知能(AI)エージェントの社会的推論を促進することを目的としている。
我々は、言語モデル(LM)と基礎モデル(FM)の能力をベンチマークするために、大規模な実世界のヒューマンロボット社会インタラクション(HSRI)データセットを導入する。
私たちのデータセットは、400以上の現実世界の人間のソーシャルロボットインタラクションビデオと10K以上のアノテーションで構成され、ロボットの社会的エラー、能力、合理性、修正行動の詳細を記述しています。
論文 参考訳(メタデータ) (2025-04-07T06:27:02Z) - Measurement of LLM's Philosophies of Human Nature [113.47929131143766]
大規模言語モデル(LLM)を対象とする標準化された心理尺度を設計する。
現在のLSMは、人間に対する信頼の欠如を示す。
本稿では,LLMが継続的に価値体系を最適化できるメンタルループ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-03T06:22:19Z) - Learning Object Properties Using Robot Proprioception via Differentiable Robot-Object Interaction [52.12746368727368]
微分可能シミュレーションは、システム識別の強力なツールとなっている。
本手法は,オブジェクト自体のデータに頼ることなく,ロボットからの情報を用いてオブジェクト特性を校正する。
低コストなロボットプラットフォームにおける本手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-10-04T20:48:38Z) - Comparing Apples to Oranges: LLM-powered Multimodal Intention Prediction in an Object Categorization Task [17.190635800969456]
本稿では,ロボットとの協調的な対象分類タスクにおいて,人間の意図を推定するために,Large Language Modelsを用いて検討する。
本研究では, ユーザの身振り, 身振り, 表情などの非言語的手がかりを, ユーザの意図を予測するために, 環境状態やユーザの言葉的手がかりと統合する, 新たなマルチモーダルアプローチを提案する。
論文 参考訳(メタデータ) (2024-04-12T12:15:14Z) - Leveraging Large Language Models in Human-Robot Interaction: A Critical Analysis of Potential and Pitfalls [0.0]
大規模言語モデル(LLM)と視覚言語モデル(VLM)は、社会支援ロボット(SAR)における前例のない機会と課題を提示する
我々は、HRI研究における主要なロボットとSARの重要応用を探求する250以上の論文のメタスタディを行い、教育、医療、エンターテイメントを強調しながら、ロボット開発者が対処すべき社会的規範や問題、信頼、偏見、倫理に対処する。
我々は,LSM や VLM を SAR に導入するための責任と効果的な経路を概説する。
論文 参考訳(メタデータ) (2024-03-26T15:36:40Z) - Are Large Language Models Aligned with People's Social Intuitions for Human-Robot Interactions? [7.308479353736709]
大規模言語モデル(LLM)は、ロボット工学、特にハイレベルな行動計画にますます使われている。
本研究では,人間とロボットの相互作用のシナリオにおいて,LLMが人々の直感やコミュニケーションを再現するかどうかを検証する。
視覚モデルでは映像刺激の本質を捉えることができず、LLMは人よりもコミュニケーション行動や行動を評価する傾向にあることを示す。
論文 参考訳(メタデータ) (2024-03-08T22:23:23Z) - Large Language Models for Robotics: A Survey [40.76581696885846]
大規模言語モデル(LLM)は自然言語の処理と生成能力を有しており、ロボットとの効率的な対話と協調を促進する。
本レビューは,ロボット制御,知覚,意思決定,経路計画といった重要な領域に対する,ロボット工学におけるLLMの応用と貢献を要約することを目的としている。
論文 参考訳(メタデータ) (2023-11-13T10:46:35Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - Proceeding of the 1st Workshop on Social Robots Personalisation At the
crossroads between engineering and humanities (CONCATENATE) [37.838596863193565]
本ワークショップは,ロボット工学におけるパーソナライゼーションに関する学際的な議論を提起することを目的としている。
異なる分野の研究者を集結させ、パーソナライズのためのガイドラインを提案することを目的としている。
論文 参考訳(メタデータ) (2023-07-10T11:11:24Z) - SACSoN: Scalable Autonomous Control for Social Navigation [62.59274275261392]
我々は、社会的に邪魔にならないナビゲーションのための政策の訓練方法を開発した。
この反事実的摂動を最小化することにより、共有空間における人間の自然な振る舞いを変えない方法でロボットに行動を促すことができる。
屋内移動ロボットが人間の傍観者と対話する大規模なデータセットを収集する。
論文 参考訳(メタデータ) (2023-06-02T19:07:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。