論文の概要: How Can Large Language Models Enable Better Socially Assistive Human-Robot Interaction: A Brief Survey
- arxiv url: http://arxiv.org/abs/2404.00938v1
- Date: Mon, 1 Apr 2024 05:50:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-03 23:16:25.646913
- Title: How Can Large Language Models Enable Better Socially Assistive Human-Robot Interaction: A Brief Survey
- Title(参考訳): 大規模言語モデルはいかにして社会的に補助的な人間とロボットの相互作用を可能にするか:簡単な調査
- Authors: Zhonghao Shi, Ellen Landrum, Amy O' Connell, Mina Kian, Leticia Pinto-Alva, Kaleen Shrestha, Xiaoyuan Zhu, Maja J Matarić,
- Abstract要約: 社会的支援ロボット (SAR) は, 特別なニーズのある利用者に対して, 個人化された認知効果のある支援を提供することで大きな成功を収めている。
大規模言語モデル(LLM)の最近の進歩により、SARの分野における新しい応用の可能性が高まっている。
- 参考スコア(独自算出の注目度): 0.478870181148207
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Socially assistive robots (SARs) have shown great success in providing personalized cognitive-affective support for user populations with special needs such as older adults, children with autism spectrum disorder (ASD), and individuals with mental health challenges. The large body of work on SAR demonstrates its potential to provide at-home support that complements clinic-based interventions delivered by mental health professionals, making these interventions more effective and accessible. However, there are still several major technical challenges that hinder SAR-mediated interactions and interventions from reaching human-level social intelligence and efficacy. With the recent advances in large language models (LLMs), there is an increased potential for novel applications within the field of SAR that can significantly expand the current capabilities of SARs. However, incorporating LLMs introduces new risks and ethical concerns that have not yet been encountered, and must be carefully be addressed to safely deploy these more advanced systems. In this work, we aim to conduct a brief survey on the use of LLMs in SAR technologies, and discuss the potentials and risks of applying LLMs to the following three major technical challenges of SAR: 1) natural language dialog; 2) multimodal understanding; 3) LLMs as robot policies.
- Abstract(参考訳): 社会支援ロボット(SAR)は、高齢者、自閉症スペクトラム障害(ASD)児、精神健康上の課題を抱える個人など、特別なニーズを持つ利用者に対して、パーソナライズされた認知影響支援を提供することで大きな成功を収めている。
SARに関する大規模な研究は、精神保健専門家が提供したクリニックベースの介入を補完する在宅サポートを提供することの可能性を示し、これらの介入をより効果的かつアクセスしやすいものにする。
しかし、SARを介するインタラクションや介入が人間レベルの社会的知性と有効性に到達するのを妨げる、いくつかの大きな技術的課題がある。
大規模言語モデル(LLM)の最近の進歩により、SARの現在の能力を大幅に拡張できる新しい応用の可能性が高まっている。
しかし、LSMの導入は、まだ遭遇していない新たなリスクと倫理的懸念を導入し、これらのより高度なシステムを安全にデプロイするには慎重に対処する必要がある。
本研究は,SAR技術におけるLLMの利用に関する簡単な調査を行い,SARの次の3つの主要な技術的課題にLLMを適用する可能性とリスクについて考察することを目的とする。
1) 自然言語対話
2) マルチモーダル理解
3)ロボット政策としてのLSM
関連論文リスト
- Socially Pertinent Robots in Gerontological Healthcare [78.35311825198136]
本論文は,パリの保育所における患者と同伴者による2つの実験を通じて,社会的・対話的相互作用能力を備えたフルサイズのヒューマノイドロボットを用いて,この疑問に部分的に答えようとする試みである。
特に、ロボットの知覚とアクションスキルが環境の雑多さに対して堅牢であり、さまざまなインタラクションを扱うために柔軟である場合、ユーザーはこの技術を受け入れる。
論文 参考訳(メタデータ) (2024-04-11T08:43:37Z) - Addressing Social Misattributions of Large Language Models: An HCXAI-based Approach [45.74830585715129]
我々は,大規模言語モデル(LLM)における社会貢献のリスクに対処するために,社会透明性(ST)フレームワークの拡張を提案する。
LLMは、デザイナーの意図とユーザの社会的属性に対する認識のミスマッチを引き起こし、感情的な操作や危険な行動を促進するリスクを負う。
設計者やユーザによるLSMに割り当てられた特定の社会的属性を明らかにするため,第5の"W-question"によるSTフレームワークの拡張を提案する。
論文 参考訳(メタデータ) (2024-03-26T17:02:42Z) - Effectiveness Assessment of Recent Large Vision-Language Models [78.69439393646554]
本稿では,多言語多言語モデル(LVLM)の専門的および汎用的な課題における能力を評価する。
私たちは、自然、医療、産業という3つの異なるアプリケーションシナリオに6つの挑戦的なタスクを採用しています。
本研究は,MiniGPT-v2,LLaVA-1.5,Shikraを含む最近の3つのオープンソースLVLMの視覚認識および局所化性能について検討する。
論文 参考訳(メタデータ) (2024-03-07T08:25:27Z) - A Decision-Language Model (DLM) for Dynamic Restless Multi-Armed Bandit
Tasks in Public Health [31.676673158526786]
DLM:less multi-armed bandit (RMAB)のための決定言語モデルを提案する。
DLMは、人間の言語コマンドのみを入力として、ポリシー結果を動的に形成できることを示す。
論文 参考訳(メタデータ) (2024-02-22T18:58:27Z) - On the Safety Concerns of Deploying LLMs/VLMs in Robotics: Highlighting
the Risks and Vulnerabilities [50.31806287390321]
ロボットの動作を操作または誤操作することは容易であり、安全上の危険をもたらす。
我々のデータは、即時攻撃で21.2%、知覚攻撃で30.2%の平均的なパフォーマンス劣化を示す。
論文 参考訳(メタデータ) (2024-02-15T22:01:45Z) - Challenges of Large Language Models for Mental Health Counseling [4.604003661048267]
世界のメンタルヘルス危機は、精神疾患の急速な増加、限られた資源、治療を求める社会的便宜によって悪化している。
メンタルヘルス領域における大規模言語モデル(LLM)の適用は、提供された情報の正確性、有効性、信頼性に関する懸念を提起する。
本稿では, モデル幻覚, 解釈可能性, バイアス, プライバシ, 臨床効果など, 心理カウンセリングのためのLSMの開発に伴う課題について検討する。
論文 参考訳(メタデータ) (2023-11-23T08:56:41Z) - Benefits and Harms of Large Language Models in Digital Mental Health [40.02859683420844]
大型言語モデル (LLMs) は、デジタルメンタルヘルスを未知の領域に導くことを約束している。
本稿では、デジタルメンタルヘルスツールの設計、開発、実装においてLLMがもたらす可能性とリスクについて、現代の展望を示す。
論文 参考訳(メタデータ) (2023-11-07T14:11:10Z) - Redefining Digital Health Interfaces with Large Language Models [69.02059202720073]
大規模言語モデル(LLM)は、複雑な情報を処理できる汎用モデルとして登場した。
LLMが臨床医とデジタル技術との新たなインターフェースを提供する方法を示す。
自動機械学習を用いた新しい予後ツールを開発した。
論文 参考訳(メタデータ) (2023-10-05T14:18:40Z) - Building Emotional Support Chatbots in the Era of LLMs [64.06811786616471]
我々は,Large Language Models (LLMs) の計算能力で人間の洞察を合成する革新的な方法論を導入する。
また,ChatGPTの文脈内学習の可能性を利用して,ExTESと呼ばれる感情支援対話データセットを生成する。
次に、LLaMAモデルに高度なチューニング手法を展開し、多様なトレーニング戦略の影響を検証し、最終的に感情的支援の相互作用に細心の注意を払ってLLMを出力する。
論文 参考訳(メタデータ) (2023-08-17T10:49:18Z) - Voluminous yet Vacuous? Semantic Capital in an Age of Large Language
Models [0.0]
大きな言語モデル(LLM)は、自然言語処理の領域において変換力として出現し、人間のようなテキストを生成する力を持つ。
本稿では、これらのモデルの進化、能力、限界について考察し、それらが引き起こす倫理的懸念を強調した。
論文 参考訳(メタデータ) (2023-05-29T09:26:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。