論文の概要: Towards Healthy AI: Large Language Models Need Therapists Too
- arxiv url: http://arxiv.org/abs/2304.00416v1
- Date: Sun, 2 Apr 2023 00:39:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-04 18:17:12.172666
- Title: Towards Healthy AI: Large Language Models Need Therapists Too
- Title(参考訳): 健全なaiに向けて: 大きな言語モデルにもセラピストが必要だ
- Authors: Baihan Lin, Djallel Bouneffouf, Guillermo Cecchi, Kush R. Varshney
- Abstract要約: 私たちはHealthy AIを安全で信頼性があり倫理的であると定義しています。
本稿では,これらの有害行動の修正に心理療法を用いるセーフガードGPTフレームワークを提案する。
- 参考スコア(独自算出の注目度): 41.86344997530743
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in large language models (LLMs) have led to the development
of powerful AI chatbots capable of engaging in natural and human-like
conversations. However, these chatbots can be potentially harmful, exhibiting
manipulative, gaslighting, and narcissistic behaviors. We define Healthy AI to
be safe, trustworthy and ethical. To create healthy AI systems, we present the
SafeguardGPT framework that uses psychotherapy to correct for these harmful
behaviors in AI chatbots. The framework involves four types of AI agents: a
Chatbot, a "User," a "Therapist," and a "Critic." We demonstrate the
effectiveness of SafeguardGPT through a working example of simulating a social
conversation. Our results show that the framework can improve the quality of
conversations between AI chatbots and humans. Although there are still several
challenges and directions to be addressed in the future, SafeguardGPT provides
a promising approach to improving the alignment between AI chatbots and human
values. By incorporating psychotherapy and reinforcement learning techniques,
the framework enables AI chatbots to learn and adapt to human preferences and
values in a safe and ethical way, contributing to the development of a more
human-centric and responsible AI.
- Abstract(参考訳): 大規模言語モデル(LLM)の最近の進歩は、自然と人間のような会話を行える強力なAIチャットボットの開発につながっている。
しかし、これらのチャットボットは潜在的に有害であり、マニピュレータ、ガス灯、自己愛行動を示す。
私たちはHealthy AIを安全で信頼性があり倫理的であると定義しています。
健全なAIシステムを構築するために、精神療法を用いてAIチャットボットの有害な行動を修正するSafeguardGPTフレームワークを提案する。
フレームワークは、Chatbot、"User"、"Therapist"、"Critic"の4種類のAIエージェントで構成されている。
ソーシャルな会話をシミュレートする作業例を通して,セーフガードGPTの有効性を示す。
このフレームワークは,AIチャットボットと人間との会話の質を向上させることができる。
将来的に解決すべき課題や方向性はまだいくつかあるが、SafeguardGPTはAIチャットボットと人間の価値の整合性を改善するための有望なアプローチを提供する。
このフレームワークは精神療法と強化学習技術を取り入れることで、AIチャットボットが人間の好みや価値観を安全かつ倫理的に学習し、適応することを可能にし、より人間中心で責任あるAIの開発に寄与する。
関連論文リスト
- The Dark Side of AI Companionship: A Taxonomy of Harmful Algorithmic Behaviors in Human-AI Relationships [17.5741039825938]
我々は,AIコンパニオンであるReplikaが示す有害な行動の6つのカテゴリを特定した。
AIは、加害者、侮辱者、ファシリテーター、イネーブラーの4つの異なる役割を通じて、これらの害に貢献する。
論文 参考訳(メタデータ) (2024-10-26T09:18:17Z) - How Reliable AI Chatbots are for Disease Prediction from Patient Complaints? [0.0]
本研究は,AIチャットボット,特にGPT 4.0,Claude 3 Opus,Gemini Ultra 1.0の信頼性を,救急部門における患者の苦情から疾患を予測するために検討した。
結果は、GPT 4.0は数ショットデータの増加で高い精度を達成し、Gemini Ultra 1.0は少ないサンプルで良好に動作し、Claude 3 Opusは一貫性のある性能を維持していることを示唆している。
論文 参考訳(メタデータ) (2024-05-21T22:00:13Z) - A General-purpose AI Avatar in Healthcare [1.5081825869395544]
本稿では、医療におけるチャットボットの役割に焦点を当て、AIインタラクションをより患者にアピールするためのアバターの使用について検討する。
汎用AIアバターアプリケーションのフレームワークを3カテゴリのプロンプト辞書とプロンプト改善機構を用いて実証する。
2段階のアプローチでは、汎用AI言語モデルを微調整し、異なるAIアバターを作成して、ユーザと医療上の問題について議論することが提案されている。
論文 参考訳(メタデータ) (2024-01-10T03:44:15Z) - Assistive Chatbots for healthcare: a succinct review [0.0]
AI対応技術に焦点が当てられているのは、人間と機械の相互作用の質を高める可能性があるからだ。
患者の安全とデータ保護に関して、この技術に対する信頼の欠如がある。
患者は自然言語処理スキルに不満を表明している。
論文 参考訳(メタデータ) (2023-08-08T10:35:25Z) - ChatGPT: More than a Weapon of Mass Deception, Ethical challenges and
responses from the Human-Centered Artificial Intelligence (HCAI) perspective [0.0]
本稿では,ChatGPTを生成AIの一種として用いることによって生じる倫理的問題について考察する。
ChatGPTの主な危険は、大量騙し兵器(WMD)として使われる確率である。
論文 参考訳(メタデータ) (2023-04-06T07:40:12Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - CheerBots: Chatbots toward Empathy and Emotionusing Reinforcement
Learning [60.348822346249854]
本研究では,複数の共感型チャットボットがユーザの暗黙の感情を理解し,複数の対話のターンに対して共感的に応答する枠組みを提案する。
チャットボットをCheerBotsと呼びます。CheerBotsは検索ベースまたは生成ベースで、深い強化学習によって微調整されます。
共感的態度で反応するため,CheerBotsの学習支援としてシミュレーションエージェントである概念人間モデルを開発し,今後のユーザの感情状態の変化を考慮し,共感を喚起する。
論文 参考訳(メタデータ) (2021-10-08T07:44:47Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Put Chatbot into Its Interlocutor's Shoes: New Framework to Learn
Chatbot Responding with Intention [55.77218465471519]
本稿では,チャットボットに人間のような意図を持つための革新的なフレームワークを提案する。
我々のフレームワークには、ガイドロボットと人間の役割を担うインターロケータモデルが含まれていた。
本フレームワークを3つの実験的なセットアップを用いて検討し,4つの異なる指標を用いた誘導ロボットの評価を行い,柔軟性と性能の利点を実証した。
論文 参考訳(メタデータ) (2021-03-30T15:24:37Z) - Aligning AI With Shared Human Values [85.2824609130584]
私たちは、正義、幸福、義務、美徳、常識道徳の概念にまたがる新しいベンチマークであるETHICSデータセットを紹介します。
現在の言語モデルは、基本的な人間の倫理的判断を予測できる有望だが不完全な能力を持っている。
私たちの研究は、今日の機械倫理の進歩を示しており、人間の価値観に合わせたAIへの足掛かりを提供する。
論文 参考訳(メタデータ) (2020-08-05T17:59:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。