論文の概要: A Turing Test: Are AI Chatbots Behaviorally Similar to Humans?
- arxiv url: http://arxiv.org/abs/2312.00798v2
- Date: Mon, 1 Jan 2024 18:43:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-03 00:46:02.996775
- Title: A Turing Test: Are AI Chatbots Behaviorally Similar to Humans?
- Title(参考訳): チューリングテスト:AIチャットボットは人間に似ているか?
- Authors: Qiaozhu Mei, Yutong Xie, Walter Yuan, Matthew O. Jackson
- Abstract要約: ChatGPT-4は、ランダムなヒトの被験者と統計的に区別できない個性特性を示す。
彼らの行動は平均的行動と人的行動とは区別されることが多い。
私たちは、彼らが自分の平均とパートナーの支払いを最大化しているかのように振る舞うと見積もっています。
- 参考スコア(独自算出の注目度): 19.50537882161282
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We administer a Turing Test to AI Chatbots. We examine how Chatbots behave in
a suite of classic behavioral games that are designed to elicit characteristics
such as trust, fairness, risk-aversion, cooperation, \textit{etc.}, as well as
how they respond to a traditional Big-5 psychological survey that measures
personality traits. ChatGPT-4 exhibits behavioral and personality traits that
are statistically indistinguishable from a random human from tens of thousands
of human subjects from more than 50 countries. Chatbots also modify their
behavior based on previous experience and contexts ``as if'' they were learning
from the interactions, and change their behavior in response to different
framings of the same strategic situation. Their behaviors are often distinct
from average and modal human behaviors, in which case they tend to behave on
the more altruistic and cooperative end of the distribution. We estimate that
they act as if they are maximizing an average of their own and partner's
payoffs.
- Abstract(参考訳): aiチャットボットにチューリングテストを実行します。
チャットボットは,信頼,公平性,リスク回避,協力,<textit{etc>>といった特性を引き出すように設計された,一連の古典的な行動ゲームの中でどのように振る舞うかを検討する。
また、人格特性を測定する従来のBig-5の心理学的調査にも反応する。
chatgpt-4は50か国以上から数万人の被験者からランダムな人間と統計的に区別できない行動と性格特性を示す。
チャットボットはまた、以前の経験に基づいて行動を変更し、そのやりとりから学習していたコンテキストを‘as if’と表現し、同じ戦略的状況の異なるフレーミングに対応して行動を変える。
彼らの行動は、平均的な人間の行動と、より利他的かつ協調的な分布の端で行動する傾向にある。
私たちは、彼らが自分の平均とパートナーの支払いを最大化しているかのように振る舞うと見積もっています。
関連論文リスト
- The Illusion of Empathy: How AI Chatbots Shape Conversation Perception [10.061399479158903]
GPTベースのチャットボットは、人間の会話相手よりも共感的でないと認識された。
GPT-4oアノテーションからの共感評価はユーザの評価と一致し、低い共感の知覚を補強する。
人間と人間の会話を訓練した共感モデルでは共感言語に有意な差は認められなかった。
論文 参考訳(メタデータ) (2024-11-19T21:47:08Z) - Self-Directed Turing Test for Large Language Models [56.64615470513102]
チューリングテストは、自然言語の会話においてAIが人間のような振る舞いを示すことができるかどうかを調べる。
従来のチューリングテストでは、各参加者が1回に1つのメッセージだけを送信する厳格な対話形式を採用している。
本稿では,バーストダイアログ形式を用いた自己指示チューリングテストを提案する。
論文 参考訳(メタデータ) (2024-08-19T09:57:28Z) - Conversational AI Powered by Large Language Models Amplifies False Memories in Witness Interviews [23.443181324643017]
本研究では,AIが人間の虚偽記憶に与える影響について検討する。
犯罪目撃者のインタビューをシミュレートし、人間とAIのインタラクションにおける示唆的質問を通じて、偽の記憶誘導を探索する。
論文 参考訳(メタデータ) (2024-08-08T04:55:03Z) - Towards Understanding Sycophancy in Language Models [49.99654432561934]
人間のフィードバックを利用した微調整を施したモデルにおける梅毒の有病率について検討した。
5つの最先端のAIアシスタントが、4つの異なる自由形式のテキスト生成タスクで常に梅毒を発現していることを示す。
以上の結果から、サイコファンシーは最先端のAIアシスタントの一般的な行動である可能性が示唆された。
論文 参考訳(メタデータ) (2023-10-20T14:46:48Z) - SACSoN: Scalable Autonomous Control for Social Navigation [62.59274275261392]
我々は、社会的に邪魔にならないナビゲーションのための政策の訓練方法を開発した。
この反事実的摂動を最小化することにより、共有空間における人間の自然な振る舞いを変えない方法でロボットに行動を促すことができる。
屋内移動ロボットが人間の傍観者と対話する大規模なデータセットを収集する。
論文 参考訳(メタデータ) (2023-06-02T19:07:52Z) - Human or Not? A Gamified Approach to the Turing Test [11.454575816255039]
チューリングテストに触発されたオンラインゲーム「Human or Not?
このゲームは1ヶ月で150万人以上のユーザーがプレイした。
全体として、ゲームの68%でパートナーの正体を正確に推測した。
ユーザーがAIボットに直面したゲームのサブセットでは、ユーザーは正しい推測率を60%も下げていた。
論文 参考訳(メタデータ) (2023-05-31T16:32:22Z) - Towards Healthy AI: Large Language Models Need Therapists Too [41.86344997530743]
私たちはHealthy AIを安全で信頼性があり倫理的であると定義しています。
本稿では,これらの有害行動の修正に心理療法を用いるセーフガードGPTフレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-02T00:39:12Z) - EmpBot: A T5-based Empathetic Chatbot focusing on Sentiments [75.11753644302385]
共感的会話エージェントは、議論されていることを理解しているだけでなく、会話相手の暗黙の感情も認識すべきである。
変圧器事前学習言語モデル(T5)に基づく手法を提案する。
本研究では,自動計測と人的評価の両方を用いて,情緒的ダイアログデータセットを用いたモデルの評価を行った。
論文 参考訳(メタデータ) (2021-10-30T19:04:48Z) - CheerBots: Chatbots toward Empathy and Emotionusing Reinforcement
Learning [60.348822346249854]
本研究では,複数の共感型チャットボットがユーザの暗黙の感情を理解し,複数の対話のターンに対して共感的に応答する枠組みを提案する。
チャットボットをCheerBotsと呼びます。CheerBotsは検索ベースまたは生成ベースで、深い強化学習によって微調整されます。
共感的態度で反応するため,CheerBotsの学習支援としてシミュレーションエージェントである概念人間モデルを開発し,今後のユーザの感情状態の変化を考慮し,共感を喚起する。
論文 参考訳(メタデータ) (2021-10-08T07:44:47Z) - Put Chatbot into Its Interlocutor's Shoes: New Framework to Learn
Chatbot Responding with Intention [55.77218465471519]
本稿では,チャットボットに人間のような意図を持つための革新的なフレームワークを提案する。
我々のフレームワークには、ガイドロボットと人間の役割を担うインターロケータモデルが含まれていた。
本フレームワークを3つの実験的なセットアップを用いて検討し,4つの異なる指標を用いた誘導ロボットの評価を行い,柔軟性と性能の利点を実証した。
論文 参考訳(メタデータ) (2021-03-30T15:24:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。