論文の概要: Characterizing Similarities and Divergences in Conversational Tones in Humans and LLMs by Sampling with People
- arxiv url: http://arxiv.org/abs/2406.04278v1
- Date: Thu, 6 Jun 2024 17:26:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-07 13:40:27.624104
- Title: Characterizing Similarities and Divergences in Conversational Tones in Humans and LLMs by Sampling with People
- Title(参考訳): 人とのサンプリングによる人間とLLMの会話音の類似点と相違点の識別
- Authors: Dun-Ming Huang, Pol Van Rijn, Ilia Sucholutsky, Raja Marjieh, Nori Jacoby,
- Abstract要約: 本稿では,会話のトーンと文を同時に抽出する反復的手法を提案する。
我々は,人間の会話音とGPT-4の関係を解釈可能な表現するために,我々のアプローチをどのように利用できるかを示す。
- 参考スコア(独自算出の注目度): 20.95122915164433
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conversational tones -- the manners and attitudes in which speakers communicate -- are essential to effective communication. Amidst the increasing popularization of Large Language Models (LLMs) over recent years, it becomes necessary to characterize the divergences in their conversational tones relative to humans. However, existing investigations of conversational modalities rely on pre-existing taxonomies or text corpora, which suffer from experimenter bias and may not be representative of real-world distributions for the studies' psycholinguistic domains. Inspired by methods from cognitive science, we propose an iterative method for simultaneously eliciting conversational tones and sentences, where participants alternate between two tasks: (1) one participant identifies the tone of a given sentence and (2) a different participant generates a sentence based on that tone. We run 100 iterations of this process with human participants and GPT-4, then obtain a dataset of sentences and frequent conversational tones. In an additional experiment, humans and GPT-4 annotated all sentences with all tones. With data from 1,339 human participants, 33,370 human judgments, and 29,900 GPT-4 queries, we show how our approach can be used to create an interpretable geometric representation of relations between conversational tones in humans and GPT-4. This work demonstrates how combining ideas from machine learning and cognitive science can address challenges in human-computer interactions.
- Abstract(参考訳): 会話のトーン - 話者がコミュニケーションを行う方法や態度 - は効果的なコミュニケーションに不可欠である。
近年,Large Language Models (LLMs) の普及が進んでいる中で,人間に対する会話のトーンの相違を特徴付ける必要がある。
しかし、会話のモダリティに関する既存の研究は、実験者のバイアスに悩まされ、研究の精神言語学領域における現実世界の分布を代表していない、既存の分類学やテキストコーパスに依存している。
認知科学の手法に着想を得て,会話のトーンと文を同時に抽出する反復的手法を提案し,(1) 参加者が与えられた文のトーンを識別し,(2) 異なる参加者がそのトーンに基づいて文を生成する。
我々は、このプロセスの100回を人間の参加者とGPT-4で実行し、文のデータセットと頻繁な会話のトーンを得る。
追加の実験では、人間とGPT-4はすべての音調ですべての文に注釈を付けた。
1,339人の被験者,33,370人の人的判断,29,900人のGPT-4クエリから得られたデータを用いて,人間の会話音とGPT-4の関係を解釈可能な幾何学的表現を作成する方法を示す。
この研究は、機械学習と認知科学のアイデアを組み合わせることで、人間とコンピュータのインタラクションにおける課題にどのように対処できるかを実証する。
関連論文リスト
- Multimodal Fusion with LLMs for Engagement Prediction in Natural Conversation [70.52558242336988]
我々は,不関心や混乱の兆候を検出することを目的として,言語的および非言語的手がかりを精査することにより,ダイアディック的相互作用における係り合いを予測することに焦点を当てた。
本研究では,カジュアルなダイアディック会話に携わる34人の参加者を対象に,各会話の最後に自己報告されたエンゲージメント評価を行うデータセットを収集する。
大規模言語モデル(LLMs)を用いた新たな融合戦略を導入し,複数行動モダリティをマルチモーダル・トランスクリプトに統合する。
論文 参考訳(メタデータ) (2024-09-13T18:28:12Z) - Self-Directed Turing Test for Large Language Models [56.64615470513102]
チューリングテストは、自然言語の会話においてAIが人間のような振る舞いを示すことができるかどうかを調べる。
従来のチューリングテストでは、各参加者が1回に1つのメッセージだけを送信する厳格な対話形式を採用している。
本稿では,バーストダイアログ形式を用いた自己指示チューリングテストを提案する。
論文 参考訳(メタデータ) (2024-08-19T09:57:28Z) - Learning to Communicate Functional States with Nonverbal Expressions for Improved Human-Robot Collaboration [3.5408317027307055]
協調ロボットは、スムーズな対話を可能にするために、内部状態を人間に効果的に伝える必要がある。
雑音の多い人間のフィードバックに基づく強化学習アルゴリズムを提案し, 正確に解釈された非言語音声表現を生成する。
論文 参考訳(メタデータ) (2024-04-30T04:18:21Z) - Multi-dimensional Evaluation of Empathetic Dialog Responses [4.580983642743026]
話者の視点から表現された意図と聴取者の視点から認識された共感の両方を測定するための多次元共感評価フレームワークを提案する。
両次元が相互接続されているのに対して,共感は対話満足度と高い相関関係にあることがわかった。
論文 参考訳(メタデータ) (2024-02-18T00:32:33Z) - A Linguistic Comparison between Human and ChatGPT-Generated Conversations [9.022590646680095]
この研究は、ChatGPTが生成した会話と人間の会話を比較して、言語問合せと単語数分析を取り入れている。
結果は,人間の対話における多様性と信頼度は高いが,ChatGPTは社会的プロセス,分析的スタイル,認知,注意的焦点,ポジティブな感情的トーンといったカテゴリーに優れていた。
論文 参考訳(メタデータ) (2024-01-29T21:43:27Z) - Interactive Conversational Head Generation [68.76774230274076]
対面会話における1つのインターロケータの振る舞いを合成するための新しい対話ヘッド生成ベンチマークを提案する。
長時間・複数回会話に参加可能なインターロカクタを自動的に合成する機能は不可欠であり、様々なアプリケーションにメリットを提供する。
論文 参考訳(メタデータ) (2023-07-05T08:06:26Z) - PLACES: Prompting Language Models for Social Conversation Synthesis [103.94325597273316]
我々は、プロンプトを用いてソーシャルな会話データセットを合成するために、専門家による会話の小さなセットをコンテキスト内例として使用します。
人工会話の徹底的な評価を,人間による会話と比較して行った。
論文 参考訳(メタデータ) (2023-02-07T05:48:16Z) - deep learning of segment-level feature representation for speech emotion
recognition in conversations [9.432208348863336]
そこで本稿では,意図的文脈依存と話者感応的相互作用をキャプチャする対話型音声感情認識手法を提案する。
まず、事前訓練されたVGGishモデルを用いて、個々の発話におけるセグメントベース音声表現を抽出する。
第2に、注意的双方向リカレントユニット(GRU)は、文脈に敏感な情報をモデル化し、話者内および話者間依存関係を共同で探索する。
論文 参考訳(メタデータ) (2023-02-05T16:15:46Z) - Model-based analysis of brain activity reveals the hierarchy of language
in 305 subjects [82.81964713263483]
言語の神経基盤を分解する一般的なアプローチは、個人間で異なる刺激に対する脳の反応を関連付けている。
そこで本研究では,自然刺激に曝露された被験者に対して,モデルに基づくアプローチが等価な結果が得られることを示す。
論文 参考訳(メタデータ) (2021-10-12T15:30:21Z) - You Impress Me: Dialogue Generation via Mutual Persona Perception [62.89449096369027]
認知科学の研究は、理解が高品質なチャット会話に不可欠なシグナルであることを示唆している。
そこで我々は,P2 Botを提案する。このP2 Botは,理解を明示的にモデル化することを目的とした送信機受信者ベースのフレームワークである。
論文 参考訳(メタデータ) (2020-04-11T12:51:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。