論文の概要: Why Do We Laugh? Annotation and Taxonomy Generation for Laughable Contexts in Spontaneous Text Conversation
- arxiv url: http://arxiv.org/abs/2501.16635v1
- Date: Tue, 28 Jan 2025 02:16:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-29 16:42:56.390393
- Title: Why Do We Laugh? Annotation and Taxonomy Generation for Laughable Contexts in Spontaneous Text Conversation
- Title(参考訳): なぜ笑うのか : 自発的テキスト会話におけるラグ可能な文脈の注釈と分類
- Authors: Koji Inoue, Mikey Elmers, Divesh Lala, Tatsuya Kawahara,
- Abstract要約: 本研究は、笑いやすい文脈の根底にある理由を分類する分類法を開発した。
また、笑いやすい文脈の大多数のラベルを認識することでGPT-4のパフォーマンスを評価し、F1スコアは43.14%に達した。
これらの知見は、よりニュアンスな認識と笑いの生成の基礎を確立することによって、会話型AIの進歩に寄与する。
- 参考スコア(独自算出の注目度): 22.249086790195634
- License:
- Abstract: Laughter serves as a multifaceted communicative signal in human interaction, yet its identification within dialogue presents a significant challenge for conversational AI systems. This study addresses this challenge by annotating laughable contexts in Japanese spontaneous text conversation data and developing a taxonomy to classify the underlying reasons for such contexts. Initially, multiple annotators manually labeled laughable contexts using a binary decision (laughable or non-laughable). Subsequently, an LLM was used to generate explanations for the binary annotations of laughable contexts, which were then categorized into a taxonomy comprising ten categories, including "Empathy and Affinity" and "Humor and Surprise," highlighting the diverse range of laughter-inducing scenarios. The study also evaluated GPT-4's performance in recognizing the majority labels of laughable contexts, achieving an F1 score of 43.14%. These findings contribute to the advancement of conversational AI by establishing a foundation for more nuanced recognition and generation of laughter, ultimately fostering more natural and engaging human-AI interactions.
- Abstract(参考訳): Laughterは人間のインタラクションにおいて多面的なコミュニケーション信号として機能するが、対話内の識別は会話型AIシステムにとって重要な課題である。
本研究は,日本語の自発的テキスト会話データに笑わしい文脈を注釈付けし,その背景となる理由を分類する分類法を開発することで,この問題に対処する。
最初、複数のアノテータはバイナリ決定(ラグ可能か非ラグ可能)を使用して、笑えるコンテキストを手動でラベル付けした。
その後、笑える文脈のバイナリアノテーションの説明を LLM で作成し、「共感と親和性」と「Humor and Surprise」を含む10のカテゴリからなる分類に分類し、笑いを誘うシナリオの多様さを浮き彫りにした。
研究はまた、笑いやすい文脈の大多数のラベルを認識することでGPT-4のパフォーマンスを評価し、F1スコアは43.14%に達した。
これらの発見は、よりニュアンスな認識と笑いの生成の基礎を確立し、最終的にはより自然で魅力的な人間とAIの相互作用を促進することによって、会話型AIの進化に寄与する。
関連論文リスト
- Self-Directed Turing Test for Large Language Models [56.64615470513102]
チューリングテストは、自然言語の会話においてAIが人間のような振る舞いを示すことができるかどうかを調べる。
従来のチューリングテストでは、各参加者が1回に1つのメッセージだけを送信する厳格な対話形式を採用している。
本稿では,バーストダイアログ形式を用いた自己指示チューリングテストを提案する。
論文 参考訳(メタデータ) (2024-08-19T09:57:28Z) - Can LLMs Understand the Implication of Emphasized Sentences in Dialogue? [64.72966061510375]
強調は人間のコミュニケーションにおいて重要な要素であり、対話における純粋テキストを超えて話者の意図と含意を示す。
本稿では,強調の意味を抽出した強調注釈付き対話サンプルを用いたベンチマークであるEmphasized-Talkを紹介する。
オープンソースと商用の両方で様々な大規模言語モデル(LLM)を評価し,その性能を重要視して評価する。
論文 参考訳(メタデータ) (2024-06-16T20:41:44Z) - Reasoning in Conversation: Solving Subjective Tasks through Dialogue
Simulation for Large Language Models [56.93074140619464]
本稿では,対話シミュレーションによる主観的課題の解決に焦点を当てたRiC(Reasoning in Conversation)を提案する。
RiCのモチベーションは、チェーン・オブ・ソート・スタイルの合理性を提供するのではなく、対話をシミュレートすることで有用な文脈情報をマイニングすることである。
GPT-4、ChatGPT、OpenChatなど、APIベースのLLMとオープンソースのLLMの両方を12のタスクで評価する。
論文 参考訳(メタデータ) (2024-02-27T05:37:10Z) - Harmonizing Code-mixed Conversations: Personality-assisted Code-mixed
Response Generation in Dialogues [28.49660948650183]
本稿では,対話から得られた5つの人格特性を教師なしの方法で活用し,応答生成の性能を高めることを目的とした,新しいアプローチを提案する。
これは、識別されたパーソナリティが対話コンテキストにシームレスに統合された場合の応答生成タスクにおけるROUGEとBLUEスコアの上昇に顕著である。
論文 参考訳(メタデータ) (2024-01-18T15:21:16Z) - Decoding Emotional Experiences in Dyadic Conversations of Married
Couples: Leveraging Semantic Similarity through Sentence Embedding [41.94295877935867]
本研究は,10分間の会話と10分間の肯定的な会話を交互に行う50人の夫婦の会話を分析した。
変換器ベースモデルであるGeneral Text Embeddings-Large を用いて各話者からの発話の埋め込みを求める。
その結果、類似度が低いことは、ポジティブな(しかし対立しない)会話においてよりポジティブな感情経験と関連していることが示された。
論文 参考訳(メタデータ) (2023-09-22T06:37:45Z) - DiPlomat: A Dialogue Dataset for Situated Pragmatic Reasoning [89.92601337474954]
プラグマティック推論は、実生活における会話でしばしば起こる暗黙の意味を解読する上で重要な役割を担っている。
そこで我々は,現実的な推論と会話理解の場所に関するマシンの能力のベンチマークを目的とした,新しい挑戦であるDiPlomatを紹介した。
論文 参考訳(メタデータ) (2023-06-15T10:41:23Z) - Natural Language Decompositions of Implicit Content Enable Better Text
Representations [56.85319224208865]
本稿では,暗黙的に伝達されたコンテンツを明示的に考慮したテキスト分析手法を提案する。
我々は大きな言語モデルを用いて、観察されたテキストと推論的に関係する命題の集合を生成する。
本研究は,NLPにおいて,文字のみではなく,観察された言語の背景にある意味をモデル化することが重要であることを示唆する。
論文 参考訳(メタデータ) (2023-05-23T23:45:20Z) - Commonsense Reasoning for Conversational AI: A Survey of the State of
the Art [0.76146285961466]
論文では、関連するトレーニングデータセットをリストアップし、会話型AIにコモンセンスを含めるための主要なアプローチについて説明する。
本稿では,BlenderBot3とLaMDAの2つの最先端オープンダイアログモデルの限られたコモンセンス能力について予備観測を行った。
論文 参考訳(メタデータ) (2023-02-15T19:55:57Z) - PK-ICR: Persona-Knowledge Interactive Context Retrieval for Grounded Dialogue [21.266410719325208]
ペルソナとナレッジ デュアルコンテキスト識別(ペルソナとナレッジ コンテクストの同定)は、与えられた対話において、ペルソナとナレッジを共同で識別するタスクである。
我々は,対話のすべての文脈を同時に活用する新しい接地検索手法を開発した。
論文 参考訳(メタデータ) (2023-02-13T20:27:26Z) - Spoken Style Learning with Multi-modal Hierarchical Context Encoding for
Conversational Text-to-Speech Synthesis [59.27994987902646]
歴史的会話から話し言葉のスタイルを学習する研究は、まだ初期段階にある。
歴史的会話の書き起こしのみが考慮され、歴史的スピーチの話し方を無視している。
マルチモーダル階層型コンテキスト符号化を用いた音声スタイル学習手法を提案する。
論文 参考訳(メタデータ) (2021-06-11T08:33:52Z) - AdCOFE: Advanced Contextual Feature Extraction in Conversations for
emotion classification [0.29360071145551075]
提案したAdCOFE(Advanced Contextual Feature extract)モデルはこれらの問題に対処する。
会話データセットにおける感情認識の実験は、AdCOFEが会話中の感情のキャプチャに有益であることを示しています。
論文 参考訳(メタデータ) (2021-04-09T17:58:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。