論文の概要: Talking to oneself in CMC: a study of self replies in Wikipedia talk pages
- arxiv url: http://arxiv.org/abs/2411.19007v1
- Date: Thu, 28 Nov 2024 09:14:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-02 15:20:55.088033
- Title: Talking to oneself in CMC: a study of self replies in Wikipedia talk pages
- Title(参考訳): CMCで自分に話しかける:Wikipediaのトークページにおける自己回答の研究
- Authors: Ludovic Tanguy, Céline Poudat, Lydia-Mai Ho-Dac,
- Abstract要約: 本研究では,ウィキペディアのトークページにおける自己応答の質的分析を提案する。
ディスカッションの最初の2つのメッセージは、同じユーザによって書かれています。
この特定のパターンは、2つのメッセージ以上のスレッドの10%以上で発生します。
- 参考スコア(独自算出の注目度): 0.60789352976007
- License:
- Abstract: This study proposes a qualitative analysis of self replies in Wikipedia talk pages, more precisely when the first two messages of a discussion are written by the same user. This specific pattern occurs in more than 10% of threads with two messages or more and can be explained by a number of reasons. After a first examination of the lexical specificities of second messages, we propose a seven categories typology and use it to annotate two reference samples (English and French) of 100 threads each. Finally, we analyse and compare the performance of human annotators (who reach a reasonable global efficiency) and instruction-tuned LLMs (which encounter important difficulties with several categories).
- Abstract(参考訳): 本研究は、ウィキペディアのトークページにおいて、議論の最初の2つのメッセージが同一ユーザによって書かれたときの自己応答の質的分析を提案する。
この特定のパターンは、2つ以上のメッセージを持つスレッドの10%以上で発生し、多くの理由によって説明できる。
第2のメッセージの語彙的特異性の最初の検証の後,7つのカテゴリのタイプポロジーを提案し,それぞれ100スレッドの2つの参照サンプル(英語とフランス語)に注釈をつける。
最後に、人間のアノテータ(合理的なグローバル効率に達する)と命令調整型LLM(いくつかのカテゴリーで重要な困難に直面している)の性能を分析し、比較する。
関連論文リスト
- Message du troisi{è}me type : irruption d'un tiers dans un dialogue en ligne [0.60789352976007]
本研究は,世界的観点から,ウィキペディアのトークページに焦点を当てている。
ウィキペディアのすべてのトークページをフランス語で構成したコーパスを用いて、2人以上の参加者との議論がどのように展開されるかを検討する。
論文 参考訳(メタデータ) (2024-06-28T08:20:32Z) - LLMs Assist NLP Researchers: Critique Paper (Meta-)Reviewing [106.45895712717612]
大規模言語モデル(LLM)は、様々な生成タスクにおいて顕著な汎用性を示している。
本研究は,NLP研究者を支援するLLMの話題に焦点を当てる。
私たちの知る限りでは、このような包括的な分析を提供するのはこれが初めてです。
論文 参考訳(メタデータ) (2024-06-24T01:30:22Z) - On The Truthfulness of 'Surprisingly Likely' Responses of Large Language Models [5.252280724532548]
多くの場合、大きな言語モデルの驚くほどのレスポンスは、標準ベースラインよりも正確であることを示す。
例えば、TruthfulQAで最大24ポイントの総合的な改善を観察する。
また、驚くほどの確率が低いか、より正確でない場合を含む、さらなる分析結果も提供します。
論文 参考訳(メタデータ) (2023-11-13T19:21:25Z) - Can Large Language Models Explain Themselves? A Study of LLM-Generated
Self-Explanations [14.685170467182369]
ChatGPTのような大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクにおいて優れた性能を示している。
これらのモデルは、人間の会話に"ヘルプフル"な応答を生成するように調整されているため、応答とともに説明を生成できる。
論文 参考訳(メタデータ) (2023-10-17T12:34:32Z) - Uncovering the Potential of ChatGPT for Discourse Analysis in Dialogue:
An Empirical Study [51.079100495163736]
本稿では、トピックセグメンテーションと談話解析という2つの談話分析タスクにおけるChatGPTの性能を体系的に検証する。
ChatGPTは、一般的なドメイン間会話においてトピック構造を特定する能力を示すが、特定のドメイン間会話ではかなり困難である。
我々のより深い調査は、ChatGPTは人間のアノテーションよりも合理的なトピック構造を提供するが、階層的なレトリック構造を線形に解析することしかできないことを示唆している。
論文 参考訳(メタデータ) (2023-05-15T07:14:41Z) - Twitter Topic Classification [15.306383757213956]
我々は、ツイートトピック分類に基づく新しいタスクを提案し、関連する2つのデータセットをリリースする。
ソーシャルメディアで最も重要な議論点をカバーする幅広いトピックについて、トレーニングとテストデータを提供しています。
タスク上で,現在の汎用言語モデルとドメイン固有言語モデルの定量的評価と分析を行う。
論文 参考訳(メタデータ) (2022-09-20T16:13:52Z) - Author Clustering and Topic Estimation for Short Texts [69.54017251622211]
同じ文書中の単語間の強い依存をモデル化することにより、遅延ディリクレ割当を拡張できる新しいモデルを提案する。
同時にユーザをクラスタ化し、ホック後のクラスタ推定の必要性を排除しています。
我々の手法は、短文で生じる問題に対する従来のアプローチよりも、-または----------- で機能する。
論文 参考訳(メタデータ) (2021-06-15T20:55:55Z) - Unsupervised Summarization for Chat Logs with Topic-Oriented Ranking and
Context-Aware Auto-Encoders [59.038157066874255]
本稿では,手動ラベル付きデータを用いずにチャット要約を行うrankaeという新しいフレームワークを提案する。
RankAEは、中心性と多様性に応じてトピックの発話を同時に選択するトピック指向のランキング戦略で構成されています。
消音自動エンコーダは、選択された発話に基づいて簡潔でコンテキスト情報に基づいた要約を生成するように設計されています。
論文 参考訳(メタデータ) (2020-12-14T07:31:17Z) - Weakly-Supervised Aspect-Based Sentiment Analysis via Joint
Aspect-Sentiment Topic Embedding [71.2260967797055]
アスペクトベース感情分析のための弱教師付きアプローチを提案する。
We learn sentiment, aspects> joint topic embeddeds in the word embedding space。
次に、ニューラルネットワークを用いて単語レベルの識別情報を一般化する。
論文 参考訳(メタデータ) (2020-10-13T21:33:24Z) - Multi-View Sequence-to-Sequence Models with Conversational Structure for
Abstractive Dialogue Summarization [72.54873655114844]
テキスト要約は、NLPにおいて最も困難で興味深い問題の1つである。
本研究では、まず、異なる視点から構造化されていない日々のチャットの会話構造を抽出し、会話を表現するマルチビューシーケンス・ツー・シーケンスモデルを提案する。
大規模対話要約コーパスの実験により,本手法は,自動評価と人的判断の両面から,従来の最先端モデルよりも有意に優れた性能を示した。
論文 参考訳(メタデータ) (2020-10-04T20:12:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。