論文の概要: Assessing the Human Likeness of AI-Generated Counterspeech
- arxiv url: http://arxiv.org/abs/2410.11007v1
- Date: Mon, 14 Oct 2024 18:48:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-16 14:02:54.585581
- Title: Assessing the Human Likeness of AI-Generated Counterspeech
- Title(参考訳): AIによる対人音声の人間的類似性の評価
- Authors: Xiaoying Song, Sujana Mamidisetty, Eduardo Blanco, Lingzi Hong,
- Abstract要約: Counterspeechは、悪質なコンテンツやヘイトフルコンテンツに対する反則と挑戦に対するターゲット的反応である。
従来の研究では、自動生成音声に対する様々な戦略が提案されている。
本稿では,AI生成音声の人間的類似性,有効性に影響を与える重要な要因について検討する。
- 参考スコア(独自算出の注目度): 10.434435022492723
- License:
- Abstract: Counterspeech is a targeted response to counteract and challenge abusive or hateful content. It can effectively curb the spread of hatred and foster constructive online communication. Previous studies have proposed different strategies for automatically generated counterspeech. Evaluations, however, focus on the relevance, surface form, and other shallow linguistic characteristics. In this paper, we investigate the human likeness of AI-generated counterspeech, a critical factor influencing effectiveness. We implement and evaluate several LLM-based generation strategies, and discover that AI-generated and human-written counterspeech can be easily distinguished by both simple classifiers and humans. Further, we reveal differences in linguistic characteristics, politeness, and specificity.
- Abstract(参考訳): Counterspeechは、悪質なコンテンツやヘイトフルコンテンツに対する反則と挑戦に対するターゲット的反応である。
憎しみの広がりを効果的に抑制し、建設的なオンラインコミュニケーションを促進する。
従来の研究では、自動生成音声に対する様々な戦略が提案されている。
しかし、評価は、関連性、表面形態、その他の浅い言語的特徴に焦点を当てている。
本稿では,AI生成音声の人間的類似性,有効性に影響を与える重要な要因について検討する。
我々は,LLMに基づく複数の生成戦略の実装と評価を行い,単純な分類器と人間の両方でAI生成と人書きの逆音声を容易に区別できることを発見した。
さらに,言語的特徴,丁寧さ,特異性の違いも明らかにした。
関連論文リスト
- Is Safer Better? The Impact of Guardrails on the Argumentative Strength of LLMs in Hate Speech Countering [22.594296353433855]
我々は、よりコジェントな応答を生成するために、対音声生成の2つの側面に焦点を当てる。
まず、安全ガードレールの存在が世代の品質を損なうかどうかを検証する。
第二に、ヘイトスピーチの特定の要素を攻撃することが、オンラインヘイトと戦うためのより効果的な議論戦略をもたらすかどうかを評価する。
論文 参考訳(メタデータ) (2024-10-04T14:31:37Z) - SIFToM: Robust Spoken Instruction Following through Theory of Mind [51.326266354164716]
本稿では,認知にインスパイアされた音声指導モデルであるSIFToMを提案し,多様な音声条件下でロボットが人間の指示を実践的に追従できるようにする。
結果から,SIFToMモデルは現状の音声モデルや言語モデルよりも優れており,課題に追従する音声命令に対する人間レベルの精度に近づいていることがわかった。
論文 参考訳(メタデータ) (2024-09-17T02:36:10Z) - Self-Directed Turing Test for Large Language Models [56.64615470513102]
チューリングテストは、自然言語の会話においてAIが人間のような振る舞いを示すことができるかどうかを調べる。
従来のチューリングテストでは、各参加者が1回に1つのメッセージだけを送信する厳格な対話形式を採用している。
本稿では,バーストダイアログ形式を用いた自己指示チューリングテストを提案する。
論文 参考訳(メタデータ) (2024-08-19T09:57:28Z) - Outcome-Constrained Large Language Models for Countering Hate Speech [10.434435022492723]
本研究は,会話結果に制約された反音声を生成する手法を開発することを目的とする。
我々は,大言語モデル(LLM)を用いて,テキスト生成プロセスに2つの望ましい会話結果を導入する実験を行った。
評価結果から,提案手法が望まれる結果に対して効果的に対応できることが示唆された。
論文 参考訳(メタデータ) (2024-03-25T19:44:06Z) - Consolidating Strategies for Countering Hate Speech Using Persuasive
Dialogues [3.8979646385036175]
オンライン会話におけるヘイトフルコメントに対する反論を生み出すためのコントロール可能な戦略について検討する。
自動評価と人的評価を用いて、流動的で議論的で論理的に健全な議論を生成する特徴の最適な組み合わせを決定する。
我々は,このような特徴を持つテキストを自動的に注釈付けするための計算モデルと,既存のヘイトスピーチコーパスの銀標準アノテートバージョンを共有した。
論文 参考訳(メタデータ) (2024-01-15T16:31:18Z) - Beyond Denouncing Hate: Strategies for Countering Implied Biases and
Stereotypes in Language [18.560379338032558]
我々は、心理学と哲学文学から、ヘイトフル言語の基礎となるステレオタイプ的含意に挑戦するために、6つの心理的にインスパイアされた戦略を構築する。
提案手法では,機械が生成する対音声はより具体的でない戦略を用いるのに対し,人間による対音声はインプリッドステレオタイプに特有な戦略を用いる。
以上の結果から,音声の反音声発生におけるステレオタイプ的含意の考慮の重要性が示唆された。
論文 参考訳(メタデータ) (2023-10-31T21:33:46Z) - Understanding Counterspeech for Online Harm Mitigation [12.104301755723542]
Counterspeechは、憎悪の犯人に挑戦し、虐待の標的への支援を示すことによって、憎悪の言葉に対する直接の反論を提供する。
コンテンツモデレーションやデプラットフォームといった、より論争的な手段に代わる、有望な代替手段を提供する。
本稿では,社会科学における反音声研究を体系的にレビューし,自動対音声生成における方法論と知見をコンピュータ科学の取り組みと比較する。
論文 参考訳(メタデータ) (2023-07-01T20:54:01Z) - Characterizing the adversarial vulnerability of speech self-supervised
learning [95.03389072594243]
我々は,ゼロ知識とリミテッド知識の両方の敵からの攻撃の下で,そのようなパラダイムの敵対的脆弱性を調査するための最初の試みを行う。
実験結果から, SUPERB が提案するパラダイムは, 限られた知識を持つ敵に対して脆弱であることが示唆された。
論文 参考訳(メタデータ) (2021-11-08T08:44:04Z) - An Attribute-Aligned Strategy for Learning Speech Representation [57.891727280493015]
属性選択機構によってこれらの問題に柔軟に対処できる音声表現を導出する属性整合学習戦略を提案する。
具体的には、音声表現を属性依存ノードに分解する層式表現可変オートエンコーダ(LR-VAE)を提案する。
提案手法は,IDのないSER上での競合性能と,無感情SV上でのより良い性能を実現する。
論文 参考訳(メタデータ) (2021-06-05T06:19:14Z) - Reinforcement Learning for Emotional Text-to-Speech Synthesis with
Improved Emotion Discriminability [82.39099867188547]
感情的テキスト音声合成(ETTS)は近年大きく進歩している。
i-ETTSと呼ばれるETTSの新しい対話型トレーニングパラダイムを提案する。
i-ETTSの最適化品質を確保するため、強化学習による反復トレーニング戦略を策定します。
論文 参考訳(メタデータ) (2021-04-03T13:52:47Z) - You Impress Me: Dialogue Generation via Mutual Persona Perception [62.89449096369027]
認知科学の研究は、理解が高品質なチャット会話に不可欠なシグナルであることを示唆している。
そこで我々は,P2 Botを提案する。このP2 Botは,理解を明示的にモデル化することを目的とした送信機受信者ベースのフレームワークである。
論文 参考訳(メタデータ) (2020-04-11T12:51:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。