論文の概要: Communication is All You Need: Persuasion Dataset Construction via Multi-LLM Communication
- arxiv url: http://arxiv.org/abs/2502.08896v1
- Date: Thu, 13 Feb 2025 02:22:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-14 13:50:31.736346
- Title: Communication is All You Need: Persuasion Dataset Construction via Multi-LLM Communication
- Title(参考訳): コミュニケーションは必要なすべて:マルチLLM通信による説得データセット構築
- Authors: Weicheng Ma, Hefan Zhang, Ivory Yang, Shiyu Ji, Joice Chen, Farnoosh Hashemi, Shubham Mohole, Ethan Gearey, Michael Macy, Saeed Hassanpour, Soroush Vosoughi,
- Abstract要約: 大規模言語モデル (LLMs) は説得力のある対話を生成する能力を示したが、それらの出力の流布や高度化には懸念が持たれている。
本稿では,説得的データの自動生成を支援するためのマルチLLM通信フレームワークを提案する。
- 参考スコア(独自算出の注目度): 21.041517755843977
- License:
- Abstract: Large Language Models (LLMs) have shown proficiency in generating persuasive dialogue, yet concerns about the fluency and sophistication of their outputs persist. This paper presents a multi-LLM communication framework designed to enhance the generation of persuasive data automatically. This framework facilitates the efficient production of high-quality, diverse linguistic content with minimal human oversight. Through extensive evaluations, we demonstrate that the generated data excels in naturalness, linguistic diversity, and the strategic use of persuasion, even in complex scenarios involving social taboos. The framework also proves adept at generalizing across novel contexts. Our results highlight the framework's potential to significantly advance research in both computational and social science domains concerning persuasive communication.
- Abstract(参考訳): 大規模言語モデル (LLMs) は説得力のある対話を生成する能力を示したが、それらの出力の流布や高度化には懸念が持たれている。
本稿では,説得的データの自動生成を支援するためのマルチLLM通信フレームワークを提案する。
この枠組みは、人間の監督を最小限に抑えた高品質で多様な言語コンテンツの効率的な生産を促進する。
本研究では,社会タブーの複雑なシナリオにおいても,自然性,言語多様性,説得の戦略的利用に優れることを示す。
このフレームワークは、新しいコンテキストをまたいだ一般化に長けていることも証明している。
本研究は,社会科学分野と計算分野の両方において,説得的コミュニケーションに関する研究を著しく進めるフレームワークの可能性を明らかにするものである。
関連論文リスト
- Scalable Frame-based Construction of Sociocultural NormBases for Socially-Aware Dialogues [66.69453609603875]
社会文化的規範は、社会的相互作用における個人的行為の指針となる。
大規模言語モデル(LLM)を用いた社会文化的ノルム(SCN)ベース構築のためのスケーラブルなアプローチを提案する。
我々は、包括的で広くアクセス可能な中国社会文化ノルムベースを構築した。
論文 参考訳(メタデータ) (2024-10-04T00:08:46Z) - Improving Large Language Model (LLM) fidelity through context-aware grounding: A systematic approach to reliability and veracity [0.0]
大規模言語モデル(LLM)は、自然言語処理(NLP)アプリケーションにおいて、ますます高度でユビキタスなものになりつつある。
本稿では,テクストモデルにおける文脈的接地のための新しい枠組みについて述べる。
本研究は, 医療, 法制度, 社会サービスなどのセンシティブな分野におけるLCMの展開に重要な意味を持つ。
論文 参考訳(メタデータ) (2024-08-07T18:12:02Z) - Visualizing Dialogues: Enhancing Image Selection through Dialogue Understanding with Large Language Models [25.070424546200293]
本稿では,大規模言語モデル(LLM)の頑健な推論機能を活用して,正確な対話関連視覚記述子を生成する手法を提案する。
ベンチマークデータを用いて行った実験は、簡潔で正確な視覚記述子の導出における提案手法の有効性を検証した。
本研究は,多様な視覚的手がかり,多様なLCM,異なるデータセットにまたがる手法の一般化可能性を示すものである。
論文 参考訳(メタデータ) (2024-07-04T03:50:30Z) - Detection of Machine-Generated Text: Literature Survey [0.0]
本研究の目的は,機械生成テキスト分野における成果と成果をコンパイルし,合成することである。
また、機械が生成するテキストの傾向を概観し、より大きな社会的意味を探求する。
論文 参考訳(メタデータ) (2024-01-02T01:44:15Z) - Exchange-of-Thought: Enhancing Large Language Model Capabilities through
Cross-Model Communication [76.04373033082948]
大規模言語モデル(LLM)は、最近、Chain-of-Thoughtテクニックによる複雑な推論タスクにおいて大きな進歩を遂げました。
本稿では,問題解決時のクロスモデル通信を可能にする新しいフレームワークであるExchange-of-Thought (EoT)を提案する。
論文 参考訳(メタデータ) (2023-12-04T11:53:56Z) - Building Trust in Conversational AI: A Comprehensive Review and Solution
Architecture for Explainable, Privacy-Aware Systems using LLMs and Knowledge
Graph [0.33554367023486936]
我々は150以上の大規模言語モデル(LLM)の詳細なレビューを提供する包括的ツールを紹介する。
本稿では,LLMの言語機能と知識グラフの構造的ダイナミクスをシームレスに統合する機能的アーキテクチャを提案する。
我々のアーキテクチャは言語学の洗練と実情の厳密さを巧みにブレンドし、ロールベースアクセス制御によるデータセキュリティをさらに強化する。
論文 参考訳(メタデータ) (2023-08-13T22:47:51Z) - DiPlomat: A Dialogue Dataset for Situated Pragmatic Reasoning [89.92601337474954]
プラグマティック推論は、実生活における会話でしばしば起こる暗黙の意味を解読する上で重要な役割を担っている。
そこで我々は,現実的な推論と会話理解の場所に関するマシンの能力のベンチマークを目的とした,新しい挑戦であるDiPlomatを紹介した。
論文 参考訳(メタデータ) (2023-06-15T10:41:23Z) - Improving Factuality and Reasoning in Language Models through Multiagent
Debate [95.10641301155232]
複数の言語モデルインスタンスが共通の最終回答に到達するために、複数のラウンドで個別の応答と推論プロセスを提案し、議論する言語応答を改善するための補完的なアプローチを提案する。
以上の結果から,本手法は様々なタスクにおける数学的・戦略的推論を著しく向上させることが示唆された。
我々のアプローチは、既存のブラックボックスモデルに直接適用され、調査するすべてのタスクに対して、同じ手順とプロンプトを使用することができる。
論文 参考訳(メタデータ) (2023-05-23T17:55:11Z) - An Inclusive Notion of Text [69.36678873492373]
テキストの概念の明確さは再現可能で一般化可能なNLPにとって不可欠である,と我々は主張する。
言語的および非言語的要素の2層分類を導入し,NLPモデリングに使用することができる。
論文 参考訳(メタデータ) (2022-11-10T14:26:43Z) - Enhancing Semantic Understanding with Self-supervised Methods for
Abstractive Dialogue Summarization [4.226093500082746]
本稿では,対話要約モデルを訓練するための欠点を補う自己教師型手法を提案する。
我々の原理は,対話文表現の文脈化能力を高めるために,前文対話文を用いて不整合情報の流れを検出することである。
論文 参考訳(メタデータ) (2022-09-01T07:51:46Z) - AugESC: Dialogue Augmentation with Large Language Models for Emotional
Support Conversation [54.29029787836075]
クラウドソースによる対話コーパスは通常、データキュレーションのコストがかかるため、スケールやトピックのカバレッジが制限される。
本研究では,感情支援会話(ESC)における対話強化のための大規模言語モデルを活用する。
クラウドソースされたESConvコーパスのスケールとトピックカバレッジを大きく拡張した,ESCタスク用の拡張データセットであるAugESCを構築した。
論文 参考訳(メタデータ) (2022-02-26T03:17:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。