論文の概要: Large language models can enhance persuasion through linguistic feature
alignment
- arxiv url: http://arxiv.org/abs/2311.16466v2
- Date: Mon, 12 Feb 2024 16:20:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-13 21:31:03.416276
- Title: Large language models can enhance persuasion through linguistic feature
alignment
- Title(参考訳): 大規模言語モデルは言語機能アライメントによる説得力を高める
- Authors: Minkyu Shin and Jin Kim
- Abstract要約: 本研究では,大規模言語モデル(LLM)が,金融業界における消費者の苦情に対するデータを用いた人的コミュニケーションに与える影響について検討する。
ChatGPT のリリース直後に LLM の利用が急増していることが判明した。
計算言語学的分析は、LLMsによる様々な言語的特徴の強化によって、正の相関が説明できることを示唆している。
- 参考スコア(独自算出の注目度): 3.054681017071983
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Although large language models (LLMs) are reshaping various aspects of human
life, our current understanding of their impacts remains somewhat constrained.
Here we investigate the impact of LLMs on human communication, using data on
consumer complaints in the financial industry. By employing an AI detection
tool on more than 820K complaints gathered by the Consumer Financial Protection
Bureau (CFPB), we find a sharp increase in the likely use of LLMs shortly after
the release of ChatGPT. Moreover, the likely LLM usage was positively
correlated with message persuasiveness (i.e., increased likelihood of obtaining
relief from financial firms). Computational linguistic analyses suggest that
the positive correlation may be explained by LLMs' enhancement of various
linguistic features. Based on the results of these observational studies, we
hypothesize that LLM usage may enhance a comprehensive set of linguistic
features, increasing message persuasiveness to receivers with heterogeneous
linguistic preferences (i.e., linguistic feature alignment). We test this
hypothesis in preregistered experiments and find support for it. As an instance
of early empirical demonstrations of LLM usage for enhancing persuasion, our
research highlights the transformative potential of LLMs in human
communication.
- Abstract(参考訳): 大きな言語モデル(LLM)は、人間の生活の様々な側面を再構築していますが、その影響に対する現在の理解は、多少制約があります。
本稿では、LLMが人的コミュニケーションに与える影響を、金融業界における消費者の苦情データを用いて調査する。
消費者金融保護局(CFPB)が収集した820万件以上の苦情に対してAI検出ツールを使用することで、ChatGPTのリリース直後のLSMの使用が大幅に増加することが判明した。
さらに, LLM使用の可能性は, メッセージの説得性(金融機関からの救済の可能性の増加)と肯定的に相関していた。
計算言語学的分析は、LLMの様々な言語的特徴の強化によって正の相関が説明できることを示している。
これらの観察研究の結果から,LLMの使用により言語的特徴の包括的集合が向上し,異種言語的嗜好を持つ受信者(言語的特徴アライメント)に対するメッセージの説得性が増大する可能性が示唆された。
我々は、この仮説を事前登録実験で検証し、それを支持する。
説得力を高めるためのLLMの初期の実証的な使用例として,人間のコミュニケーションにおけるLLMの変容の可能性を強調した。
関連論文リスト
- Preempting Text Sanitization Utility in Resource-Constrained Privacy-Preserving LLM Interactions [4.372695214012181]
本稿では,大規模言語モデルに送信される前に,衛生効果がプロンプトに与える影響を推定するアーキテクチャを提案する。
このアーキテクチャを評価した結果,差分プライバシーに基づくテキストのサニタイズに重大な問題があることが明らかとなった。
論文 参考訳(メタデータ) (2024-11-18T12:31:22Z) - Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - From Yes-Men to Truth-Tellers: Addressing Sycophancy in Large Language Models with Pinpoint Tuning [89.9648814145473]
大規模言語モデル(LLM)は、ユーザプロンプトへの順守を、妥当な応答よりも優先する傾向がある。
近年の研究では、教師付き微調整(SFT)を用いて、梅毒問題を軽減することが提案されている。
そこで本研究では,特定の目的のために関心のあるモジュールを調整した新しいピンポイントチューニング(SPT)を提案する。
論文 参考訳(メタデータ) (2024-09-03T07:01:37Z) - A Reality check of the benefits of LLM in business [1.9181612035055007]
大規模言語モデル(LLM)は、言語理解および生成タスクにおいて顕著なパフォーマンスを達成した。
ビジネスプロセスにおけるLCMの有用性と準備性について概説する。
論文 参考訳(メタデータ) (2024-06-09T02:36:00Z) - CLAMBER: A Benchmark of Identifying and Clarifying Ambiguous Information Needs in Large Language Models [60.59638232596912]
大規模言語モデル(LLM)を評価するベンチマークであるCLAMBERを紹介する。
分類を基盤として12Kの高品質なデータを構築し, 市販のLCMの強度, 弱点, 潜在的なリスクを評価する。
本研究は, あいまいなユーザクエリの特定と明確化において, 現在のLCMの実用性に限界があることを示唆する。
論文 参考訳(メタデータ) (2024-05-20T14:34:01Z) - "I'm Not Sure, But...": Examining the Impact of Large Language Models' Uncertainty Expression on User Reliance and Trust [51.542856739181474]
不確実性の自然言語表現の違いが、参加者の信頼、信頼、全体的なタスクパフォーマンスにどのように影響するかを示す。
その結果, 一人称表情は, 参加者のシステムに対する信頼度を低下させ, 参加者の正確性を高めつつ, システムの回答に同調する傾向にあることがわかった。
以上の結果から,不確実性の自然言語表現の使用は,LLMの過度な依存を軽減するための効果的なアプローチである可能性が示唆された。
論文 参考訳(メタデータ) (2024-05-01T16:43:55Z) - Prevalence and prevention of large language model use in crowd work [11.554258761785512]
大規模言語モデル (LLM) の使用は, 集団作業者の間で広く普及していることを示す。
目標緩和戦略は, LLM の使用量を大幅に削減するが, 排除はしない。
論文 参考訳(メタデータ) (2023-10-24T09:52:09Z) - Survey on Factuality in Large Language Models: Knowledge, Retrieval and
Domain-Specificity [61.54815512469125]
本調査は,大規模言語モデル(LLM)における事実性の重要課題に対処する。
LLMが様々な領域にまたがる応用を見出すにつれ、その出力の信頼性と正確性は重要となる。
論文 参考訳(メタデータ) (2023-10-11T14:18:03Z) - Enhancing Financial Sentiment Analysis via Retrieval Augmented Large
Language Models [11.154814189699735]
大規模な言語モデル (LLM) は様々なNLPタスクにおいて優れた性能を示した。
本稿では,金融感情分析のためのLLMフレームワークを提案する。
提案手法の精度は15%から48%向上し,F1得点を得た。
論文 参考訳(メタデータ) (2023-10-06T05:40:23Z) - On the Risk of Misinformation Pollution with Large Language Models [127.1107824751703]
本稿では,現代大規模言語モデル (LLM) の誤用の可能性について検討する。
本研究は, LLMが効果的な誤情報発生器として機能し, DOQAシステムの性能が著しく低下することを明らかにする。
論文 参考訳(メタデータ) (2023-05-23T04:10:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。