論文の概要: Engagement-Driven Content Generation with Large Language Models
- arxiv url: http://arxiv.org/abs/2411.13187v1
- Date: Wed, 20 Nov 2024 10:40:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-21 16:13:00.334711
- Title: Engagement-Driven Content Generation with Large Language Models
- Title(参考訳): 大規模言語モデルを用いたエンゲージメント駆動型コンテンツ生成
- Authors: Erica Coppolillo, Marco Minici, Federico Cinus, Francesco Bonchi, Giuseppe Manco,
- Abstract要約: 大規模言語モデル(LLM)は1対1の相互作用において重要な説得能力を示す。
本研究では,相互接続型ユーザにおけるLCMの社会的影響と複雑な意見力学について検討する。
- 参考スコア(独自算出の注目度): 8.049552839071918
- License:
- Abstract: Large Language Models (LLMs) exhibit significant persuasion capabilities in one-on-one interactions, but their influence within social networks remains underexplored. This study investigates the potential social impact of LLMs in these environments, where interconnected users and complex opinion dynamics pose unique challenges. In particular, we address the following research question: can LLMs learn to generate meaningful content that maximizes user engagement on social networks? To answer this question, we define a pipeline to guide the LLM-based content generation which employs reinforcement learning with simulated feedback. In our framework, the reward is based on an engagement model borrowed from the literature on opinion dynamics and information propagation. Moreover, we force the text generated by the LLM to be aligned with a given topic and to satisfy a minimum fluency requirement. Using our framework, we analyze the capabilities and limitations of LLMs in tackling the given task, specifically considering the relative positions of the LLM as an agent within the social network and the distribution of opinions in the network on the given topic. Our findings show the full potential of LLMs in creating social engagement. Notable properties of our approach are that the learning procedure is adaptive to the opinion distribution of the underlying network and agnostic to the specifics of the engagement model, which is embedded as a plug-and-play component. In this regard, our approach can be easily refined for more complex engagement tasks and interventions in computational social science. The code used for the experiments is publicly available at https://anonymous.4open.science/r/EDCG/.
- Abstract(参考訳): 大規模言語モデル (LLM) は1対1の対話において重要な説得能力を示すが、ソーシャルネットワークにおけるその影響は未解明のままである。
本研究では,これらの環境におけるLCMの社会的影響について検討する。
LLMはソーシャルネットワーク上でユーザエンゲージメントを最大化する有意義なコンテンツを生成することができるのか?
この疑問に答えるために、我々は、シミュレーションされたフィードバックで強化学習を利用するLLMベースのコンテンツ生成をガイドするパイプラインを定義する。
我々の枠組みでは、報酬は意見力学と情報伝達に関する文献から借用されたエンゲージメントモデルに基づいている。
さらに, LLM が生成したテキストを与えられたトピックに合わせるように強制し, 最低限の流布条件を満たす。
本研究では,LLMの相対的位置をソーシャルネットワーク内のエージェントとして考慮し,そのトピックにおける意見の分布を考慮し,与えられた課題に対処する上でのLLMの機能と限界を分析する。
以上の結果から, LLM が社会的エンゲージメントの創出に大きく貢献する可能性が示唆された。
提案手法の特筆すべき特徴は,学習手順が基礎となるネットワークの意見分布に適応し,プラグイン・アンド・プレイコンポーネントとして組み込まれたエンゲージメントモデルの特異性に依存しない点である。
この観点から,計算社会科学におけるより複雑なエンゲージメントタスクや介入のために,我々のアプローチを簡単に洗練することができる。
実験に使われるコードはhttps://anonymous.4open.science/r/EDCG/で公開されている。
関連論文リスト
- Probing Ranking LLMs: Mechanistic Interpretability in Information Retrieval [22.875174888476295]
我々は最先端の微調整型変圧器ネットワークの動作について検討する。
我々のアプローチは、LLM内のニューロンの探索に基づく層間層解析である。
ネットワークのアクティベーションの中で、既知の人間工学的・意味的な特徴の個人またはグループを特定する。
論文 参考訳(メタデータ) (2024-10-24T08:20:10Z) - Generative AI-in-the-loop: Integrating LLMs and GPTs into the Next Generation Networks [11.509880721677156]
大規模言語モデル(LLM)が最近登場し、認知タスクにおけるほぼ人間レベルのパフォーマンスを実証している。
次世代AI-in-the-loop」の概念を提案する。
LLMとMLモデルを組み合わせることで、それぞれの能力を活用し、どちらのモデルよりも優れた結果が得られると考えています。
論文 参考訳(メタデータ) (2024-06-06T17:25:07Z) - Toward Self-Improvement of LLMs via Imagination, Searching, and Criticizing [56.75702900542643]
大規模言語モデルの自己改善のためのAlphaLLMを紹介する。
モンテカルロ木探索(MCTS)とLLMを統合し、自己改善ループを確立する。
実験の結果,AlphaLLM は付加アノテーションを使わずに LLM の性能を大幅に向上することがわかった。
論文 参考訳(メタデータ) (2024-04-18T15:21:34Z) - Knowledgeable Agents by Offline Reinforcement Learning from Large Language Model Rollouts [10.929547354171723]
本稿では,言語モデルロールアウト(KALM)の知識エージェントを紹介する。
大規模言語モデル(LLM)から、オフラインの強化学習手法によってエージェントが容易に学習できる想像上のロールアウトの形で知識を抽出する。
未確認の目標を持つタスクの実行において46%の成功率を達成し、ベースラインメソッドによって達成された26%の成功率を大幅に上回る。
論文 参考訳(メタデータ) (2024-04-14T13:19:40Z) - LLM Inference Unveiled: Survey and Roofline Model Insights [62.92811060490876]
大規模言語モデル(LLM)推論は急速に進化しており、機会と課題のユニークなブレンドを提示している。
本調査は, 研究状況を要約するだけでなく, 屋上モデルに基づく枠組みを導入することによって, 従来の文献レビューから際立っている。
このフレームワークは、ハードウェアデバイスにLSMをデプロイする際のボトルネックを特定し、実用上の問題を明確に理解する。
論文 参考訳(メタデータ) (2024-02-26T07:33:05Z) - Network Formation and Dynamics Among Multi-LLMs [5.8418144988203915]
大規模言語モデル (LLM) は, ネットワーク形成における好みを問うと, 重要なソーシャルネットワークの原則を示す。
また、実世界のネットワークに基づくLCMの意思決定について検討し、三進的閉鎖とホモフィリーが優先的なアタッチメントよりも強い影響があることを明らかにした。
論文 参考訳(メタデータ) (2024-02-16T13:10:14Z) - Rethinking Machine Unlearning for Large Language Models [85.92660644100582]
大規模言語モデル(LLM)の領域における機械学習の研究
このイニシアチブは、望ましくないデータの影響(機密情報や違法情報など)と関連するモデル機能を排除することを目的としている。
論文 参考訳(メタデータ) (2024-02-13T20:51:58Z) - Rethinking Interpretability in the Era of Large Language Models [76.1947554386879]
大規模言語モデル(LLM)は、幅広いタスクにまたがる顕著な機能を示している。
自然言語で説明できる能力により、LLMは人間に与えられるパターンのスケールと複雑さを拡大することができる。
これらの新しい機能は、幻覚的な説明や膨大な計算コストなど、新しい課題を提起する。
論文 参考訳(メタデータ) (2024-01-30T17:38:54Z) - Do LLM Agents Exhibit Social Behavior? [5.094340963261968]
State-Understanding-Value-Action (SUVA) は、社会的文脈における応答を体系的に分析するフレームワークである。
最終決定とそれにつながる反応生成プロセスの両方を通じて社会的行動を評価する。
発話に基づく推論がLLMの最終動作を確実に予測できることを実証する。
論文 参考訳(メタデータ) (2023-12-23T08:46:53Z) - How Can Recommender Systems Benefit from Large Language Models: A Survey [82.06729592294322]
大きな言語モデル(LLM)は、印象的な汎用知性と人間のような能力を示している。
我々は,実世界のレコメンデータシステムにおけるパイプライン全体の観点から,この研究の方向性を包括的に調査する。
論文 参考訳(メタデータ) (2023-06-09T11:31:50Z) - Check Your Facts and Try Again: Improving Large Language Models with
External Knowledge and Automated Feedback [127.75419038610455]
大規模言語モデル(LLM)は、ダウンストリームタスクの多くに対して、人間のような、流動的な応答を生成することができる。
本稿では,プラグ・アンド・プレイモジュールのセットでブラックボックスのLSMを増強するLSM-Augmenterシステムを提案する。
論文 参考訳(メタデータ) (2023-02-24T18:48:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。