論文の概要: Large Language Models for Social Networks: Applications, Challenges, and
Solutions
- arxiv url: http://arxiv.org/abs/2401.02575v1
- Date: Thu, 4 Jan 2024 23:37:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-08 16:17:23.877429
- Title: Large Language Models for Social Networks: Applications, Challenges, and
Solutions
- Title(参考訳): ソーシャルネットワークのための大規模言語モデル:アプリケーション、課題、ソリューション
- Authors: Jingying Zeng, Richard Huang, Waleed Malik, Langxuan Yin, Bojan Babic,
Danny Shacham, Xiao Yan, Jaewon Yang, Qi He
- Abstract要約: 大規模言語モデル(LLM)は、人々がコンテンツを作成し、探索し、関与する方法を変えています。
オンラインソーシャルネットワークにおけるLLMアプリケーションの開発方法について検討する。
- 参考スコア(独自算出の注目度): 6.6473450630285225
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) are transforming the way people generate,
explore, and engage with content. We study how we can develop LLM applications
for online social networks. Despite LLMs' successes in other domains, it is
challenging to develop LLM-based products for social networks for numerous
reasons, and it has been relatively under-reported in the research community.
We categorize LLM applications for social networks into three categories. First
is knowledge tasks where users want to find new knowledge and information, such
as search and question-answering. Second is entertainment tasks where users
want to consume interesting content, such as getting entertaining notification
content. Third is foundational tasks that need to be done to moderate and
operate the social networks, such as content annotation and LLM monitoring. For
each task, we share the challenges we found, solutions we developed, and
lessons we learned. To the best of our knowledge, this is the first
comprehensive paper about developing LLM applications for social networks.
- Abstract(参考訳): 大規模言語モデル(llm)は、コンテンツの生成、探索、エンゲージの方法を変えつつある。
オンラインソーシャルネットワークにおけるLLMアプリケーションの開発方法について検討する。
LLMが他の領域で成功しているにもかかわらず、様々な理由からLLMベースの製品を開発することは困難であり、研究コミュニティではあまり報告されていない。
ソーシャルネットワーク用LCMアプリケーションを3つのカテゴリに分類する。
まず、ユーザーが検索や質問応答といった新しい知識や情報を見つけようとする知識タスクです。
第二に、ユーザーが興味深いコンテンツを消費したいというエンターテイメントのタスクだ。
第3の課題は、コンテンツアノテーションやLLM監視など、ソーシャルネットワークを適度に運用するための基本的なタスクである。
各タスクについて、見つけた課題、開発したソリューション、学んだ教訓を共有します。
私たちの知る限りでは、これはソーシャルネットワーク向けのllmアプリケーション開発に関する最初の包括的な論文です。
関連論文リスト
- MIKO: Multimodal Intention Knowledge Distillation from Large Language
Models for Social-Media Commonsense Discovery [45.379493929947046]
MIKOは、ユーザ意図を明らかにするために、LLM(Large Language Model)とMLLM(Multimodal Large Language Model)を協調的に利用するフレームワークである。
公開されているソーシャルメディアデータセットにMIKOを適用し,137,287の投稿に根ざした1,372Kの意図を特徴とする意図的知識ベースを構築した。
論文 参考訳(メタデータ) (2024-02-28T08:57:42Z) - Small Models, Big Insights: Leveraging Slim Proxy Models To Decide When
and What to Retrieve for LLMs [64.0049955128318]
本稿では,スリムプロキシモデルを用いた大規模言語モデル (LLM) における知識不足を検知する新しい協調手法であるSlimPLMを提案する。
パラメータがはるかに少ないプロキシモデルを採用し、回答を回答としています。
ヒューリスティックな回答は、LLM内の既知の未知の知識と同様に、ユーザの質問に答えるために必要な知識を予測するのに使用される。
論文 参考訳(メタデータ) (2024-02-19T11:11:08Z) - Network Formation and Dynamics Among Multi-LLMs [6.901329955870466]
大規模言語モデル (LLM) は, ネットワーク形成における好みを問うと, 重要なソーシャルネットワークの原則を示す。
また、実世界のネットワークに基づくLCMの意思決定について検討し、三進的閉鎖とホモフィリーが優先的なアタッチメントよりも強い影響があることを明らかにした。
論文 参考訳(メタデータ) (2024-02-16T13:10:14Z) - LLM-Based Agent Society Investigation: Collaboration and Confrontation
in Avalon Gameplay [57.202649879872624]
Avalonのゲームプレイにシームレスに適応する新しいフレームワークを提案する。
提案するフレームワークの中核は,エージェント間の効率的な通信と対話を可能にするマルチエージェントシステムである。
本研究は,適応的かつインテリジェントなエージェントを生成する上で,我々のフレームワークの有効性を示すものである。
論文 参考訳(メタデータ) (2023-10-23T14:35:26Z) - Knowledge Solver: Teaching LLMs to Search for Domain Knowledge from
Knowledge Graphs [19.0797968186656]
大規模言語モデル(LLM)は汎用的であり、その創発的能力と一般化性のために異なるタスクを解くことができる。
以前の研究では、グラフニューラルネットワーク(GNN)のような追加モジュールは、外部の知識ベースから取得した知識に基づいて訓練されている。
論文 参考訳(メタデータ) (2023-09-06T15:55:01Z) - How Can Recommender Systems Benefit from Large Language Models: A Survey [83.90471827695625]
大きな言語モデル(LLM)は、印象的な汎用知性と人間のような能力を示している。
我々は,実世界のレコメンデータシステムにおけるパイプライン全体の観点から,この研究の方向性を包括的に調査する。
論文 参考訳(メタデータ) (2023-06-09T11:31:50Z) - Search-in-the-Chain: Interactively Enhancing Large Language Models with
Search for Knowledge-intensive Tasks [121.74957524305283]
本稿では、情報検索(IR)とLarge Language Model(LLM)のインタラクションのための、textbfSearch-in-the-Chain(SearChain)という新しいフレームワークを提案する。
実験の結果、SearChainは複雑な知識集約タスクにおける最先端のベースラインを上回っていることがわかった。
論文 参考訳(メタデータ) (2023-04-28T10:15:25Z) - Can Large Language Models Transform Computational Social Science? [79.62471267510963]
大規模言語モデル(LLM)は、(トレーニングデータなしで)ゼロショットで多くの言語処理タスクを実行することができる
この研究は、計算社会科学ツールとしてLLMを使用するためのロードマップを提供する。
論文 参考訳(メタデータ) (2023-04-12T17:33:28Z) - Check Your Facts and Try Again: Improving Large Language Models with
External Knowledge and Automated Feedback [127.75419038610455]
大規模言語モデル(LLM)は、ダウンストリームタスクの多くに対して、人間のような、流動的な応答を生成することができる。
本稿では,プラグ・アンド・プレイモジュールのセットでブラックボックスのLSMを増強するLSM-Augmenterシステムを提案する。
論文 参考訳(メタデータ) (2023-02-24T18:48:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。