論文の概要: A Cost Analysis of Generative Language Models and Influence Operations
- arxiv url: http://arxiv.org/abs/2308.03740v1
- Date: Mon, 7 Aug 2023 17:38:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 12:34:14.615965
- Title: A Cost Analysis of Generative Language Models and Influence Operations
- Title(参考訳): 生成言語モデルと影響操作のコスト分析
- Authors: Micah Musser
- Abstract要約: 本研究は,大規模コンテンツ生成において,プロパガンダに直面するコストのモデルを構築した。
LLMがプロパガンディストに提供できる潜在的な貯蓄を分析します。
また、APIアクセス可能なLLMに対するモニタリングコントロールの潜在的な抑止効果も分析する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite speculation that recent large language models (LLMs) are likely to be
used maliciously to improve the quality or scale of influence operations,
uncertainty persists regarding the economic value that LLMs offer
propagandists. This research constructs a model of costs facing propagandists
for content generation at scale and analyzes (1) the potential savings that
LLMs could offer propagandists, (2) the potential deterrent effect of
monitoring controls on API-accessible LLMs, and (3) the optimal strategy for
propagandists choosing between multiple private and/or open source LLMs when
conducting influence operations. Primary results suggest that LLMs need only
produce usable outputs with relatively low reliability (roughly 25%) to offer
cost savings to propagandists, that the potential reduction in content
generation costs can be quite high (up to 70% for a highly reliable model), and
that monitoring capabilities have sharply limited cost imposition effects when
alternative open source models are available. In addition, these results
suggest that nation-states -- even those conducting many large-scale influence
operations per year -- are unlikely to benefit economically from training
custom LLMs specifically for use in influence operations.
- Abstract(参考訳): 近年の大規模言語モデル(LLM)は、影響操作の質や規模を改善するために悪質に使用される可能性が高いという憶測にもかかわらず、LLMがプロパガンディストを提供する経済的価値に関する不確実性は持続している。
本研究は, 大規模コンテンツ生成においてプロパガンダが直面するコストのモデルを構築し, 1) LLMがプロパガンダを提供する可能性, (2) API アクセス可能な LLM のモニタリング制御による潜在的抑止効果, 3) 影響操作を行う際に複数のプライベートおよび/またはオープンソース LLM を選択するための最適戦略について分析する。
第一の結果,LSMは比較的信頼性の低い出力(約25%)しか必要とせず,プロパガンダにコスト削減を提供する必要があること,コンテンツ生成コストの削減の可能性(信頼性の高いモデルでは最大70%)が極めて高いこと,また,代替オープンソースモデルが利用可能である場合には,モニタリング機能によるコスト低減効果が著しく制限されること,などが示唆された。
また,これらの結果から,年間に多数の大規模インフルエント運用を行う国であっても,インフルエント運用に特化したカスタムllmの訓練から経済的に利益を得る可能性は低いことが示唆された。
関連論文リスト
- A Little Help Goes a Long Way: Efficient LLM Training by Leveraging Small LMs [74.35290684163718]
大規模言語モデル(LLM)開発における最大の課題は、その面倒な事前トレーニングコストである。
本稿では,小言語モデル(SLM)を活用して,LLMの事前学習効率と品質を改善するための有望なパラダイムについて検討する。
論文 参考訳(メタデータ) (2024-10-24T14:31:52Z) - Large Language Models can be Strong Self-Detoxifiers [82.6594169242814]
SASA(Self-disciplined Autoregressive Smpling)は、大規模言語モデル(LLM)の毒性低減のための軽量制御復号アルゴリズムである。
SASAは、自己回帰サンプリング戦略を調整することにより、電流出力のマージンを追跡し、有害な部分空間から世代を分離する。
Llama-3.1-Instruct (8B), Llama-2 (7B), GPT2-L model with the RealToxicityPrompts, BOLD, and AttaQ benchmarks。
論文 参考訳(メタデータ) (2024-10-04T17:45:15Z) - Efficient Hybrid Inference for LLMs: Reward-Based Token Modelling with Selective Cloud Assistance [0.0]
大規模言語モデル(LLM)は、様々な自然言語処理タスクにおける例外的な性能で知られている。
より小型の言語モデル(SLM)は、より低価格のエッジデバイスにデプロイできるが、より大きなデバイスの性能に匹敵する。
本稿では,両モデルの強みを生かした新しいハイブリッド推論手法を提案する。
論文 参考訳(メタデータ) (2024-09-15T15:12:45Z) - Understanding Privacy Risks of Embeddings Induced by Large Language Models [75.96257812857554]
大きな言語モデルは、人工知能の初期の兆候を示すが、幻覚に苦しむ。
1つの有望な解決策は、外部知識を埋め込みとして保存し、LLMを検索強化世代に支援することである。
近年の研究では、事前学習された言語モデルによるテキスト埋め込みから、元のテキストを部分的に再構築できることが実験的に示されている。
論文 参考訳(メタデータ) (2024-04-25T13:10:48Z) - SMART: Automatically Scaling Down Language Models with Accuracy Guarantees for Reduced Processing Fees [21.801053526411415]
大規模言語モデル(LLM)は自然言語処理(NLP)タスクの性能を大幅に向上させた。
高性能LLMの配備は、主にモデル性能の向上を目的としたパラメータの増大により、かなりのコストがかかる。
SMARTは,NLPタスクの推論コストを最小限に抑えつつ,十分な結果品質を確保するために設計された新しいフレームワークである。
論文 参考訳(メタデータ) (2024-03-11T17:45:47Z) - Purifying Large Language Models by Ensembling a Small Language Model [39.57304668057076]
未処理データによる負の効果からLCMを浄化する簡易かつ容易に実装できる手法を提案する。
良性および小言語モデル(SLM)を用いたLLMのアンサンブルの有効性を実証的に検証した。
論文 参考訳(メタデータ) (2024-02-19T14:00:39Z) - Prevalence and prevention of large language model use in crowd work [11.554258761785512]
大規模言語モデル (LLM) の使用は, 集団作業者の間で広く普及していることを示す。
目標緩和戦略は, LLM の使用量を大幅に削減するが, 排除はしない。
論文 参考訳(メタデータ) (2023-10-24T09:52:09Z) - Harnessing the Power of LLMs: Evaluating Human-AI Text Co-Creation
through the Lens of News Headline Generation [58.31430028519306]
本研究は, LLMを書き込みに最も有効に活用する方法と, これらのモデルとのインタラクションが, 書き込みプロセスにおけるオーナシップや信頼感にどのように影響するかを考察する。
LLMだけで十分なニュースの見出しを生成することができるが、平均すると、望ましくないモデルのアウトプットを修正するには人間による制御が必要である。
論文 参考訳(メタデータ) (2023-10-16T15:11:01Z) - Enhancing Financial Sentiment Analysis via Retrieval Augmented Large
Language Models [11.154814189699735]
大規模な言語モデル (LLM) は様々なNLPタスクにおいて優れた性能を示した。
本稿では,金融感情分析のためのLLMフレームワークを提案する。
提案手法の精度は15%から48%向上し,F1得点を得た。
論文 参考訳(メタデータ) (2023-10-06T05:40:23Z) - On the Risk of Misinformation Pollution with Large Language Models [127.1107824751703]
本稿では,現代大規模言語モデル (LLM) の誤用の可能性について検討する。
本研究は, LLMが効果的な誤情報発生器として機能し, DOQAシステムの性能が著しく低下することを明らかにする。
論文 参考訳(メタデータ) (2023-05-23T04:10:26Z) - Can ChatGPT Forecast Stock Price Movements? Return Predictability and Large Language Models [51.3422222472898]
ニュース見出しを用いて,ChatGPTのような大規模言語モデル(LLM)の株価変動を予測する能力について述べる。
我々は,情報容量制約,過小反応,制限対アビタージュ,LLMを組み込んだ理論モデルを構築した。
論文 参考訳(メタデータ) (2023-04-15T19:22:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。