論文の概要: AI Propaganda factories with language models
- arxiv url: http://arxiv.org/abs/2508.20186v1
- Date: Wed, 27 Aug 2025 18:04:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-29 18:12:01.656743
- Title: AI Propaganda factories with language models
- Title(参考訳): 言語モデルを用いたAIプロパガンダ工場
- Authors: Lukasz Olejnik,
- Abstract要約: 小型言語モデルでは,コヒーレントでペルソナ駆動の政治メッセージが生成され,人間のレーダを使わずに自動的に評価できることを示す。
完全に自動化されたインフルエンス・コンテント・プロダクションは、大小両方のアクターの手が届く範囲内にあることを実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: AI-powered influence operations can now be executed end-to-end on commodity hardware. We show that small language models produce coherent, persona-driven political messaging and can be evaluated automatically without human raters. Two behavioural findings emerge. First, persona-over-model: persona design explains behaviour more than model identity. Second, engagement as a stressor: when replies must counter-arguments, ideological adherence strengthens and the prevalence of extreme content increases. We demonstrate that fully automated influence-content production is within reach of both large and small actors. Consequently, defence should shift from restricting model access towards conversation-centric detection and disruption of campaigns and coordination infrastructure. Paradoxically, the very consistency that enables these operations also provides a detection signature.
- Abstract(参考訳): AIによるインフルエンス操作を、コモディティハードウェア上でエンドツーエンドで実行できるようになった。
小型言語モデルでは,コヒーレントでペルソナ駆動の政治メッセージが生成され,人間のレーダを使わずに自動的に評価できることを示す。
2つの行動所見が現れる。
第一に、ペルソナ・オーバー・モデル:ペルソナ・デザインはモデル・アイデンティティよりも振舞いを説明します。
第2に、コンプレッサーとしてのエンゲージメント(en:entent as a stressor): 応答が逆の議論をしなければならない場合、イデオロギーの固執が強化され、極端な内容の頻度が増大する。
完全に自動化されたインフルエンス・コンテント・プロダクションは、大小両方のアクターの手が届く範囲内にあることを実証する。
その結果、防衛は、モデルアクセスを制限することから、キャンペーンや調整インフラの会話中心の検出と破壊へと移行すべきである。
パラドックス的には、これらの操作を可能にする一貫性は、検出シグネチャも提供する。
関連論文リスト
- DiscussLLM: Teaching Large Language Models When to Speak [9.441455921296301]
LLM(Large Language Models)は、人間に似たテキストの理解と生成において顕著な能力を示した。
トレーニングモデルによってこのギャップを埋めるために設計されたフレームワークである$textitDiscussLLM$を紹介します。
論文 参考訳(メタデータ) (2025-08-25T16:16:42Z) - Interactive Reasoning: Visualizing and Controlling Chain-of-Thought Reasoning in Large Language Models [54.85405423240165]
トピックの階層構造としてチェーンオブ思考出力を可視化するインタラクション設計であるInteractive Reasoningを導入する。
私たちは、不確実なトレードオフに直面したAIによる意思決定のプロトタイプであるHippoで、インタラクティブな推論を実装しています。
論文 参考訳(メタデータ) (2025-06-30T10:00:43Z) - SOPBench: Evaluating Language Agents at Following Standard Operating Procedures and Constraints [59.645885492637845]
SOPBenchは、各サービス固有のSOPコードプログラムを実行可能な関数の有向グラフに変換する評価パイプラインである。
提案手法では,各サービス固有のSOPコードプログラムを実行可能関数の有向グラフに変換し,自然言語SOP記述に基づいてこれらの関数を呼び出しなければならない。
我々は18の先行モデルを評価し、上位モデルでさえタスクが困難であることを示す。
論文 参考訳(メタデータ) (2025-03-11T17:53:02Z) - Consolidating Strategies for Countering Hate Speech Using Persuasive
Dialogues [3.8979646385036175]
オンライン会話におけるヘイトフルコメントに対する反論を生み出すためのコントロール可能な戦略について検討する。
自動評価と人的評価を用いて、流動的で議論的で論理的に健全な議論を生成する特徴の最適な組み合わせを決定する。
我々は,このような特徴を持つテキストを自動的に注釈付けするための計算モデルと,既存のヘイトスピーチコーパスの銀標準アノテートバージョンを共有した。
論文 参考訳(メタデータ) (2024-01-15T16:31:18Z) - RT-2: Vision-Language-Action Models Transfer Web Knowledge to Robotic
Control [140.48218261864153]
本研究では,インターネット規模のデータに基づいて学習した視覚言語モデルを,エンドツーエンドのロボット制御に直接組み込む方法について検討する。
提案手法は,インターネット規模のトレーニングから,RT-2による創発的能力の獲得を可能にした。
論文 参考訳(メタデータ) (2023-07-28T21:18:02Z) - DiPlomat: A Dialogue Dataset for Situated Pragmatic Reasoning [89.92601337474954]
プラグマティック推論は、実生活における会話でしばしば起こる暗黙の意味を解読する上で重要な役割を担っている。
そこで我々は,現実的な推論と会話理解の場所に関するマシンの能力のベンチマークを目的とした,新しい挑戦であるDiPlomatを紹介した。
論文 参考訳(メタデータ) (2023-06-15T10:41:23Z) - Controllable Mixed-Initiative Dialogue Generation through Prompting [50.03458333265885]
混合開始対話タスクには、情報の繰り返し交換と会話制御が含まれる。
エージェントは、ポリシープランナーが定める特定の対話意図や戦略に従う応答を生成することにより、コントロールを得る。
標準的なアプローチは、これらの意図に基づいて生成条件を実行するために、訓練済みの言語モデルを微調整している。
代わりに、条件生成の微調整に代えて、大きな言語モデルをドロップインで置き換えるように促します。
論文 参考訳(メタデータ) (2023-05-06T23:11:25Z) - Generative Language Models and Automated Influence Operations: Emerging
Threats and Potential Mitigations [0.0]
本報告では,将来,言語モデルが操作にどのような影響を与えるかを評価する。
われわれは、オンライン・インフルエンス・オペレーションのアクター、行動、内容の変更の可能性を明らかにした。
AIによる影響操作の脅威を完全に防ぐ合理的な緩和は期待できないが、複数の緩和の組み合わせは重要な違いをもたらす可能性がある。
論文 参考訳(メタデータ) (2023-01-10T23:42:30Z) - Structured Like a Language Model: Analysing AI as an Automated Subject [0.0]
我々は、大規模言語モデルに対する主観性の意図的な予測は、AIの振る舞いを分析できる別のフレームを生み出すことができると論じる。
我々は、最先端の自然言語処理性能を実現するシステムのリリースにおいて、言語モデルに関する短い歴史を辿る。
批判的メディア手法と精神分析理論が組み合わさって、AI駆動型言語システムの強力な新しい能力を把握するための生産的枠組みを提供すると結論付けている。
論文 参考訳(メタデータ) (2022-12-08T21:58:43Z) - You Impress Me: Dialogue Generation via Mutual Persona Perception [62.89449096369027]
認知科学の研究は、理解が高品質なチャット会話に不可欠なシグナルであることを示唆している。
そこで我々は,P2 Botを提案する。このP2 Botは,理解を明示的にモデル化することを目的とした送信機受信者ベースのフレームワークである。
論文 参考訳(メタデータ) (2020-04-11T12:51:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。