論文の概要: Beyond speculation: Measuring the growing presence of LLM-generated texts in multilingual disinformation
- arxiv url: http://arxiv.org/abs/2503.23242v1
- Date: Sat, 29 Mar 2025 22:47:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-01 14:39:17.398712
- Title: Beyond speculation: Measuring the growing presence of LLM-generated texts in multilingual disinformation
- Title(参考訳): 憶測を超えて:多言語偽情報におけるLLM生成テキストの増大の測定
- Authors: Dominik Macko, Aashish Anantha Ramakrishnan, Jason Samuel Lucas, Robert Moro, Ivan Srba, Adaku Uchendu, Dongwon Lee,
- Abstract要約: 大規模言語モデル(LLM)の高度化は、偽情報誤用の懸念を引き起こす。
自然生態系の制限によって恐怖が高められたことは過大評価されていると主張する者もいる一方で、特定の「長い」状況が見過ごされるリスクに直面していると主張する者もいる。
我々の研究は、最新の現実世界の偽情報データセットにLDMの存在を示す最初の実証的な証拠を提供することによって、この議論を橋渡しします。
- 参考スコア(独自算出の注目度): 5.088284972478787
- License:
- Abstract: Increased sophistication of large language models (LLMs) and the consequent quality of generated multilingual text raises concerns about potential disinformation misuse. While humans struggle to distinguish LLM-generated content from human-written texts, the scholarly debate about their impact remains divided. Some argue that heightened fears are overblown due to natural ecosystem limitations, while others contend that specific "longtail" contexts face overlooked risks. Our study bridges this debate by providing the first empirical evidence of LLM presence in the latest real-world disinformation datasets, documenting the increase of machine-generated content following ChatGPT's release, and revealing crucial patterns across languages, platforms, and time periods.
- Abstract(参考訳): 大規模言語モデル(LLM)の高度化と、生成した多言語テキストの品質向上は、潜在的な偽情報誤用に関する懸念を提起する。
人間はLLMが生成した内容と人間の文章を区別するのに苦労するが、その影響については学術的に議論が分かれている。
自然生態系の制限によって恐怖が高められたことは過大評価されていると主張する者もいる一方で、特定の「長い」状況が見過ごされるリスクに直面していると主張する者もいる。
我々の研究は、最新の現実世界の偽情報データセットにLDMの存在を示す最初の実証的な証拠を提供し、ChatGPTのリリース後のマシン生成コンテンツの増加を文書化し、言語、プラットフォーム、時間にまたがる重要なパターンを明らかにすることによって、この議論を橋渡しします。
関連論文リスト
- Learn and Unlearn in Multilingual LLMs [11.42788038138136]
本稿では,多言語大言語モデル(LLM)における有害情報の伝播について検討する。
フェイク情報は、どのような言語であっても、異なる言語にまたがって広がり、生成されたコンテンツの完全性と信頼性を損なう。
標準のアンラーニング技術は、典型的には英語データに焦点を当てるが、多言語文脈における有害なコンテンツの拡散を緩和するには不十分である。
論文 参考訳(メタデータ) (2024-06-19T18:01:08Z) - Understanding Privacy Risks of Embeddings Induced by Large Language Models [75.96257812857554]
大きな言語モデルは、人工知能の初期の兆候を示すが、幻覚に苦しむ。
1つの有望な解決策は、外部知識を埋め込みとして保存し、LLMを検索強化世代に支援することである。
近年の研究では、事前学習された言語モデルによるテキスト埋め込みから、元のテキストを部分的に再構築できることが実験的に示されている。
論文 参考訳(メタデータ) (2024-04-25T13:10:48Z) - On Protecting the Data Privacy of Large Language Models (LLMs): A Survey [35.48984524483533]
LLM(Large Language Model)は、人間の言語を理解し、生成し、翻訳できる複雑な人工知能システムである。
LLMは大量のデータを処理して生成し、データプライバシを脅かす可能性がある。
論文 参考訳(メタデータ) (2024-03-08T08:47:48Z) - Rethinking Interpretability in the Era of Large Language Models [76.1947554386879]
大規模言語モデル(LLM)は、幅広いタスクにまたがる顕著な機能を示している。
自然言語で説明できる能力により、LLMは人間に与えられるパターンのスケールと複雑さを拡大することができる。
これらの新しい機能は、幻覚的な説明や膨大な計算コストなど、新しい課題を提起する。
論文 参考訳(メタデータ) (2024-01-30T17:38:54Z) - FFT: Towards Harmlessness Evaluation and Analysis for LLMs with Factuality, Fairness, Toxicity [20.510512358961517]
生成的人工知能の普及により、AI生成テキストによる潜在的な害に対する懸念が高まっている。
これまでの研究者は、生成言語モデルの無害性を評価するために多くの努力を払ってきた。
論文 参考訳(メタデータ) (2023-11-30T14:18:47Z) - Evaluating, Understanding, and Improving Constrained Text Generation for Large Language Models [49.74036826946397]
本研究では,大言語モデル(LLM)の制約付きテキスト生成について検討する。
本研究は主に,制約を語彙型,構造型,関係型に分類するオープンソース LLM に重点を置いている。
その結果、LLMの能力と不足を照らし、制約を取り入れ、制約付きテキスト生成における将来の発展に対する洞察を提供する。
論文 参考訳(メタデータ) (2023-10-25T03:58:49Z) - Let Models Speak Ciphers: Multiagent Debate through Embeddings [84.20336971784495]
この問題を解決するためにCIPHER(Communicative Inter-Model Protocol Through Embedding Representation)を導入する。
自然言語から逸脱することで、CIPHERはモデルの重みを変更することなく、より広い範囲の情報を符号化する利点を提供する。
このことは、LLM間の通信における代替の"言語"としての埋め込みの優越性と堅牢性を示している。
論文 参考訳(メタデータ) (2023-10-10T03:06:38Z) - MAGE: Machine-generated Text Detection in the Wild [82.70561073277801]
大規模言語モデル(LLM)は人間レベルのテキスト生成を実現し、効果的なAI生成テキスト検出の必要性を強調している。
我々は、異なるLLMによって生成される多様な人文やテキストからテキストを収集することで、包括的なテストベッドを構築する。
問題にもかかわらず、トップパフォーマンス検出器は、新しいLCMによって生成された86.54%のドメイン外のテキストを識別することができ、アプリケーションシナリオの実現可能性を示している。
論文 参考訳(メタデータ) (2023-05-22T17:13:29Z) - The Science of Detecting LLM-Generated Texts [47.49470179549773]
大型言語モデル(LLMs)の出現は、人間によって書かれたテキストとほとんど区別できないテキストの作成につながった。
このことが、誤報の拡散や教育制度の混乱など、このようなテキストの誤用の可能性への懸念を引き起こしている。
本研究の目的は,既存のLLM生成テキスト検出技術の概要を提供し,言語生成モデルの制御と制御を強化することである。
論文 参考訳(メタデータ) (2023-02-04T04:49:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。