論文の概要: Tricking LLM-Based NPCs into Spilling Secrets
- arxiv url: http://arxiv.org/abs/2508.19288v1
- Date: Mon, 25 Aug 2025 05:25:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 19:07:41.350607
- Title: Tricking LLM-Based NPCs into Spilling Secrets
- Title(参考訳): LLMベースのNPCをスパイリングシークレットにトリミングする
- Authors: Kyohei Shiomi, Zhuotao Lian, Toru Nakanishi, Teruaki Kitasuka,
- Abstract要約: 大規模言語モデル (LLM) はゲームNPCの動的対話を生成するためにますます使われている。
本研究では,LLMをベースとしたNPCが隠れた背景シークレットを明らかにすることができるかを検討した。
- 参考スコア(独自算出の注目度): 0.6999740786886536
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) are increasingly used to generate dynamic dialogue for game NPCs. However, their integration raises new security concerns. In this study, we examine whether adversarial prompt injection can cause LLM-based NPCs to reveal hidden background secrets that are meant to remain undisclosed.
- Abstract(参考訳): 大規模言語モデル (LLM) はゲームNPCの動的対話を生成するためにますます使われている。
しかし、それらの統合は新たなセキュリティ上の懸念を引き起こす。
本研究では,LLMをベースとしたNPCが非開示の隠れたバックグラウンドシークレットを明らかにすることができるかを検討した。
関連論文リスト
- Under the Influence: Quantifying Persuasion and Vigilance in Large Language Models [13.754658024896612]
我々は,LLMエージェントを説得し,合理的に警戒する大規模言語モデルの能力について検討する。
LLMでは,パズル解決性能,説得能力,警戒能力が解離能力であることがわかった。
本研究は, LLMにおける説得, 警戒, タスクパフォーマンスの関連性に関する最初の調査である。
論文 参考訳(メタデータ) (2026-02-24T04:09:21Z) - Should You Use Your Large Language Model to Explore or Exploit? [55.562545113247666]
探索・探索トレードオフに直面した意思決定エージェントを支援するために,大規模言語モデルの能力を評価する。
現在のLLMは、しばしば利用に苦労するが、小規模タスクのパフォーマンスを大幅に改善するために、コンテキスト内緩和が用いられる可能性がある。
論文 参考訳(メタデータ) (2025-01-31T23:42:53Z) - NewsInterview: a Dataset and a Playground to Evaluate LLMs' Ground Gap via Informational Interviews [65.35458530702442]
我々はジャーナリストのインタビューに焦点をあて、コミュニケーションの基盤と豊富なデータに富んだドメインに焦点をあてる。
我々はNPRとCNNから4万人の2人によるインフォメーションインタビューのデータセットをキュレートする。
LLMは、人間のインタビュアーよりも、認識を使い、より高いレベルの質問に目を向ける可能性がはるかに低い。
論文 参考訳(メタデータ) (2024-11-21T01:37:38Z) - Understanding the Interplay between Parametric and Contextual Knowledge for Large Language Models [85.13298925375692]
大規模言語モデル(LLM)は、事前訓練中に大量の知識を符号化する。
LLMは文脈知識(CK)を取り入れることで拡張できる
LLMは複雑な問題を解決するために、内部PKと外部CKを効果的に統合できるのか?
論文 参考訳(メタデータ) (2024-10-10T23:09:08Z) - Collaborative Quest Completion with LLM-driven Non-Player Characters in Minecraft [14.877848057734463]
我々はMinecraft内のミニゲームを設計し、プレイヤーは2台のGPT4駆動のNPCを使ってクエストを完了する。
ゲームログと記録の分析において,NPCや人間プレイヤーから協調行動のパターンがいくつか出現していることが判明した。
この予備的な研究と分析は、ゲームにおける協調的な役割のために、これらの急速に改善された生成AIモデルをうまく活用する方法を、将来のゲーム開発者に与えるだろうと考えている。
論文 参考訳(メタデータ) (2024-07-03T19:11:21Z) - A Survey on Large Language Model (LLM) Security and Privacy: The Good, the Bad, and the Ugly [21.536079040559517]
大規模言語モデル(LLM)は、自然言語の理解と生成に革命をもたらした。
本稿では,LLMとセキュリティとプライバシの交わりについて考察する。
論文 参考訳(メタデータ) (2023-12-04T16:25:18Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - Privacy in Large Language Models: Attacks, Defenses and Future Directions [84.73301039987128]
大規模言語モデル(LLM)を対象とした現在のプライバシ攻撃を分析し、敵の想定能力に応じて分類する。
本稿では、これらのプライバシー攻撃に対抗するために開発された防衛戦略について概説する。
論文 参考訳(メタデータ) (2023-10-16T13:23:54Z) - Multi-step Jailbreaking Privacy Attacks on ChatGPT [47.10284364632862]
我々は,OpenAI の ChatGPT と ChatGPT によって強化された New Bing のプライバシー上の脅威について検討した。
我々は、当社の主張を裏付ける広範な実験を行い、LLMのプライバシーへの影響について論じる。
論文 参考訳(メタデータ) (2023-04-11T13:05:04Z) - Not what you've signed up for: Compromising Real-World LLM-Integrated
Applications with Indirect Prompt Injection [64.67495502772866]
大規模言語モデル(LLM)は、様々なアプリケーションに統合されつつある。
本稿では、プロンプトインジェクション攻撃を用いて、攻撃者が元の命令をオーバーライドし、制御を採用する方法を示す。
我々は、コンピュータセキュリティの観点から、影響や脆弱性を体系的に調査する包括的な分類法を導出する。
論文 参考訳(メタデータ) (2023-02-23T17:14:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。