論文の概要: Who Controls the Conversation? User Perspectives On Generative AI (LLM) System Prompts
- arxiv url: http://arxiv.org/abs/2603.00089v1
- Date: Mon, 16 Feb 2026 17:59:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-15 16:43:46.859673
- Title: Who Controls the Conversation? User Perspectives On Generative AI (LLM) System Prompts
- Title(参考訳): 誰が会話を制御するのか? ジェネレーティブAI(LLM)システムプロンプトのユーザ視点
- Authors: Anna Neumann, Yulu Pi, Jatinder Singh,
- Abstract要約: 本稿では, ユーザ中心の設計に注意を喚起するシステムについて論じる。
システムプロンプトには何が含まれ、エンドユーザはそれをどのように認識し、これらの認識は設計とガバナンスの実践に何を提供するのか?
この結果から,システムプロンプトのメリットとリスク,プロンプトデザインに結びつくことを好む値,異なるタイプのプロンプトに対する快適さ,プロンプトコンテンツに関する透明性とユーザコントロールの度合い,といったユーザ視点が明らかになった。
- 参考スコア(独自算出の注目度): 7.340845393655051
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: System prompts - instructions that shape the behaviour of generative AI systems - strongly influence system outputs and users' experiences. They define the model's guidelines, `personality', and guardrails, taking precedence over user inputs. Despite their influence, transparency is limited: system prompts are generally not made public and most platforms instruct models to conceal them, leaving users disconnected from and unaware of a key mechanism guiding and governing their AI interactions. This paper argues that system prompts warrant explicit, user-centred design attention and, focusing on large language models (LLMs), asks: what do system prompts contain, how do end-users perceive them, and what do these perceptions offer for design and governance practice? Our results reveal user perspectives on: the benefits and risks of system prompts; the values they prefer to be associated with prompt-design; their levels of comfort with different types of prompts; and degrees of transparency and user control regarding prompt content. From these findings emerge considerations for how designers can better align system prompt mechanisms with user expectations and preferences over these mechanisms that directly shape how generative AI systems behave.
- Abstract(参考訳): システムプロンプト - 生成AIシステムの振る舞いを形作る命令 - システムのアウトプットとユーザエクスペリエンスに強く影響します。
彼らはモデルのガイドライン、‘ペルソナリティ’、ガードレールを定義し、ユーザ入力よりも優先する。
システムプロンプトは一般に公開されておらず、ほとんどのプラットフォームはモデルを隠蔽するようモデルに指示し、ユーザーはAIインタラクションを誘導し、管理する重要なメカニズムを知らないままにしておく。
大規模言語モデル(LLM)に焦点をあてて,システムプロンプトとは何か,エンドユーザはそれをどのように認識し,これらの認識が設計やガバナンスの実践にどのような影響を及ぼすのか,と問う。
この結果から,システムプロンプトのメリットとリスク,プロンプトデザインに結びつくことを好む値,異なるタイプのプロンプトに対する快適さ,プロンプトコンテンツに関する透明性とユーザコントロールの度合い,といったユーザ視点が明らかになった。
これらの結果から、設計者がシステムプロンプトメカニズムを、生成的AIシステムの振る舞いを直接形作るこれらのメカニズムに対して、ユーザの期待と好意とをより良く整合させる方法についての考察が浮かび上がっている。
関連論文リスト
- Just Ask: Curious Code Agents Reveal System Prompts in Frontier LLMs [65.6660735371212]
textbftextscJustAskは,インタラクションのみで効果的な抽出戦略を自律的に発見するフレームワークである。
これは、アッパー信頼境界に基づく戦略選択と、原子プローブと高レベルのオーケストレーションにまたがる階層的なスキル空間を用いて、オンライン探索問題として抽出を定式化する。
この結果から,現代のエージェントシステムにおいて,システムプロンプトは致命的ではあるがほぼ無防備な攻撃面であることがわかった。
論文 参考訳(メタデータ) (2026-01-29T03:53:25Z) - Interactive Reasoning: Visualizing and Controlling Chain-of-Thought Reasoning in Large Language Models [54.85405423240165]
トピックの階層構造としてチェーンオブ思考出力を可視化するインタラクション設計であるInteractive Reasoningを導入する。
私たちは、不確実なトレードオフに直面したAIによる意思決定のプロトタイプであるHippoで、インタラクティブな推論を実装しています。
論文 参考訳(メタデータ) (2025-06-30T10:00:43Z) - Position is Power: System Prompts as a Mechanism of Bias in Large Language Models (LLMs) [7.71667852309443]
大規模言語モデル(LLM)におけるシステムプロンプトは、モデル動作を導く事前定義された指示である。
LLMのデプロイでは、コンテキスト間の一貫性のあるレスポンスを保証するために、ますます使用されている。
システムプロンプトがより複雑になるにつれて、直接的または間接的に、副作用の未報告を導入することができる。
論文 参考訳(メタデータ) (2025-05-27T12:19:08Z) - Creating General User Models from Computer Use [53.59999173952482]
本稿では,コンピュータとのインタラクションを観察することでユーザについて学習する汎用ユーザモデル(GUM)のアーキテクチャを提案する。
GUMは、ユーザ(例えばデバイスのスクリーンショット)の非構造化観察を入力として受け取り、ユーザの知識と好みをキャプチャする信頼度重み付け命題を構築する。
論文 参考訳(メタデータ) (2025-05-16T04:00:31Z) - Exploring the Impact of Personality Traits on Conversational Recommender Systems: A Simulation with Large Language Models [70.180385882195]
本稿では,対話型レコメンダシステム(CRS)のためのパーソナリティを考慮したユーザシミュレーションを提案する。
ユーザエージェントはカスタマイズ可能な性格特性と嗜好を誘導し、システムエージェントはCRS内の現実的な相互作用をシミュレートする説得能力を有する。
実験により,現在最先端のLCMは,特定の性格特性に適合した多様なユーザ応答を効果的に生成できることが示された。
論文 参考訳(メタデータ) (2025-04-09T13:21:17Z) - AI Automatons: AI Systems Intended to Imitate Humans [54.19152688545896]
人々の行動、仕事、能力、類似性、または人間性を模倣するように設計されたAIシステムが増加している。
このようなAIシステムの研究、設計、展開、可用性は、幅広い法的、倫理的、その他の社会的影響に対する懸念を喚起している。
論文 参考訳(メタデータ) (2025-03-04T03:55:38Z) - The Illusion of Competence: Evaluating the Effect of Explanations on Users' Mental Models of Visual Question Answering Systems [6.307898834231964]
我々は、AIシステムの限界が、完璧に実行できないタスクに遭遇したとき、ユーザーがどのように認識するかを検討する。
我々は、視覚的な入力を操作することでAIシステムの制限を制御する視覚的質問応答と説明タスクを採用する。
私たちのゴールは、参加者がシステムの限界を認識できるかどうかを決定することです。
論文 参考訳(メタデータ) (2024-06-27T13:44:03Z) - System-2 Recommenders: Disentangling Utility and Engagement in Recommendation Systems via Temporal Point-Processes [80.97898201876592]
本稿では,過去のコンテンツインタラクションが,自己興奮型ホークスプロセスに基づくユーザの到着率に影響を及ぼす生成モデルを提案する。
そこで本研究では,システム1とシステム2のアンタングルを解消し,ユーザ利用によるコンテンツ最適化を可能にすることを解析的に示す。
論文 参考訳(メタデータ) (2024-05-29T18:19:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。