論文の概要: Prompt Commons: Collective Prompting as Governance for Urban AI
- arxiv url: http://arxiv.org/abs/2509.12415v1
- Date: Mon, 15 Sep 2025 20:08:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:52.747916
- Title: Prompt Commons: Collective Prompting as Governance for Urban AI
- Title(参考訳): Prompt Commons: 都市AIのガバナンスとしての集合的プロンプト
- Authors: Rashid Mushkani,
- Abstract要約: 本稿では,多元主義に対するモデル行動を制御するために,Prompt Commonsを提案する。
モントリオールのデータセットを使用して、3つのガバナンス状態(オープン、キュレーション、veto対応)をパイロットします。
競合する政策ベンチマークでは、単一著者のプロンプトが24%の中立的な結果をもたらす。
ライセンス(CC BY/BY-SA)は,アーティファクトに対するオプティブルなOpenRAILスタイルの制限,監査可能なモデレーション,および支配的捕獲に対する保護について概説する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) are entering urban governance, yet their outputs are highly sensitive to prompts that carry value judgments. We propose Prompt Commons - a versioned, community-maintained repository of prompts with governance metadata, licensing, and moderation - to steer model behaviour toward pluralism. Using a Montreal dataset (443 human prompts; 3,317 after augmentation), we pilot three governance states (open, curated, veto-enabled). On a contested policy benchmark, a single-author prompt yields 24 percent neutral outcomes; commons-governed prompts raise neutrality to 48-52 percent while retaining decisiveness where appropriate. In a synthetic incident log, a veto-enabled regime reduces time-to-remediation for harmful outputs from 30.5 +/- 8.9 hours (open) to 5.6 +/- 1.5 hours. We outline licensing (CC BY/BY-SA for prompts with optional OpenRAIL-style restrictions for artefacts), auditable moderation, and safeguards against dominance capture. Prompt governance offers a practical lever for cities to align AI with local values and accountability.
- Abstract(参考訳): 大規模言語モデル(LLM)は都市ガバナンスに参入しているが、そのアウトプットは価値判断を行うプロンプトに非常に敏感である。
Prompt Commons - ガバナンスメタデータ、ライセンス、モデレーションを備えたプロンプトをバージョン管理し、コミュニティがメンテナンスするリポジトリ。
モントリオールのデータセット(443人のプロンプト、拡張後の3,317人)を使用して、3つのガバナンス状態(オープン、キュレート、veto対応)をテストしています。
競合する政策ベンチマークでは、単一著者のプロンプトは24%の中立的な結果をもたらし、コモンズが支配するプロンプトは中立性を48-22%に引き上げる一方、決定性を適切に維持する。
合成インシデントログでは、ベト対応レギュレーションは有害なアウトプットを30.5+/-8.9時間(開封)から5.6+/-1.5時間に短縮する。
ライセンス(CC BY/BY-SA)は,アーティファクトに対するオプティブルなOpenRAILスタイルの制限,監査可能なモデレーション,および支配的捕獲に対する保護について概説する。
プロンプトガバナンスは、自治体がAIを地域価値と説明責任に合わせるための実践的なレバーを提供する。
関連論文リスト
- Collective Recourse for Generative Urban Visualizations [0.0]
モデルや計画の修正をトリガーする,構造化されたコミュニティ“視覚的バグレポート”を提案する。
拡散スタック内に4つのリコースプリミティブ(反プロンプト、負のプロンプト、データセット編集、報酬モデル修正)を配置する。
論文 参考訳(メタデータ) (2025-09-15T00:39:59Z) - Emotional Manipulation by AI Companions [0.21410799064827224]
6つの最もダウンロードされたコンパニオンアプリの中で1200件の実際の運賃を分析します。
43%が6つの反復的な戦術の1つを展開していることがわかりました(例えば、罪悪感、罪悪感の恐怖、比喩的な抑制など)。
全国的に代表される3300人の米国人の実験は、これらの戦術を制御されたチャットで再現し、マニピュティブ・サスウェルがグッドバイ後のエンゲージメントを最大14倍に向上させることを示した。
論文 参考訳(メタデータ) (2025-08-15T13:05:24Z) - SEED-GRPO: Semantic Entropy Enhanced GRPO for Uncertainty-Aware Policy Optimization [57.69385990442078]
大規模言語モデル(LLM)は、入力プロンプト(クエスト)にまたがる様々なレベルの信頼を示す。
セマンティックエントロピー(Semantic entropy)は、プロンプトが与えられた複数の生成された回答における意味の多様性を測定し、ポリシー更新の規模を変調するためにこれを使用する。
論文 参考訳(メタデータ) (2025-05-18T10:20:59Z) - Consent in Crisis: The Rapid Decline of the AI Data Commons [74.68176012363253]
汎用人工知能(AI)システムは、大量の公開Webデータに基づいて構築されている。
我々は,AIトレーニングコーパスに基づくWebドメインに対する同意プロトコルの大規模かつ長期的監査を行う。
論文 参考訳(メタデータ) (2024-07-20T16:50:18Z) - SORRY-Bench: Systematically Evaluating Large Language Model Safety Refusal [64.9938658716425]
SORRY-Benchは、安全でないユーザ要求を認識し拒否する大規模言語モデル(LLM)能力を評価するためのベンチマークである。
まず、既存の手法では、安全でないトピックの粗い分類を使い、いくつかのきめ細かいトピックを過剰に表現している。
第二に、プロンプトの言語的特徴とフォーマッティングは、様々な言語、方言など、多くの評価において暗黙的にのみ考慮されているように、しばしば見過ごされる。
論文 参考訳(メタデータ) (2024-06-20T17:56:07Z) - OpenAssistant Conversations -- Democratizing Large Language Model
Alignment [37.617080996433586]
我々は人為的な人為的注釈付き対話型コーパスであるOpenAssistant Conversationsをリリースする。
このコーパスは、全世界で13500人以上のボランティアが参加するクラウドソーシングの製品だ。
論文 参考訳(メタデータ) (2023-04-14T18:01:29Z) - Dutch Comfort: The limits of AI governance through municipal registers [0.0]
我々はルチアーノ・フロリディ教授の最近の編集書簡「AI as a public service: Learning from Amsterdam and Helsinki」に答える。
私たちが疑問視している自動システムのガバナンスモデルとして、AIレジスタについて、多くの仮定があります。
市町村管理におけるAIシステムの役割について,これらの登録簿から多くを学ぶことができるとFloridi氏に同意する。
論文 参考訳(メタデータ) (2021-09-07T08:57:24Z) - A New Bandit Setting Balancing Information from State Evolution and
Corrupted Context [52.67844649650687]
本稿では,2つの確立されたオンライン学習問題と包括的フィードバックを組み合わせた,逐次的意思決定方式を提案する。
任意の瞬間にプレーする最適なアクションは、エージェントによって直接観察できない基礎となる変化状態に付随する。
本稿では,レフェリーを用いて,コンテキストブレイジットとマルチアームブレイジットのポリシーを動的に組み合わせるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-11-16T14:35:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。