論文の概要: Collective Recourse for Generative Urban Visualizations
- arxiv url: http://arxiv.org/abs/2509.11487v1
- Date: Mon, 15 Sep 2025 00:39:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:23.10796
- Title: Collective Recourse for Generative Urban Visualizations
- Title(参考訳): 都市ビジュアライゼーションのための集合的レコース
- Authors: Rashid Mushkani,
- Abstract要約: モデルや計画の修正をトリガーする,構造化されたコミュニティ“視覚的バグレポート”を提案する。
拡散スタック内に4つのリコースプリミティブ(反プロンプト、負のプロンプト、データセット編集、報酬モデル修正)を配置する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Text-to-image diffusion models help visualize urban futures but can amplify group-level harms. We propose collective recourse: structured community "visual bug reports" that trigger fixes to models and planning workflows. We (1) formalize collective recourse and a practical pipeline (report, triage, fix, verify, closure); (2) situate four recourse primitives within the diffusion stack: counter-prompts, negative prompts, dataset edits, and reward-model tweaks; (3) define mandate thresholds via a mandate score combining severity, volume saturation, representativeness, and evidence; and (4) evaluate a synthetic program of 240 reports. Prompt-level fixes were fastest (median 2.1-3.4 days) but less durable (21-38% recurrence); dataset edits and reward tweaks were slower (13.5 and 21.9 days) yet more durable (12-18% recurrence) with higher planner uptake (30-36%). A threshold of 0.12 yielded 93% precision and 75% recall; increasing representativeness raised recall to 81% with little precision loss. We discuss integration with participatory governance, risks (e.g., overfitting to vocal groups), and safeguards (dashboards, rotating juries).
- Abstract(参考訳): テキスト・ツー・イメージの拡散モデルは都市の未来を可視化するのに役立つが、グループレベルの害を増幅することができる。
モデルや計画ワークフローの修正をトリガーする,構造化されたコミュニティ“視覚的バグレポート”を提案する。
2)拡散スタック内の4つのリコースプリミティブ:反プロンプト,負のプロンプト,データセットの編集,報酬モデルの微調整,(3)重大度,ボリューム飽和度,代表性,エビデンスを組み合わせた委任スコアによる委任しきい値の定義,(4)総合リコースと実践的パイプライン(レポート,トリアージ,修正,検証,クロージャ)を定式化し,240のレポートの合成プログラムを評価する。
プロンプトレベルの修正は最速 (2.1-3.4日) で耐久性は低く (21-38%の更新) 、データセットの編集と報酬の調整は遅く (13.5日と21.9日) 、より耐久性が高く (12-18%の修正) プランナーの獲得率 (30-36%) が高かった。
0.12の閾値は93%の精度と75%のリコールとなり、表現力は81%まで上昇し、精度の低下はほとんどなかった。
我々は、参加型ガバナンス、リスク(例えば、声楽グループへの過度な適合)、セーフガード(ダッシュボード、ローテーションジャリー)との統合について議論する。
関連論文リスト
- Time Is a Feature: Exploiting Temporal Dynamics in Diffusion Language Models [51.48680261034029]
拡散大言語モデル (dLLMs) は反復的 denoising を通じてテキストを生成する。
現在のデコード戦略は、最終的な出力に有利なリッチな中間予測を捨てている。
時間的整合性を利用する2つの相補的手法を導入する。
論文 参考訳(メタデータ) (2025-08-12T17:59:57Z) - Benchmarking Reasoning Robustness in Large Language Models [76.79744000300363]
新規データや不完全データでは,性能が著しく低下することがわかった。
これらの結果は、厳密な論理的推論に対するリコールへの依存を浮き彫りにした。
本稿では,情報不足によって引き起こされる幻覚を利用して推論ギャップを明らかにする,Math-RoBと呼ばれる新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2025-03-06T15:36:06Z) - SemEval-2024 Shared Task 6: SHROOM, a Shared-task on Hallucinations and Related Observable Overgeneration Mistakes [48.83290963506378]
本稿では,幻覚検出に焦点をあてた共有タスクであるSHROOMの結果について述べる。
このアプローチをどのように取り組んだかについて、いくつかの重要なトレンドを観察します。
チームの大多数が提案したベースラインシステムより優れていますが、トップスコアシステムのパフォーマンスは依然として、より困難なアイテムのランダムなハンドリングと一致しています。
論文 参考訳(メタデータ) (2024-03-12T15:06:22Z) - Unsupervised Summarization Re-ranking [27.8646077587359]
本稿では,教師なしモデルと教師なしモデルのパフォーマンスギャップを埋めることを目的として,教師なしモデルで要約候補を再ランクする手法を提案する。
提案手法では,教師なしPEGを最大7.27%,ChatGPTを最大6.86%改善した。
論文 参考訳(メタデータ) (2022-12-19T16:29:26Z) - Composed Image Retrieval with Text Feedback via Multi-grained
Uncertainty Regularization [73.04187954213471]
粗い検索ときめ細かい検索を同時にモデル化する統合学習手法を提案する。
提案手法は、強いベースラインに対して+4.03%、+3.38%、+2.40%のRecall@50精度を達成した。
論文 参考訳(メタデータ) (2022-11-14T14:25:40Z) - Real-time Speech Interruption Analysis: From Cloud to Client Deployment [20.694024217864783]
我々は最近,音声の中断を検知する最初の音声中断解析モデルを開発した。
この機能をよりコスト効率が高く、環境に優しい方法で提供するため、クライアントデバイスでWavLM_SIモデルを出荷するために、モデルの複雑さとサイズを削減しました。
論文 参考訳(メタデータ) (2022-10-24T15:39:51Z) - (Certified!!) Adversarial Robustness for Free! [116.6052628829344]
逆方向の摂動が0.5の2ノルム以内であることに制約された場合,ImageNetでは71%の精度が証明された。
これらの結果は,モデルパラメータの微調整や再学習を必要とせず,事前学習した拡散モデルと画像分類器のみを用いて得られる。
論文 参考訳(メタデータ) (2022-06-21T17:27:27Z) - Avoiding Inference Heuristics in Few-shot Prompt-based Finetuning [57.4036085386653]
文ペア分類タスクのプロンプトベースモデルでは,語彙重なりに基づく推論の一般的な落とし穴が依然として残っていることを示す。
そこで,プレトレーニングウェイトを保存する正規化を加えることは,この破壊的な微調整の傾向を緩和するのに有効であることを示す。
論文 参考訳(メタデータ) (2021-09-09T10:10:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。