論文の概要: Negotiative Alignment: Embracing Disagreement to Achieve Fairer Outcomes -- Insights from Urban Studies
- arxiv url: http://arxiv.org/abs/2503.12613v1
- Date: Sun, 16 Mar 2025 18:55:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 14:56:58.005342
- Title: Negotiative Alignment: Embracing Disagreement to Achieve Fairer Outcomes -- Insights from Urban Studies
- Title(参考訳): 交渉的アライメント:より公正な成果を得るための不一致を受け入れる -- 都市研究の視点から
- Authors: Rashid Mushkani, Hugo Berard, Shin Koseki,
- Abstract要約: 本研究はモントリオール市における住民35名を対象にした地域調査から得られた知見である。
我々は、不一致を保存、分析、対処に必要な入力として扱うAIフレームワークである、交渉的アライメントを提案する。
- 参考スコア(独自算出の注目度): 3.510270856154939
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cities are not monolithic; they are arenas of negotiation among groups that hold varying needs, values, and experiences. Conventional methods of urban assessment -- from standardized surveys to AI-driven evaluations -- frequently rely on a single consensus metric (e.g., an average measure of inclusivity or safety). Although such aggregations simplify design decisions, they risk obscuring the distinct perspectives of marginalized populations. In this paper, we present findings from a community-centered study in Montreal involving 35 residents with diverse demographic and social identities, particularly wheelchair users, seniors, and LGBTQIA2+ individuals. Using rating and ranking tasks on 20 urban sites, we observe that disagreements are systematic rather than random, reflecting structural inequalities, differing cultural values, and personal experiences of safety and accessibility. Based on these empirical insights, we propose negotiative alignment, an AI framework that treats disagreement as an essential input to be preserved, analyzed, and addressed. Negotiative alignment builds on pluralistic models by dynamically updating stakeholder preferences through multi-agent negotiation mechanisms, ensuring no single perspective is marginalized. We outline how this framework can be integrated into urban analytics -- and other decision-making contexts -- to retain minority viewpoints, adapt to changing stakeholder concerns, and enhance fairness and accountability. The study demonstrates that preserving and engaging with disagreement, rather than striving for an artificial consensus, can produce more equitable and responsive AI-driven outcomes in urban design.
- Abstract(参考訳): 都市はモノリシックではなく、さまざまなニーズ、価値観、経験を持つグループ間の交渉の場である。
標準化された調査からAIによる評価まで、従来の都市評価の方法は、単一のコンセンサス基準(例えば、傾きや安全性の平均値)に依存していることが多い。
このような集合は設計決定を単純化するが、辺縁化人口の異なる視点を無視するリスクがある。
本報告では, 多様な人口・社会的アイデンティティを持つ35人の住民, 特に車椅子利用者, 高齢者, LGBTQIA2+の個人を対象に, モントリオールにおけるコミュニティ中心の調査結果を報告する。
20の都市部における評価とランキングタスクを用いて、不一致はランダムではなく体系的であり、構造的不平等、文化的価値の相違、安全性とアクセシビリティの個人的経験を反映している。
これらの経験的洞察に基づいて、不一致を保存、分析、対処するための必須入力として扱うAIフレームワークである、否定的アライメントを提案する。
マルチエージェント・ネゴシエーション機構を通じて利害関係者の選好を動的に更新することで、複数のモデルに基づく交渉的アライメントを構築する。
この枠組みが都市分析や意思決定の文脈にどのように統合され、少数派視点を維持し、利害関係者の関心事の変化に適応し、公正性と説明責任を高めるかの概要を述べる。
この研究は、人工的なコンセンサスのために努力するのではなく、不一致の保存と関与が、都市デザインにおいてより公平で応答性の高いAI駆動の結果をもたらすことを実証している。
関連論文リスト
- Urban Safety Perception Through the Lens of Large Multimodal Models: A Persona-based Approach [4.315451628809687]
本研究では,Llava 1.6 7Bと呼ばれるLarge Multimodal Models(LMM)を,都市空間の安全知覚を評価する新しいアプローチとして紹介する。
このモデルの平均F1スコアは59.21%に達し、都市のシナリオを安全または安全でないものとして分類した。
ペルソナをベースとしたプロンプトを取り入れた結果,年齢,性別,国籍の社会デノグラフィーグループにおいて,安全性の認知に有意な変化が認められた。
論文 参考訳(メタデータ) (2025-03-01T20:34:30Z) - The Hidden Strength of Disagreement: Unraveling the Consensus-Diversity Tradeoff in Adaptive Multi-Agent Systems [1.137572571250676]
エージェントが独立して情報交換を行う暗黙のコンセンサスは、動的環境においてより効果的である、と我々は主張する。
我々は、暗黙の手法が明示的な手法よりも優れている条件を示す、コンセンサスと多様性のトレードオフを定式化する。
我々は、回復力のある意思決定のために多様性を維持することの価値を強調し、文脈内学習による創発的な調整を強調した。
論文 参考訳(メタデータ) (2025-02-23T13:12:53Z) - Democratizing Reward Design for Personal and Representative Value-Alignment [10.1630183955549]
本稿では,対話型対話アライメント(Interactive-Reflective Dialogue Alignment)について紹介する。
本システムは,言語モデルに基づく嗜好誘導を通じて個々の価値定義を学習し,パーソナライズされた報酬モデルを構築する。
本研究は, 価値整合行動の多様な定義を示し, システムによって各人の独自の理解を正確に捉えることができることを示す。
論文 参考訳(メタデータ) (2024-10-29T16:37:01Z) - EARN Fairness: Explaining, Asking, Reviewing, and Negotiating Artificial Intelligence Fairness Metrics Among Stakeholders [5.216732191267959]
我々は、AIの専門知識を必要とせず、利害関係者間でのメトリクスの集合的決定を促進する新しいフレームワークEARN Fairnessを提案する。
このフレームワークは、適応可能なインタラクティブシステムと、公正度指標を説明するステークホルダ中心のEARNフェアネスプロセス、利害関係者の個人的メトリック選好、総括的メトリクス、メトリクス選択に関するコンセンサスを交渉する。
我々の研究によると、EARN Fairnessフレームワークは、利害関係者が個人の好みを表現し、合意に達することを可能にし、リスクの高い状況下で人間中心のAIフェアネスを実装するための実践的なガイダンスを提供する。
論文 参考訳(メタデータ) (2024-07-16T07:20:30Z) - Persona Inconstancy in Multi-Agent LLM Collaboration: Conformity, Confabulation, and Impersonation [16.82101507069166]
マルチエージェントAIシステムは、科学的および実践的な応用において、集合的な意思決定をシミュレートするために使用することができる。
我々は、相互協力や議論に携わるAIエージェントのアンサンブルについて、個人の反応やチャットの書き起こしを分析して検討する。
以上の結果から,複数エージェントによる議論が,多面的な視点を反映する集合的AI決定を支援することが示唆された。
論文 参考訳(メタデータ) (2024-05-06T21:20:35Z) - Disciplining Deliberation: A Sociotechnical Perspective on Machine Learning Trade-offs [0.0]
人工知能における2つの顕著なトレードオフは、予測精度と公正性、予測精度と解釈可能性の間のものである。
一般的な解釈では、これらの形式的なトレードオフは、根底にある社会的価値の間の緊張と直接的に対応していると見なされている。
トレードオフの価値を検証するための社会技術的アプローチを紹介します。
論文 参考訳(メタデータ) (2024-03-07T05:03:18Z) - AntEval: Evaluation of Social Interaction Competencies in LLM-Driven
Agents [65.16893197330589]
大規模言語モデル(LLM)は、幅広いシナリオで人間の振る舞いを再現する能力を示した。
しかし、複雑なマルチ文字のソーシャルインタラクションを扱う能力については、まだ完全には研究されていない。
本稿では,新しいインタラクションフレームワークと評価手法を含むマルチエージェントインタラクション評価フレームワーク(AntEval)を紹介する。
論文 参考訳(メタデータ) (2024-01-12T11:18:00Z) - GRASP: A Disagreement Analysis Framework to Assess Group Associations in Perspectives [18.574420136899978]
本稿では,グループ関係を,異なるレーダサブグループ間の視点で測定するための総合的不一致分析フレームワークGRASPを提案する。
本フレームワークは,特定のタスクにおいて他と大きく異なる視点を持つ特定のレーダ群を明らかにし,特定のタスクコンテキストにおいて考慮すべき人口動態の同定を支援する。
論文 参考訳(メタデータ) (2023-11-09T00:12:21Z) - Evaluating the Social Impact of Generative AI Systems in Systems and Society [43.32010533676472]
テキスト(コードを含む)、画像、オーディオ、ビデオなどを含むモダリティにまたがる生成AIシステムは、幅広い社会的影響を持つ。
これらの影響を評価するための公式な基準や、どの影響を評価するべきかの基準はありません。
本稿では,任意のモダリティに対して基本生成型AIシステムを評価するための,標準的なアプローチに向けたガイドを提案する。
論文 参考訳(メタデータ) (2023-06-09T15:05:13Z) - Heterogeneous Value Alignment Evaluation for Large Language Models [91.96728871418]
大規模言語モデル(LLM)は、その価値を人間のものと整合させることを重要視している。
本研究では,LLMと不均一値の整合性を評価するため,不均一値アライメント評価(HVAE)システムを提案する。
論文 参考訳(メタデータ) (2023-05-26T02:34:20Z) - Social Diversity Reduces the Complexity and Cost of Fostering Fairness [63.70639083665108]
不完全な情報や公平性の柔軟な基準を前提とした干渉機構の効果について検討する。
多様性の役割を定量化し、情報収集の必要性を減らす方法を示す。
この結果から,多様性が変化し,公正性向上を目指す機関に新たなメカニズムが開放されることが示唆された。
論文 参考訳(メタデータ) (2022-11-18T21:58:35Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Towards a multi-stakeholder value-based assessment framework for
algorithmic systems [76.79703106646967]
我々は、価値間の近さと緊張を可視化する価値に基づくアセスメントフレームワークを開発する。
我々は、幅広い利害関係者に評価と検討のプロセスを開放しつつ、それらの運用方法に関するガイドラインを提示する。
論文 参考訳(メタデータ) (2022-05-09T19:28:32Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Towards Quantifying the Distance between Opinions [66.29568619199074]
テキストの類似性のみに基づく測度や、全体の感情に基づく測度は、意見間の距離を効果的に捉えられないことが多い。
そこで本稿では,ニュアンス観測を生かした意見の類似性を捉えるための新しい距離尺度を提案する。
教師なしの環境では、既存の手法と比較して、調整ランダム指数のスコア(最大56倍)とシルエット係数(最大21倍)が大幅に向上する。
論文 参考訳(メタデータ) (2020-01-27T16:01:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。