論文の概要: Negotiative Alignment: Embracing Disagreement to Achieve Fairer Outcomes -- Insights from Urban Studies
- arxiv url: http://arxiv.org/abs/2503.12613v3
- Date: Thu, 18 Sep 2025 03:14:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-22 14:11:06.935554
- Title: Negotiative Alignment: Embracing Disagreement to Achieve Fairer Outcomes -- Insights from Urban Studies
- Title(参考訳): 交渉的アライメント:より公正な成果を得るための不一致を受け入れる -- 都市研究の視点から
- Authors: Rashid Mushkani, Hugo Berard, Shin Koseki,
- Abstract要約: 診断パターンは本例では体系的であった。
グループディスカッションでは、情報のギャップは減ったが、価値の衝突は減った。
意見の不一致を信号として扱い、合計と共に最悪のグループの結果を報告することは、プランナーやAI実践者がトレードオフに遭遇し、少数派の優先事項を維持しながら効率を維持するのに役立つかもしれない。
- 参考スコア(独自算出の注目度): 1.3787753513429983
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Urban assessments often compress diverse needs into single scores, which can obscure minority perspectives. We present a community-centered study in Montreal (n=35; wheelchair users, seniors, LGBTQIA2+ residents, and immigrants). Participants rated 20 streets (accessibility, inclusivity, aesthetics, practicality) and ranked 7 images on 12 interview-elicited criteria. Disagreement patterns were systematic in our sample: wheelchair users diverged most on accessibility and practicality; LGBTQIA2+ participants emphasized inclusion and liveliness; seniors prioritized security. Group discussion reduced information gaps but not value conflicts; ratings conveyed intensity, while rankings forced trade-offs. We then formalize negotiative alignment, a transparent, budget-aware bargaining procedure, and pilot it with role-played stakeholder agents plus a neutral mediator. Relative to the best base design under the same public rubric, the negotiated package increased total utility (21.10 to 24.55), raised the worst-group utility (3.20 to 3.90), improved twentieth percentile satisfaction (0.86 to 1.00; min-max normalized within the scenario), and reduced inequality (Gini 0.036 to 0.025). Treating disagreement as signal and reporting worst-group outcomes alongside totals may help planners and AI practitioners surface trade-offs and preserve minority priorities while maintaining efficiency.
- Abstract(参考訳): 都市アセスメントは、様々なニーズを単一のスコアに圧縮することが多く、少数派の視点を曖昧にすることができる。
モントリオールでコミュニティ中心の研究(n=35、車椅子利用者、高齢者、LGBTQIA2+住民、移民)を行う。
参加者は, アクセシビリティ, アクセシビリティ, アクセシビリティ, 審美性, 実用性) を20通り評価し, 面接対象の基準で7つの画像にランク付けした。
車椅子利用者はアクセシビリティと実用性に最も重点を置いており、LGBTQIA2以上の参加者は包括性や活力を重視しており、高齢者はセキュリティを優先していた。
グループディスカッションでは、情報のギャップは減ったが、価値の衝突は減った。
次に、交渉的アライメント、透明で予算に配慮した交渉手順を定式化し、ロールプレイされたステークホルダーエージェントと中立的な仲介者でそれを操縦します。
同じパブリック・ルーリックの下での最高のベースデザインとは対照的に、交渉されたパッケージはトータル・ユーティリティ(21.10から24.55)を増やし、最悪のグループ・ユーティリティ(3.20から3.90)を引き上げ、20パーセントの満足度(0.86から1.00、シナリオ内ではmin-max)を改善し、不平等を減らした(Gini 0.036から0.025)。
意見の不一致を信号として扱い、合計と共に最悪のグループの結果を報告することは、プランナーやAI実践者がトレードオフに遭遇し、少数派の優先事項を維持しながら効率を維持するのに役立つかもしれない。
関連論文リスト
- Alignment and Safety in Large Language Models: Safety Mechanisms, Training Paradigms, and Emerging Challenges [47.14342587731284]
本調査では,大規模言語モデル(LLM)アライメントにおけるアライメント手法,トレーニングプロトコル,経験的発見について概観する。
我々は多種多様なパラダイムをまたいだアライメント手法の開発を分析し、コアアライメント目標間の基本的なトレードオフを特徴づける。
我々は、直接選好最適化(DPO)、構成AI、脳インスパイアされた方法、アライメント不確実性定量化(AUQ)など、最先端技術について議論する。
論文 参考訳(メタデータ) (2025-07-25T20:52:58Z) - A Game-Theoretic Negotiation Framework for Cross-Cultural Consensus in LLMs [10.655783463895325]
大型言語モデル (LLMs) は、WEIRD (Western, Educated, Industrialized, Rich, Democratic) の文化的偏見を示す。
この単文化的な観点は、支配的な価値観を強化し、多様な文化的視点を疎外する可能性がある。
公正で堅牢な異文化間の合意を促進するために設計された体系的枠組みを導入する。
論文 参考訳(メタデータ) (2025-06-16T08:42:39Z) - Decoding Safety Feedback from Diverse Raters: A Data-driven Lens on Responsiveness to Severity [27.898678946802438]
本稿では,複数のデータセットの粒度評価を解釈するための新しいデータ駆動型手法を提案する。
安全違反の度合いの異なるレベルを評価する際に,レーダの整合性を定量化する非パラメトリック応答性指標を蒸留する。
提案手法は,異なる階層群をまたいだニュアンスな視点を捉えることで,レーダの選択やフィードバックの解釈に役立てることができることを示す。
論文 参考訳(メタデータ) (2025-03-07T17:32:31Z) - Urban Safety Perception Through the Lens of Large Multimodal Models: A Persona-based Approach [4.315451628809687]
本研究では,Llava 1.6 7Bと呼ばれるLarge Multimodal Models(LMM)を,都市空間の安全知覚を評価する新しいアプローチとして紹介する。
このモデルの平均F1スコアは59.21%に達し、都市のシナリオを安全または安全でないものとして分類した。
ペルソナをベースとしたプロンプトを取り入れた結果,年齢,性別,国籍の社会デノグラフィーグループにおいて,安全性の認知に有意な変化が認められた。
論文 参考訳(メタデータ) (2025-03-01T20:34:30Z) - The Hidden Strength of Disagreement: Unraveling the Consensus-Diversity Tradeoff in Adaptive Multi-Agent Systems [1.137572571250676]
エージェントが独立して情報交換を行う暗黙のコンセンサスは、動的環境においてより効果的である、と我々は主張する。
我々は、暗黙の手法が明示的な手法よりも優れている条件を示す、コンセンサスと多様性のトレードオフを定式化する。
我々は、回復力のある意思決定のために多様性を維持することの価値を強調し、文脈内学習による創発的な調整を強調した。
論文 参考訳(メタデータ) (2025-02-23T13:12:53Z) - Democratizing Reward Design for Personal and Representative Value-Alignment [10.1630183955549]
本稿では,対話型対話アライメント(Interactive-Reflective Dialogue Alignment)について紹介する。
本システムは,言語モデルに基づく嗜好誘導を通じて個々の価値定義を学習し,パーソナライズされた報酬モデルを構築する。
本研究は, 価値整合行動の多様な定義を示し, システムによって各人の独自の理解を正確に捉えることができることを示す。
論文 参考訳(メタデータ) (2024-10-29T16:37:01Z) - EARN Fairness: Explaining, Asking, Reviewing, and Negotiating Artificial Intelligence Fairness Metrics Among Stakeholders [5.216732191267959]
我々は、AIの専門知識を必要とせず、利害関係者間でのメトリクスの集合的決定を促進する新しいフレームワークEARN Fairnessを提案する。
このフレームワークは、適応可能なインタラクティブシステムと、公正度指標を説明するステークホルダ中心のEARNフェアネスプロセス、利害関係者の個人的メトリック選好、総括的メトリクス、メトリクス選択に関するコンセンサスを交渉する。
我々の研究によると、EARN Fairnessフレームワークは、利害関係者が個人の好みを表現し、合意に達することを可能にし、リスクの高い状況下で人間中心のAIフェアネスを実装するための実践的なガイダンスを提供する。
論文 参考訳(メタデータ) (2024-07-16T07:20:30Z) - The Impossibility of Fair LLMs [17.812295963158714]
さまざまな技術的公正フレームワークを分析し、公正な言語モデルの開発を難易度の高いものにするために、それぞれに固有の課題を見つけます。
それぞれのフレームワークが汎用的なAIコンテキストに拡張されないか、実際には実現不可能であることを示す。
これらの固有の課題は、LLMを含む汎用AIにおいて、限られた参加入力や限られた測定方法といった経験的な課題が克服されたとしても、持続する。
論文 参考訳(メタデータ) (2024-05-28T04:36:15Z) - Persona Inconstancy in Multi-Agent LLM Collaboration: Conformity, Confabulation, and Impersonation [16.82101507069166]
マルチエージェントAIシステムは、科学的および実践的な応用において、集合的な意思決定をシミュレートするために使用することができる。
我々は、相互協力や議論に携わるAIエージェントのアンサンブルについて、個人の反応やチャットの書き起こしを分析して検討する。
以上の結果から,複数エージェントによる議論が,多面的な視点を反映する集合的AI決定を支援することが示唆された。
論文 参考訳(メタデータ) (2024-05-06T21:20:35Z) - Disciplining Deliberation: A Sociotechnical Perspective on Machine Learning Trade-offs [0.0]
人工知能における2つの顕著なトレードオフは、予測精度と公正性、予測精度と解釈可能性の間のものである。
一般的な解釈では、これらの形式的なトレードオフは、根底にある社会的価値の間の緊張と直接的に対応していると見なされている。
トレードオフの価値を検証するための社会技術的アプローチを紹介します。
論文 参考訳(メタデータ) (2024-03-07T05:03:18Z) - AntEval: Evaluation of Social Interaction Competencies in LLM-Driven
Agents [65.16893197330589]
大規模言語モデル(LLM)は、幅広いシナリオで人間の振る舞いを再現する能力を示した。
しかし、複雑なマルチ文字のソーシャルインタラクションを扱う能力については、まだ完全には研究されていない。
本稿では,新しいインタラクションフレームワークと評価手法を含むマルチエージェントインタラクション評価フレームワーク(AntEval)を紹介する。
論文 参考訳(メタデータ) (2024-01-12T11:18:00Z) - GRASP: A Disagreement Analysis Framework to Assess Group Associations in Perspectives [18.574420136899978]
本稿では,グループ関係を,異なるレーダサブグループ間の視点で測定するための総合的不一致分析フレームワークGRASPを提案する。
本フレームワークは,特定のタスクにおいて他と大きく異なる視点を持つ特定のレーダ群を明らかにし,特定のタスクコンテキストにおいて考慮すべき人口動態の同定を支援する。
論文 参考訳(メタデータ) (2023-11-09T00:12:21Z) - Evaluating the Social Impact of Generative AI Systems in Systems and Society [43.32010533676472]
テキスト(コードを含む)、画像、オーディオ、ビデオなどを含むモダリティにまたがる生成AIシステムは、幅広い社会的影響を持つ。
これらの影響を評価するための公式な基準や、どの影響を評価するべきかの基準はありません。
本稿では,任意のモダリティに対して基本生成型AIシステムを評価するための,標準的なアプローチに向けたガイドを提案する。
論文 参考訳(メタデータ) (2023-06-09T15:05:13Z) - Heterogeneous Value Alignment Evaluation for Large Language Models [91.96728871418]
大規模言語モデル(LLM)は、その価値を人間のものと整合させることを重要視している。
本研究では,LLMと不均一値の整合性を評価するため,不均一値アライメント評価(HVAE)システムを提案する。
論文 参考訳(メタデータ) (2023-05-26T02:34:20Z) - Social Diversity Reduces the Complexity and Cost of Fostering Fairness [63.70639083665108]
不完全な情報や公平性の柔軟な基準を前提とした干渉機構の効果について検討する。
多様性の役割を定量化し、情報収集の必要性を減らす方法を示す。
この結果から,多様性が変化し,公正性向上を目指す機関に新たなメカニズムが開放されることが示唆された。
論文 参考訳(メタデータ) (2022-11-18T21:58:35Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Towards a multi-stakeholder value-based assessment framework for
algorithmic systems [76.79703106646967]
我々は、価値間の近さと緊張を可視化する価値に基づくアセスメントフレームワークを開発する。
我々は、幅広い利害関係者に評価と検討のプロセスを開放しつつ、それらの運用方法に関するガイドラインを提示する。
論文 参考訳(メタデータ) (2022-05-09T19:28:32Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Towards Quantifying the Distance between Opinions [66.29568619199074]
テキストの類似性のみに基づく測度や、全体の感情に基づく測度は、意見間の距離を効果的に捉えられないことが多い。
そこで本稿では,ニュアンス観測を生かした意見の類似性を捉えるための新しい距離尺度を提案する。
教師なしの環境では、既存の手法と比較して、調整ランダム指数のスコア(最大56倍)とシルエット係数(最大21倍)が大幅に向上する。
論文 参考訳(メタデータ) (2020-01-27T16:01:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。