論文の概要: From Bias Mitigation to Bias Negotiation: Governing Identity and Sociocultural Reasoning in Generative AI
- arxiv url: http://arxiv.org/abs/2602.18459v1
- Date: Thu, 05 Feb 2026 21:20:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 07:21:25.583723
- Title: From Bias Mitigation to Bias Negotiation: Governing Identity and Sociocultural Reasoning in Generative AI
- Title(参考訳): バイアス緩和からバイアスネゴシエーションへ:ジェネレーティブAIにおけるアイデンティティと社会文化的推論の排除
- Authors: Zackary Okun Dunivin, Bingyi Han, John Bollenbocher,
- Abstract要約: LLMは、社会的状況を理解し、行動可能にするために、共通の文化的パターンを描き、社会的世界で行動する。
アイデンティティは、しばしば有能な判断の推論基盤の一部である。
アイデンティティ関連の害に対する支配的な統治体制は、バイアス緩和のままである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: LLMs act in the social world by drawing upon shared cultural patterns to make social situations understandable and actionable. Because identity is often part of the inferential substrate of competent judgment, ethical alignment requires regulating when and how systems invoke identity. Yet the dominant governance regime for identity-related harm remains bias mitigation, which treats identity primarily as a source of measurable disparities or harmful associations to be detected and suppressed. This leaves underspecified a positive, context-sensitive role for identity in interpretation. We call this governance problem bias negotiation: the normative regulation of identity-conditioned judgments of sociocultural relevance, inference, and justification. Empirically, we probe the feasibility of bias negotiation through semi-structured interviews with multiple publicly deployed chatbots. We identify recurring repertoires for negotiating identity including probabilistic framing of group tendencies and harm-value balancing. We also observe failure modes in which models avoid hard tradeoffs or apply principles inconsistently. Bias negotiation matters for justice because a positive role for sociocultural reasoning is required to recognize and potentially remediate structural inequities. But it is equally implicated in core model functionality as sociocultural competence is needed for systems that operate across heterogeneous cultural contexts. Because bias negotiation is a procedural capability expressed through deliberation and interaction, it cannot be validated by static benchmarks alone. To support targeted training, we introduce a broad but explicit framework that decomposes bias negotiation into an action space of negotiation moves (what to observe and score) and a complementary set of case features (over which the model negotiates), enabling systematic test-suite design and evaluation.
- Abstract(参考訳): LLMは、社会的状況を理解し、行動可能にするために、共通の文化的パターンを描き、社会的世界で行動する。
アイデンティティは、しばしば有能な判断の推論基盤の一部であるため、倫理的アライメントは、システムがアイデンティティをいつ、どのように呼び出すかを制御する必要がある。
しかし、アイデンティティ関連の害に対する支配的な統治体制は偏見を緩和し続けており、アイデンティティを主に検出・抑制される測定可能な格差や有害な関連の源として扱う。
このことは、解釈におけるアイデンティティに対する肯定的で文脈に敏感な役割を過小評価している。
我々は、このガバナンス問題バイアス交渉を、社会文化的関連性、推論、正当化のアイデンティティ条件による判断の規範的規制と呼んでいる。
実証的に,複数の公開チャットボットとの半構造化インタビューを通じて,バイアス交渉の実現可能性について検討する。
我々は,グループ傾向の確率的フレーミングや調和値のバランスなど,アイデンティティを交渉するための繰り返しレパートリーを同定した。
また、モデルがハードトレードオフを避けたり、原則を矛盾なく適用したりする失敗モードも観察します。
バイアス交渉は、社会文化的推論における肯定的な役割が、構造的不平等を認識し、再考するために必要となるため、正義のために重要である。
しかし、異質な文化的文脈で機能するシステムには、社会文化的能力が必要とされるため、コアモデル機能に等しく関係している。
バイアスネゴシエーションは、熟考と相互作用を通して表現される手続き的能力であるため、静的ベンチマークだけでは検証できない。
対象学習を支援するために, 偏見交渉を交渉行動空間(観察・採点方法)に分解する広範かつ明示的な枠組みと, モデルが交渉する事例の特徴の補足セットを導入し, 系統的なテスト適合設計と評価を可能にした。
関連論文リスト
- Position: General Alignment Has Hit a Ceiling; Edge Alignment Must Be Taken Seriously [51.03213216886717]
我々は、一般的なアライメントの支配的なパラダイムが、矛盾する値の設定において構造的な天井に達するという立場を取る。
エッジアライメント(Edge Alignment)は,多次元の値構造を保持するシステムにおいて,異なるアプローチである。
論文 参考訳(メタデータ) (2026-02-23T16:51:43Z) - Mirror: A Multi-Agent System for AI-Assisted Ethics Review [104.3684024153469]
MirrorはAIによる倫理的レビューのためのエージェントフレームワークである。
倫理的推論、構造化された規則解釈、統合されたアーキテクチャ内でのマルチエージェントの議論を統合する。
論文 参考訳(メタデータ) (2026-02-09T03:38:55Z) - The Epistemological Consequences of Large Language Models: Rethinking collective intelligence and institutional knowledge [0.0]
我々は、二重プロセス理論を背景として、人間集団に分散した合理性理論を開発する。
我々は、命題が真である理由の反射的理解として定義される内部主義者の正当性と、真理の信頼できる伝達として定義される外部主義者の正当性とを区別する。
LLMは、他所で正当な根拠が確立されている情報を確実に伝達できるため、外部主義的信頼性を近似するが、それ自身は反射的正当性を持っていない。
論文 参考訳(メタデータ) (2025-12-22T16:52:37Z) - EMBRACE: Shaping Inclusive Opinion Representation by Aligning Implicit Conversations with Social Norms [0.14323566945483493]
本研究の目的は、アライメント評価フレームワークを導入することで、NLPや計算モデルで意見がどのように表現されるかを評価することである。
我々のアプローチは、反応のスタンスを基礎となる意見の代理としてモデル化し、多様な社会的視点を考慮し、反映した表現を可能にする。
論文 参考訳(メタデータ) (2025-07-27T13:21:07Z) - The AI Fairness Myth: A Position Paper on Context-Aware Bias [0.0]
フェアネスは、歴史的に疎外されたグループに対して、意図的かつ文脈に配慮した優遇措置を必要とする場合もある、と我々は主張する。
偏見を排除の欠陥と見なすのではなく、是正的、意図的な偏見を受け入れる枠組みを提案する。
論文 参考訳(メタデータ) (2025-05-02T02:47:32Z) - On the Fairness, Diversity and Reliability of Text-to-Image Generative Models [68.62012304574012]
マルチモーダル生成モデルは 信頼性 公正性 誤用の可能性について 批判的な議論を巻き起こしました
埋め込み空間におけるグローバルおよびローカルな摂動に対する応答を解析し、モデルの信頼性を評価するための評価フレームワークを提案する。
提案手法は, 信頼できない, バイアス注入されたモデルを検出し, 組込みバイアスの証明をトレースするための基礎となる。
論文 参考訳(メタデータ) (2024-11-21T09:46:55Z) - Disciplining Deliberation: A Sociotechnical Perspective on Machine Learning Trade-offs [0.0]
人工知能における2つの顕著なトレードオフは、予測精度と公正性、予測精度と解釈可能性の間のものである。
一般的な解釈では、これらの形式的なトレードオフは、根底にある社会的価値の間の緊張と直接的に対応していると見なされている。
トレードオフの価値を検証するための社会技術的アプローチを紹介します。
論文 参考訳(メタデータ) (2024-03-07T05:03:18Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Factoring the Matrix of Domination: A Critical Review and Reimagination
of Intersectionality in AI Fairness [55.037030060643126]
間欠性は、社会的不平等の持続性を調べるための重要な枠組みである。
我々は、公平性を効果的に運用するために、交差性を分析的枠組みとして採用することが重要であると論じる。
論文 参考訳(メタデータ) (2023-03-16T21:02:09Z) - Evaluate Confidence Instead of Perplexity for Zero-shot Commonsense
Reasoning [85.1541170468617]
本稿では,コモンセンス推論の性質を再考し,新しいコモンセンス推論尺度であるNon-Replacement Confidence(NRC)を提案する。
提案手法は,2つのコモンセンス推論ベンチマークデータセットと,さらに7つのコモンセンス質問応答データセットに対してゼロショット性能を向上する。
論文 参考訳(メタデータ) (2022-08-23T14:42:14Z) - Towards a multi-stakeholder value-based assessment framework for
algorithmic systems [76.79703106646967]
我々は、価値間の近さと緊張を可視化する価値に基づくアセスメントフレームワークを開発する。
我々は、幅広い利害関係者に評価と検討のプロセスを開放しつつ、それらの運用方法に関するガイドラインを提示する。
論文 参考訳(メタデータ) (2022-05-09T19:28:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。