論文の概要: Disciplining Deliberation: A Sociotechnical Perspective on Machine Learning Trade-offs
- arxiv url: http://arxiv.org/abs/2403.04226v2
- Date: Fri, 20 Dec 2024 19:22:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 15:53:03.435788
- Title: Disciplining Deliberation: A Sociotechnical Perspective on Machine Learning Trade-offs
- Title(参考訳): 議論の沈静化: 機械学習のトレードオフに関する社会技術的視点
- Authors: Sina Fazelpour,
- Abstract要約: 人工知能における2つの顕著なトレードオフは、予測精度と公正性、予測精度と解釈可能性の間のものである。
一般的な解釈では、これらの形式的なトレードオフは、根底にある社会的価値の間の緊張と直接的に対応していると見なされている。
トレードオフの価値を検証するための社会技術的アプローチを紹介します。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This paper examines two prominent formal trade-offs in artificial intelligence (AI) -- between predictive accuracy and fairness, and between predictive accuracy and interpretability. These trade-offs have become a central focus in normative and regulatory discussions as policymakers seek to understand the value tensions that can arise in the social adoption of AI tools. The prevailing interpretation views these formal trade-offs as directly corresponding to tensions between underlying social values, implying unavoidable conflicts between those social objectives. In this paper, I challenge that prevalent interpretation by introducing a sociotechnical approach to examining the value implications of trade-offs. Specifically, I identify three key considerations -- validity and instrumental relevance, compositionality, and dynamics -- for contextualizing and characterizing these implications. These considerations reveal that the relationship between model trade-offs and corresponding values depends on critical choices and assumptions. Crucially, judicious sacrifices in one model property for another can, in fact, promote both sets of corresponding values. The proposed sociotechnical perspective thus shows that we can and should aspire to higher epistemic and ethical possibilities than the prevalent interpretation suggests, while offering practical guidance for achieving those outcomes. Finally, I draw out the broader implications of this perspective for AI design and governance, highlighting the need to broaden normative engagement across the AI lifecycle, develop legal and auditing tools sensitive to sociotechnical considerations, and rethink the vital role and appropriate structure of interdisciplinary collaboration in fostering a responsible AI workforce.
- Abstract(参考訳): 本稿では,人工知能(AI)において,予測精度と公正性,予測精度と解釈可能性の2つの顕著なトレードオフについて検討する。
政策立案者は、AIツールの社会的採用で生じる価値の緊張について理解しようとするため、これらのトレードオフは規範的および規制的な議論の中心となっている。
一般的な解釈では、これらの形式的なトレードオフは、根底にある社会的価値間の緊張と直接的に対応するものであり、これらの社会的目的の間の不可避の衝突を示唆している。
本稿では,社会工学的アプローチを導入して,トレードオフの価値含意を検証し,その解釈に挑戦する。
具体的には、これらの意味を文脈化し特徴づけるための3つの重要な考慮事項、すなわち妥当性とインストゥルメンタルな関連性、構成性、ダイナミクスを特定します。
これらの考察は、モデルトレードオフと対応する値の関係が重要な選択と仮定に依存することを示している。
重要なことに、あるモデルプロパティの別のモデルプロパティにおける司法的犠牲は、実際には、両方の対応する値のセットを促進することができる。
提案した社会技術的視点は、これらの成果を達成するための実践的なガイダンスを提供しながら、一般的な解釈よりも高い疫学的および倫理的可能性への願望を示すものである。
最後に、AI設計とガバナンスに対するこの視点のより広い意味を指摘し、AIライフサイクル全体にわたって規範的エンゲージメントを広げる必要性を強調し、社会技術的考察に敏感な法的および監査ツールを開発し、責任あるAI労働者を育成する上での学際的コラボレーションの不可欠な役割と適切な構造を再考する。
関連論文リスト
- Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Responsible AI Considerations in Text Summarization Research: A Review
of Current Practices [89.85174013619883]
私たちは、責任あるAIコミュニティがほとんど見落としている共通のNLPタスクである、テキスト要約に重点を置いています。
我々は,2020-2022年に出版されたACLアンソロジーから333の要約論文の多段階的質的分析を行った。
私たちは、どの、どの、どの責任あるAI問題がカバーされているか、どの関係するステークホルダーが考慮されているか、そして、述べられた研究目標と実現された研究目標のミスマッチに焦点を合わせます。
論文 参考訳(メタデータ) (2023-11-18T15:35:36Z) - Queering the ethics of AI [0.6993026261767287]
この章は、AIが差別を永続させる可能性をめぐる倫理的懸念を強調している。
この章は、しばしば非差別法を支える平等の概念に対する批判的な検証が必要であると主張している。
論文 参考訳(メタデータ) (2023-08-25T17:26:05Z) - Reconciling Predictive and Statistical Parity: A Causal Approach [68.59381759875734]
本稿では,予測パリティに付随する公平度対策のための因果分解式を提案する。
統計的および予測パリティの概念は、実際には互いに排他的ではなく、相補的であり、公正の概念のスペクトルにまたがっていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:23:22Z) - Stronger Together: on the Articulation of Ethical Charters, Legal Tools,
and Technical Documentation in ML [5.433040083728602]
AIシステムの背後にいる人々の説明責任の必要性は、倫理、法、コンピュータサイエンスの3つの分野のプロセスを活用することで解決することができる。
まず、倫理、法律、技術分野におけるコンプライアンスの概念を対比する。
次に、フィールド間のシナジーを明確にする上での値の役割に焦点をあてる。
論文 参考訳(メタデータ) (2023-05-09T15:35:31Z) - Implementing Responsible AI: Tensions and Trade-Offs Between Ethics Aspects [21.133468554780404]
我々は、多種多様な文献にまたがるサポートに焦点をあてて、双方向のインタラクションに焦点をあてる。
このカタログは、倫理原則の側面間の相互作用の可能性の認識を高めるのに役立つ。
論文 参考訳(メタデータ) (2023-04-17T13:43:13Z) - Factoring the Matrix of Domination: A Critical Review and Reimagination
of Intersectionality in AI Fairness [55.037030060643126]
間欠性は、社会的不平等の持続性を調べるための重要な枠組みである。
我々は、公平性を効果的に運用するために、交差性を分析的枠組みとして採用することが重要であると論じる。
論文 参考訳(メタデータ) (2023-03-16T21:02:09Z) - Tensions Between the Proxies of Human Values in AI [20.303537771118048]
AIコミュニティは、これらの柱の特定の定式化を選択するすべての結果を検討する必要がある、と私たちは主張する。
我々は,後者のフレームワークに関する社会工学的な研究をめざしているが,実際に実施するためには,より広範な努力が必要である。
論文 参考訳(メタデータ) (2022-12-14T21:13:48Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Towards a multi-stakeholder value-based assessment framework for
algorithmic systems [76.79703106646967]
我々は、価値間の近さと緊張を可視化する価値に基づくアセスメントフレームワークを開発する。
我々は、幅広い利害関係者に評価と検討のプロセスを開放しつつ、それらの運用方法に関するガイドラインを提示する。
論文 参考訳(メタデータ) (2022-05-09T19:28:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。