論文の概要: Disciplining deliberation: a sociotechnical perspective on machine
learning trade-offs
- arxiv url: http://arxiv.org/abs/2403.04226v1
- Date: Thu, 7 Mar 2024 05:03:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-08 15:03:03.692991
- Title: Disciplining deliberation: a sociotechnical perspective on machine
learning trade-offs
- Title(参考訳): シンポジウム:機械学習のトレードオフに関する社会技術的視点
- Authors: Sina Fazelpour
- Abstract要約: 本稿では、責任ある人工知能(AI)分野における2つの高度に公表された正式なトレードオフに焦点を当てる。
これらの考慮を無視することは、私たちの規範的熟考を歪め、費用がかかり、不一致の介入や正当化をもたらすことを示します。
最終的には、これらの考慮から生まれる規範的な機会と課題を抽出し、責任あるAIを育むための学際的なコラボレーションの衝動を強調します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper focuses on two highly publicized formal trade-offs in the field of
responsible artificial intelligence (AI) -- between predictive accuracy and
fairness and between predictive accuracy and interpretability. These formal
trade-offs are often taken by researchers, practitioners, and policy-makers to
directly imply corresponding tensions between underlying values. Thus
interpreted, the trade-offs have formed a core focus of normative engagement in
AI governance, accompanied by a particular division of labor along disciplinary
lines. This paper argues against this prevalent interpretation by drawing
attention to three sets of considerations that are critical for bridging the
gap between these formal trade-offs and their practical impacts on relevant
values. I show how neglecting these considerations can distort our normative
deliberations, and result in costly and misaligned interventions and
justifications. Taken together, these considerations form a sociotechnical
framework that could guide those involved in AI governance to assess how, in
many cases, we can and should have higher aspirations than the prevalent
interpretation of the trade-offs would suggest. I end by drawing out the
normative opportunities and challenges that emerge out of these considerations,
and highlighting the imperative of interdisciplinary collaboration in fostering
responsible AI.
- Abstract(参考訳): 本稿では,責任ある人工知能(ai)の分野において,予測精度と公平性,予測精度と解釈可能性の2つの高度に公表された形式的トレードオフに焦点を当てる。
これらの正式なトレードオフは、しばしば研究者、実践者、政策立案者によって、基礎となる価値間の緊張を直接暗示するために取られる。
このように、トレードオフはAIガバナンスにおける規範的関与の核心となる焦点を形成し、規律の線に沿って特定の分業を伴っている。
本稿では,この一般的な解釈に対して,形式的トレードオフとそれに関連する価値への影響を橋渡しする上で重要な3つの考慮事項に注意を向けて論じる。
これらの考察を無視することで、我々の規範的な熟考を歪め、コストと不一致の介入と正当化につながるかを示します。
総合すると、これらの考察は、aiガバナンスに関わる人たちを導く社会学的枠組みを形成し、多くの場合において、トレードオフの一般的な解釈よりも高い願望を持つことを評価できる。
最終的には、これらの考慮から生まれる規範的な機会と課題を抽出し、責任あるAIを育むための学際的なコラボレーションの衝動を強調します。
関連論文リスト
- Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Responsible AI Considerations in Text Summarization Research: A Review
of Current Practices [89.85174013619883]
私たちは、責任あるAIコミュニティがほとんど見落としている共通のNLPタスクである、テキスト要約に重点を置いています。
我々は,2020-2022年に出版されたACLアンソロジーから333の要約論文の多段階的質的分析を行った。
私たちは、どの、どの、どの責任あるAI問題がカバーされているか、どの関係するステークホルダーが考慮されているか、そして、述べられた研究目標と実現された研究目標のミスマッチに焦点を合わせます。
論文 参考訳(メタデータ) (2023-11-18T15:35:36Z) - Queering the ethics of AI [0.6993026261767287]
この章は、AIが差別を永続させる可能性をめぐる倫理的懸念を強調している。
この章は、しばしば非差別法を支える平等の概念に対する批判的な検証が必要であると主張している。
論文 参考訳(メタデータ) (2023-08-25T17:26:05Z) - Reconciling Predictive and Statistical Parity: A Causal Approach [68.59381759875734]
本稿では,予測パリティに付随する公平度対策のための因果分解式を提案する。
統計的および予測パリティの概念は、実際には互いに排他的ではなく、相補的であり、公正の概念のスペクトルにまたがっていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:23:22Z) - Stronger Together: on the Articulation of Ethical Charters, Legal Tools,
and Technical Documentation in ML [5.433040083728602]
AIシステムの背後にいる人々の説明責任の必要性は、倫理、法、コンピュータサイエンスの3つの分野のプロセスを活用することで解決することができる。
まず、倫理、法律、技術分野におけるコンプライアンスの概念を対比する。
次に、フィールド間のシナジーを明確にする上での値の役割に焦点をあてる。
論文 参考訳(メタデータ) (2023-05-09T15:35:31Z) - Implementing Responsible AI: Tensions and Trade-Offs Between Ethics Aspects [21.133468554780404]
我々は、多種多様な文献にまたがるサポートに焦点をあてて、双方向のインタラクションに焦点をあてる。
このカタログは、倫理原則の側面間の相互作用の可能性の認識を高めるのに役立つ。
論文 参考訳(メタデータ) (2023-04-17T13:43:13Z) - Factoring the Matrix of Domination: A Critical Review and Reimagination
of Intersectionality in AI Fairness [55.037030060643126]
間欠性は、社会的不平等の持続性を調べるための重要な枠組みである。
我々は、公平性を効果的に運用するために、交差性を分析的枠組みとして採用することが重要であると論じる。
論文 参考訳(メタデータ) (2023-03-16T21:02:09Z) - Tensions Between the Proxies of Human Values in AI [20.303537771118048]
AIコミュニティは、これらの柱の特定の定式化を選択するすべての結果を検討する必要がある、と私たちは主張する。
我々は,後者のフレームワークに関する社会工学的な研究をめざしているが,実際に実施するためには,より広範な努力が必要である。
論文 参考訳(メタデータ) (2022-12-14T21:13:48Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Towards a multi-stakeholder value-based assessment framework for
algorithmic systems [76.79703106646967]
我々は、価値間の近さと緊張を可視化する価値に基づくアセスメントフレームワークを開発する。
我々は、幅広い利害関係者に評価と検討のプロセスを開放しつつ、それらの運用方法に関するガイドラインを提示する。
論文 参考訳(メタデータ) (2022-05-09T19:28:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。