論文の概要: Measurement as governance in and for responsible AI
- arxiv url: http://arxiv.org/abs/2109.05658v1
- Date: Mon, 13 Sep 2021 01:04:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-15 05:34:00.304318
- Title: Measurement as governance in and for responsible AI
- Title(参考訳): ガバナンスとしての計測と責任AI
- Authors: Abigail Z. Jacobs
- Abstract要約: 社会現象の測定は、社会技術システムでは必然的に至る所で行われている。
私たちは、隠れたガバナンス決定を明らかにするために測定言語を使用します。
次に、ガバナンスの文脈における公平性、堅牢性、責任の構成と責任AIについて調べます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Measurement of social phenomena is everywhere, unavoidably, in sociotechnical
systems. This is not (only) an academic point: Fairness-related harms emerge
when there is a mismatch in the measurement process between the thing we
purport to be measuring and the thing we actually measure. However, the
measurement process -- where social, cultural, and political values are
implicitly encoded in sociotechnical systems -- is almost always obscured.
Furthermore, this obscured process is where important governance decisions are
encoded: governance about which systems are fair, which individuals belong in
which categories, and so on. We can then use the language of measurement, and
the tools of construct validity and reliability, to uncover hidden governance
decisions. In particular, we highlight two types of construct validity, content
validity and consequential validity, that are useful to elicit and characterize
the feedback loops between the measurement, social construction, and
enforcement of social categories. We then explore the constructs of fairness,
robustness, and responsibility in the context of governance in and for
responsible AI. Together, these perspectives help us unpack how measurement
acts as a hidden governance process in sociotechnical systems. Understanding
measurement as governance supports a richer understanding of the governance
processes already happening in AI -- responsible or otherwise -- revealing
paths to more effective interventions.
- Abstract(参考訳): 社会現象の測定は、社会技術システムでは必然的に至る所で行われている。
これは(単に)アカデミックなポイントではない: フェアネスに関連する害は、私たちが測定しようとしているものと実際に測定するものとの間に測定プロセスにミスマッチがあるときに生じます。
しかし、社会的、文化的、政治的価値が暗黙的に社会技術システムにコード化されている測定プロセスは、ほとんど常に曖昧である。
さらに、この曖昧なプロセスでは、重要なガバナンス決定がコード化される。どのシステムが公平であるか、どの個人がどのカテゴリに属しているか、などに関するガバナンス。
そして、測定の言語と、妥当性と信頼性を構築するツールを使用して、隠れたガバナンス決定を明らかにすることができます。
特に,測定,社会的構成,社会的カテゴリーの実施の間のフィードバックループを解明し,特徴付けるのに有用な2種類の構成妥当性,内容妥当性,系列妥当性を強調する。
次に、責任あるaiにおけるガバナンスのコンテキストにおいて、公平性、堅牢性、責任の構造を探求する。
これらの視点は、社会技術システムにおいて、計測が隠れたガバナンスプロセスとしてどのように振る舞うかを明らかにするのに役立ちます。
ガバナンスとしての計測を理解することは、AIですでに起こっているガバナンスプロセスのより豊かな理解を支援する。
関連論文リスト
- Position: Evaluating Generative AI Systems is a Social Science Measurement Challenge [78.35388859345056]
我々は,MLコミュニティが,GenAIシステム評価のための計測機器を開発する際に,社会科学の学習と図面の恩恵を受けることを論じる。
我々は,GenAIの能力,行動,および影響に関する概念を測定するための,社会科学からの計測理論に基づく4段階の枠組みを提案する。
論文 参考訳(メタデータ) (2025-02-01T21:09:51Z) - Evaluating Generative AI Systems is a Social Science Measurement Challenge [78.35388859345056]
我々は,GenAIシステムの能力,影響,機会,リスクに関連する概念を測定するための枠組みを提案する。
このフレームワークは、背景概念、体系化された概念、測定器、インスタンスレベルの測定そのものの4つのレベルを区別する。
論文 参考訳(メタデータ) (2024-11-17T02:35:30Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Factoring the Matrix of Domination: A Critical Review and Reimagination
of Intersectionality in AI Fairness [55.037030060643126]
間欠性は、社会的不平等の持続性を調べるための重要な枠組みである。
我々は、公平性を効果的に運用するために、交差性を分析的枠組みとして採用することが重要であると論じる。
論文 参考訳(メタデータ) (2023-03-16T21:02:09Z) - Transparency, Compliance, And Contestability When Code Is(n't) Law [91.85674537754346]
技術的なセキュリティ機構と法的なプロセスの両方が、一連の規範に従って誤った行動を扱うメカニズムとして機能する。
彼らは一般的な類似点を共有しているが、どう定義されているか、行動し、被験者に与える影響にも明確な違いがある。
本稿では,両機構の類似点と相違点を,誤動作の対処方法として考察する。
論文 参考訳(メタデータ) (2022-05-08T18:03:07Z) - Multiscale Governance [0.0]
ヒトデミクスは、異なるシステムを結ぶ経路のために伝播する。
システムの脆弱性や堅牢性は、この複雑なシステムのネットワークがどのように管理されているかによって異なります。
論文 参考訳(メタデータ) (2021-04-06T19:23:44Z) - Outlining Traceability: A Principle for Operationalizing Accountability
in Computing Systems [1.0152838128195467]
トレーサビリティには、システムの動作方法だけでなく、その生成方法や目的の確立が必要です。
トレーサビリティは、システムがどのように構築され、システムが機械的に何をしたかの記録を、より広範なガバナンスの目標に結びつけます。
このマップは、説明責任と透明性に関する既存の議論を再構築し、トレーサビリティの原則を使用して、説明責任の目標を達成するために透明性をデプロイする方法、時期、理由を示す。
論文 参考訳(メタデータ) (2021-01-23T00:13:20Z) - Accuracy-Efficiency Trade-Offs and Accountability in Distributed ML
Systems [32.79201607581628]
正確性と効率性の間のトレードオフ 法、公衆衛生、その他の非計算領域。
これらのトレードオフを調べることは、他のドメインのガバナンスを導くのに有用であるので、コンピュータシステムを管理する上でも同様にこれらのトレードオフに言及する必要がある、と私たちは主張する。
論文 参考訳(メタデータ) (2020-07-04T23:00:52Z) - Steps Towards Value-Aligned Systems [0.0]
AI/MLを含む)アルゴリズムによる意思決定アーティファクトは、私たちの意思決定エコシステムの確立され成長している部分です。
現在の文献は、個々のアーティファクトが社会的規範や期待にどのように違反するかの例でいっぱいです。
この議論は、社会技術システムにおける価値アライメントを評価するためのより構造化されたシステムレベルのアプローチを論じている。
論文 参考訳(メタデータ) (2020-02-10T22:47:30Z) - Learning from Learning Machines: Optimisation, Rules, and Social Norms [91.3755431537592]
経済的な実体の行動に最も類似したAIの領域は道徳的に良い意思決定の領域であるようだ。
近年のAIにおけるディープラーニングの成功は、そのような問題を解決するための明示的な仕様よりも暗黙的な仕様の方が優れていることを示唆している。
論文 参考訳(メタデータ) (2019-12-29T17:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。