論文の概要: Tensions Between the Proxies of Human Values in AI
- arxiv url: http://arxiv.org/abs/2212.07508v1
- Date: Wed, 14 Dec 2022 21:13:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 16:26:21.795280
- Title: Tensions Between the Proxies of Human Values in AI
- Title(参考訳): AIにおける人的価値のプロキシ間の緊張
- Authors: Teresa Datta, Daniel Nissani, Max Cembalest, Akash Khanna, Haley
Massa, John P. Dickerson
- Abstract要約: AIコミュニティは、これらの柱の特定の定式化を選択するすべての結果を検討する必要がある、と私たちは主張する。
我々は,後者のフレームワークに関する社会工学的な研究をめざしているが,実際に実施するためには,より広範な努力が必要である。
- 参考スコア(独自算出の注目度): 20.303537771118048
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Motivated by mitigating potentially harmful impacts of technologies, the AI
community has formulated and accepted mathematical definitions for certain
pillars of accountability: e.g. privacy, fairness, and model transparency. Yet,
we argue this is fundamentally misguided because these definitions are
imperfect, siloed constructions of the human values they hope to proxy, while
giving the guise that those values are sufficiently embedded in our
technologies. Under popularized methods, tensions arise when practitioners
attempt to achieve each pillar of fairness, privacy, and transparency in
isolation or simultaneously. In this position paper, we push for redirection.
We argue that the AI community needs to consider all the consequences of
choosing certain formulations of these pillars -- not just the technical
incompatibilities, but also the effects within the context of deployment. We
point towards sociotechnical research for frameworks for the latter, but push
for broader efforts into implementing these in practice.
- Abstract(参考訳): テクノロジーの潜在的有害な影響を緩和することで動機づけられたAIコミュニティは、ある種の説明責任の柱であるプライバシー、公正性、モデルの透明性に関する数学的定義を定式化し、受け入れてきた。
しかし、これらの定義は不完全であり、彼らが推奨する人間の価値観のサイロ化された構成であり、その価値が我々の技術に十分に埋め込まれているというヒントを与えているからである。
一般的な方法の下では、実践者が公平さ、プライバシー、透明性の各柱を孤立または同時に達成しようとすると緊張が生じる。
本稿では,リダイレクトをプッシュする。
AIコミュニティは、技術的な非互換性だけでなく、デプロイメントのコンテキストにおける影響においても、これらの柱の特定の定式化を選択することによるすべての結果を検討する必要がある、と私たちは主張する。
我々は、後者のフレームワークの社会学的研究に向けているが、実際にこれらを実装するためのより広範な取り組みを推し進めている。
関連論文リスト
- Disciplining deliberation: a sociotechnical perspective on machine
learning trade-offs [0.0]
本稿では、責任ある人工知能(AI)分野における2つの高度に公表された正式なトレードオフに焦点を当てる。
これらの考慮を無視することは、私たちの規範的熟考を歪め、費用がかかり、不一致の介入や正当化をもたらすことを示します。
最終的には、これらの考慮から生まれる規範的な機会と課題を抽出し、責任あるAIを育むための学際的なコラボレーションの衝動を強調します。
論文 参考訳(メタデータ) (2024-03-07T05:03:18Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Predictable Artificial Intelligence [67.79118050651908]
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠である、と私たちは主張する。
本稿では,予測可能なAIに関する疑問,仮説,課題を解明することを目的とする。
論文 参考訳(メタデータ) (2023-10-09T21:36:21Z) - On the meaning of uncertainty for ethical AI: philosophy and practice [10.591284030838146]
これは、数学的推論に倫理的考察をもたらす重要な方法であると主張する。
我々は、2021年12月のOmicron型COVID-19の拡散について、英国政府に助言するために使用される競合モデルの文脈内でこれらのアイデアを実証する。
論文 参考訳(メタデータ) (2023-09-11T15:13:36Z) - Human Values in Multiagent Systems [3.5027291542274357]
本稿では,社会科学における価値の形式的表現について述べる。
我々は,この形式的表現を用いて,マルチエージェントシステムにおける価値整合性を実現する上で重要な課題を明確化する。
論文 参考訳(メタデータ) (2023-05-04T11:23:59Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Factoring the Matrix of Domination: A Critical Review and Reimagination
of Intersectionality in AI Fairness [55.037030060643126]
間欠性は、社会的不平等の持続性を調べるための重要な枠組みである。
我々は、公平性を効果的に運用するために、交差性を分析的枠組みとして採用することが重要であると論じる。
論文 参考訳(メタデータ) (2023-03-16T21:02:09Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Voluntary safety commitments provide an escape from over-regulation in
AI development [8.131948859165432]
この研究は、ピアまたは機関による制裁による自発的なコミットメントが、社会的に有益な結果をもたらすことを初めて明らかにしている。
結果は、倫理的で責任あるAI技術開発プロセスを保証することを目的としたガバナンスと規制ポリシーの設計に直接関係しています。
論文 参考訳(メタデータ) (2021-04-08T12:54:56Z) - Joint Optimization of AI Fairness and Utility: A Human-Centered Approach [45.04980664450894]
我々は、異なる公正基準を同時に満たすことができないことがあるため、これらの目標間のトレードオフをどう行うかという人間の政策立案者の好みに固執することが鍵であると主張している。
このような嗜好を抽出し、これらの嗜好に応じてAIモデルを最適化するためのフレームワークといくつかの模範的手法を提案する。
論文 参考訳(メタデータ) (2020-02-05T03:31:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。