論文の概要: How Different Groups Prioritize Ethical Values for Responsible AI
- arxiv url: http://arxiv.org/abs/2205.07722v1
- Date: Mon, 16 May 2022 14:39:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-17 17:34:09.884973
- Title: How Different Groups Prioritize Ethical Values for Responsible AI
- Title(参考訳): 責任あるAIに倫理的価値を優先するグループ
- Authors: Maurice Jakesch, Zana Bu\c{c}inca, Saleema Amershi, Alexandra Olteanu
- Abstract要約: 民間企業、公共セクター組織、学術団体は、責任あるAI技術にとって重要であると考える倫理的価値観を概説している。
彼らのレコメンデーションは中央値のセットに収束するが、より代表的な大衆が、彼らが交流し、影響を受ける可能性のあるAI技術にとって重要な価値についてはほとんど知られていない。
我々は、個人が3つのグループにまたがる責任あるAIの価値観をどのように認識し、優先順位付けしているかを調査した。
- 参考スコア(独自算出の注目度): 75.40051547428592
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Private companies, public sector organizations, and academic groups have
outlined ethical values they consider important for responsible artificial
intelligence technologies. While their recommendations converge on a set of
central values, little is known about the values a more representative public
would find important for the AI technologies they interact with and might be
affected by. We conducted a survey examining how individuals perceive and
prioritize responsible AI values across three groups: a representative sample
of the US population (N=743), a sample of crowdworkers (N=755), and a sample of
AI practitioners (N=175). Our results empirically confirm a common concern: AI
practitioners' value priorities differ from those of the general public.
Compared to the US-representative sample, AI practitioners appear to consider
responsible AI values as less important and emphasize a different set of
values. In contrast, self-identified women and black respondents found
responsible AI values more important than other groups. Surprisingly, more
liberal-leaning participants, rather than participants reporting experiences
with discrimination, were more likely to prioritize fairness than other groups.
Our findings highlight the importance of paying attention to who gets to define
responsible AI.
- Abstract(参考訳): 民間企業、公共機関、学術団体は、人工知能技術に責任があると考える倫理的価値を概説している。
彼らの推奨は一連の中央値に収束するが、より代表的な人々が相互作用するai技術にとって重要であり、影響を受ける可能性のある価値についてはほとんど知られていない。
本研究では,米国住民の代表的サンプル(n=743),群集労働者のサンプル(n=755),およびai実践者のサンプル(n=175)の3つのグループに対して,責任あるai値の認識と優先順位付けを行った。
我々の結果は共通の懸念を実証的に裏付けている。AI実践者の価値観の優先順位は一般大衆と異なる。
米国代表のサンプルと比較すると、AI実践者は責任あるAIの価値を重要視せず、異なる価値のセットを強調しているように見える。
対照的に、自己同一性のある女性と黒人の回答者は、責任あるaiの価値が他のグループよりも重要であると考えた。
意外なことに、差別の経験を報告する参加者よりもリベラルな参加者の方が、他のグループよりも公平を優先する傾向があった。
私たちの発見は、誰が責任あるAIを定義するかに注意を払うことの重要性を強調します。
関連論文リスト
- Exploring Public Opinion on Responsible AI Through The Lens of Cultural
Consensus Theory [0.1813006808606333]
文化合意理論を,AIの様々な側面に関する全国代表的調査データセットに適用した。
私たちの結果は、責任あるAIに関する共有とコントラストの見解を特定することで、貴重な洞察を与えます。
論文 参考訳(メタデータ) (2024-01-06T20:57:35Z) - Value Kaleidoscope: Engaging AI with Pluralistic Human Values, Rights, and Duties [68.66719970507273]
価値多元性とは、複数の正しい値が互いに緊張して保持されるという考え方である。
統計的学習者として、AIシステムはデフォルトで平均に適合する。
ValuePrismは、218kの値、権利、義務の大規模なデータセットで、31kの人間が記述した状況に関連付けられています。
論文 参考訳(メタデータ) (2023-09-02T01:24:59Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Ever heard of ethical AI? Investigating the salience of ethical AI
issues among the German population [0.0]
AIに対する一般的な関心と高等教育レベルは、AIとの関わりを予測している。
倫理的な問題は、公平さ、説明責任、透明性が最も言及されていない市民の小さなサブセットによってのみ語られる。
倫理的AIが頭上に立つと、アクティビズムの可能性がある。
論文 参考訳(メタデータ) (2022-07-28T13:46:13Z) - AI Ethics: An Empirical Study on the Views of Practitioners and
Lawmakers [8.82540441326446]
透明性、説明責任、プライバシは、AI倫理の最も重要な原則です。
倫理的知識の不足、法的枠組みの欠如、監視機関の欠如が、AI倫理の最も一般的な課題である。
論文 参考訳(メタデータ) (2022-06-30T17:24:29Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - AI-Ethics by Design. Evaluating Public Perception on the Importance of
Ethical Design Principles of AI [0.0]
倫理的原則が相互に重み付けされているかを検討する。
倫理的に設計されたシステムに対する異なる選好モデルが、ドイツ国民の間に存在していることを示す。
論文 参考訳(メタデータ) (2021-06-01T09:01:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。