論文の概要: Don't slip into binary thinking about AI
- arxiv url: http://arxiv.org/abs/2312.14230v1
- Date: Thu, 21 Dec 2023 17:50:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-25 17:15:33.490503
- Title: Don't slip into binary thinking about AI
- Title(参考訳): AIについて二進的思考に足を踏み入れるな
- Authors: Thorin Bristow and Luke Thorburn
- Abstract要約: AIの開発とガバナンスに関する議論では、しばしば2つのグループの間で偽のバイナリが引き出される。
この2つのグループ間の明確な区別が、精査の対象になっていない理由を説明します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In discussions about the development and governance of AI, a false binary is
often drawn between two groups: those most concerned about the existing, social
impacts of AI, and those most concerned about possible future risks of powerful
AI systems taking actions that don't align with human interests. In this piece,
we (i) describe the emergence of this false binary, (ii) explain why the
seemingly clean distinctions drawn between these two groups don't hold up under
scrutiny and (iii) highlight efforts to bridge this divide.
- Abstract(参考訳): AIの開発とガバナンスに関する議論では、AIの既存の社会的影響を最も心配するグループと、人間の関心と一致しない行動を取る強力なAIシステムの将来のリスクを最も心配するグループという2つのグループの間で、誤ったバイナリが描かれることが多い。
この作品では、
(i)この偽のバイナリの出現を記述する。
(二)この2つのグループの間で引き起こされた見かけ上清潔な区別が、精査を受けない理由を説明すること。
(iii)この分断を橋渡しする努力を強調する。
関連論文リスト
- Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
Particip-AIは、現在および将来のAIユースケースと、非専門家から損害と利益を収集するフレームワークである。
人口統計学的に多様な参加者295名から回答を得た。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Competent but Rigid: Identifying the Gap in Empowering AI to Participate
Equally in Group Decision-Making [25.913473823070863]
人間とAIの協調的な意思決定に関する既存の研究は、主にAIと個々の意思決定者との相互作用に焦点を当てている。
本稿では、2人の参加者と1人のAIが3つの英語エッセイをランク付けする委員会を結成するウィザード・オブ・オズ(Wizard-of-oz)研究について述べる。
論文 参考訳(メタデータ) (2023-02-17T11:07:17Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - The Who in XAI: How AI Background Shapes Perceptions of AI Explanations [61.49776160925216]
私たちは、2つの異なるグループ、つまりAIのバックグラウンドを持つ人々といない人たちの、異なるタイプのAI説明に対する理解について、混合手法による研究を行います。
その結果,(1) 両群は異なる理由から不合理な数に対する信頼を示し,(2) それぞれの群は意図した設計以上の異なる説明に価値を見出した。
論文 参考訳(メタデータ) (2021-07-28T17:32:04Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Bridging the Gap Between Explainable AI and Uncertainty Quantification
to Enhance Trustability [0.0]
説明可能なAIと不確かさの定量化という2つの研究方向がますます重要になっているが、これまで決して組み合わせられ、共同で研究されてきたことはない。
両方の研究領域が組み合わさる可能性、なぜこの方向にさらなる研究を行うべきなのか、そしてこれがAIシステムの信頼性向上につながるのかを示します。
論文 参考訳(メタデータ) (2021-05-25T10:53:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。