論文の概要: A Systematic Literature Review of Human-Centered, Ethical, and
Responsible AI
- arxiv url: http://arxiv.org/abs/2302.05284v3
- Date: Mon, 26 Jun 2023 12:46:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-27 23:38:19.806846
- Title: A Systematic Literature Review of Human-Centered, Ethical, and
Responsible AI
- Title(参考訳): 人間中心的、倫理的、責任あるaiに関する体系的文献レビュー
- Authors: Mohammad Tahaei, Marios Constantinides, Daniele Quercia, Michael
Muller
- Abstract要約: 我々は、AIの倫理的、社会的、人的要因に関する主要な会議から164の論文をレビューし分析する。
私たちは、AI研究におけるガバナンスと公正性に現在重点を置いていることは、AIの予期せぬ、未知の意味に適切に対処しないかもしれないことに気付きました。
- 参考スコア(独自算出の注目度): 12.456385305888341
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: As Artificial Intelligence (AI) continues to advance rapidly, it becomes
increasingly important to consider AI's ethical and societal implications. In
this paper, we present a bottom-up mapping of the current state of research at
the intersection of Human-Centered AI, Ethical, and Responsible AI (HCER-AI) by
thematically reviewing and analyzing 164 research papers from leading
conferences in ethical, social, and human factors of AI: AIES, CHI, CSCW, and
FAccT. The ongoing research in HCER-AI places emphasis on governance, fairness,
and explainability. These conferences, however, concentrate on specific themes
rather than encompassing all aspects. While AIES has fewer papers on HCER-AI,
it emphasizes governance and rarely publishes papers about privacy, security,
and human flourishing. FAccT publishes more on governance and lacks papers on
privacy, security, and human flourishing. CHI and CSCW, as more established
conferences, have a broader research portfolio. We find that the current
emphasis on governance and fairness in AI research may not adequately address
the potential unforeseen and unknown implications of AI. Therefore, we
recommend that future research should expand its scope and diversify resources
to prepare for these potential consequences. This could involve exploring
additional areas such as privacy, security, human flourishing, and
explainability.
- Abstract(参考訳): 人工知能(AI)は急速に進歩し続けており、AIの倫理的・社会的意味を考えることがますます重要になっている。
本稿では,AIの倫理的,社会的,人的要因に関する主要な会議であるAIES,CHI,CSCW,FAccTから164の論文を理論的にレビューし,分析することにより,人間中心AI,倫理的,責任AI(HCER-AI)の交差点における研究状況のボトムアップマッピングを提案する。
HCER-AIにおける継続的な研究は、ガバナンス、公正、説明可能性に重点を置いている。
しかしながら、これらのカンファレンスは、すべての側面を包含するのではなく、特定のテーマに焦点を当てている。
AIESはHCER-AIに関する論文が少ないが、ガバナンスを強調し、プライバシやセキュリティ、人間の繁栄に関する論文をほとんど公開していない。
FAccTはガバナンスの詳細を公開し、プライバシ、セキュリティ、人間の繁栄に関する論文を欠いている。
CHIとCSCWは、より確立されたカンファレンスとして、より広範な研究ポートフォリオを持っている。
私たちは、AI研究におけるガバナンスと公正性に現在重点を置いていることは、AIの予期せぬ、未知の意味に適切に対処しないかもしれないことに気付きました。
したがって、将来の研究は、これらの潜在的な影響に備えるために、その範囲を拡大し、資源を多様化することを推奨する。
これには、プライバシー、セキュリティ、人間の繁栄、説明可能性など、さらなる分野の探索が含まれる。
関連論文リスト
- Applications, challenges and ethical issues of AI and ChatGPT in
education [0.0]
近年の人工知能は、前例のないほど印象的な発展を見せている。
本稿では,人工知能とChatGPTによる教育改善の機会について述べる。
論文 参考訳(メタデータ) (2024-01-22T14:48:13Z) - The Global Impact of AI-Artificial Intelligence: Recent Advances and
Future Directions, A Review [0.0]
この記事では、経済的、倫理的、社会的、セキュリティとプライバシ、仕事のずれといった、AIの影響を強調している。
偏見、セキュリティ、プライバシー侵害などの問題を含む、AI開発に関する倫理的懸念について論じている。
この記事は、社会全体にAIが及ぼす影響の認識と理解を促進するために、公的なエンゲージメントと教育の重要性を強調して締めくくっている。
論文 参考訳(メタデータ) (2023-12-22T00:41:21Z) - Survey on AI Ethics: A Socio-technical Perspective [0.9374652839580183]
AIに関連する倫理的懸念には、公正性、プライバシとデータ保護、責任と説明責任、安全性と堅牢性、透明性と説明可能性、環境への影響といった課題が含まれている。
この研究は、AIを社会に展開する際の現在と将来の倫理的懸念を統一する。
論文 参考訳(メタデータ) (2023-11-28T21:00:56Z) - Predictable Artificial Intelligence [67.79118050651908]
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠である、と私たちは主張する。
本稿では,予測可能なAIに関する疑問,仮説,課題を解明することを目的とする。
論文 参考訳(メタデータ) (2023-10-09T21:36:21Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Human-Centered Responsible Artificial Intelligence: Current & Future
Trends [76.94037394832931]
近年、CHIコミュニティは人間中心のレスポンシブル人工知能の研究において著しい成長を遂げている。
この研究はすべて、人権と倫理に根ざしたまま、人類に利益をもたらすAIを開発し、AIの潜在的な害を減らすことを目的としている。
本研究グループでは,これらのトピックに関心のある学術・産業の研究者を集結させ,現在の研究動向と今後の研究動向を地図化することを目的とする。
論文 参考訳(メタデータ) (2023-02-16T08:59:42Z) - FATE in AI: Towards Algorithmic Inclusivity and Accessibility [0.0]
AIにおけるアルゴリズム上の格差、公平性、説明責任、透明性、倫理(FATE)が実装されている。
本研究では、AIによって守られている世界南部地域のFATE関連デシダータ、特に透明性と倫理について検討する。
インクリシティを促進するために、コミュニティ主導の戦略が提案され、責任あるAI設計のための代表データを収集し、キュレートする。
論文 参考訳(メタデータ) (2023-01-03T15:08:10Z) - AI Challenges for Society and Ethics [0.0]
人工知能はすでに、医療、金融、警察など、社会の重要な分野に応用され、影響を及ぼしている。
AIガバナンスの役割は、最終的に、AIにおけるイノベーションのメリットを実現しつつ、この危害のリスクを軽減するための実践的なステップを取ることです。
また、社会におけるAIの有益な利用がどのようなものかという規範的な質問を通じて考えることも必要だ。
論文 参考訳(メタデータ) (2022-06-22T13:33:11Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。