論文の概要: Mapping the Ethics of Generative AI: A Comprehensive Scoping Review
- arxiv url: http://arxiv.org/abs/2402.08323v1
- Date: Tue, 13 Feb 2024 09:38:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-14 15:52:38.012390
- Title: Mapping the Ethics of Generative AI: A Comprehensive Scoping Review
- Title(参考訳): ジェネレーティブAIの倫理をマッピングする:包括的スコープレビュー
- Authors: Thilo Hagendorff
- Abstract要約: 我々は、特に大きな言語モデルやテキスト・ツー・イメージモデルを含む、生成的人工知能の倫理に関するスコーピングレビューを行う。
本分析では,19のトピック領域において,378の規範的問題を分類し,文献の有病率に応じて分類する。
この研究は、公正性、安全、有害なコンテンツ、幻覚、プライバシー、相互作用リスク、セキュリティ、アライメント、社会的影響などに関する倫理的な議論を、学者、実践者、あるいは政策立案者に包括的な概要を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The advent of generative artificial intelligence and the widespread adoption
of it in society engendered intensive debates about its ethical implications
and risks. These risks often differ from those associated with traditional
discriminative machine learning. To synthesize the recent discourse and map its
normative concepts, we conducted a scoping review on the ethics of generative
artificial intelligence, including especially large language models and
text-to-image models. Our analysis provides a taxonomy of 378 normative issues
in 19 topic areas and ranks them according to their prevalence in the
literature. The study offers a comprehensive overview for scholars,
practitioners, or policymakers, condensing the ethical debates surrounding
fairness, safety, harmful content, hallucinations, privacy, interaction risks,
security, alignment, societal impacts, and others. We discuss the results,
evaluate imbalances in the literature, and explore unsubstantiated risk
scenarios.
- Abstract(参考訳): 生成的人工知能の出現と社会におけるその普及は、その倫理的意味とリスクに関する激しい議論を巻き起こした。
これらのリスクは、伝統的な差別的機械学習に関連するものとしばしば異なる。
近年の言説を合成し,その規範的概念をマッピングするために,特に大規模言語モデルやテキスト・ツー・イメージモデルを含む,生成人工知能の倫理に関するスコーピングレビューを行った。
本研究は,19のトピック領域における378の規範的問題を分類し,文献の頻度に応じて分類した。
この研究は、公正性、安全、有害なコンテンツ、幻覚、プライバシー、相互作用リスク、セキュリティ、アライメント、社会的影響などに関する倫理的な議論を、学者、実践者、あるいは政策立案者に包括的な概要を提供する。
結果について議論し,文献における不均衡を評価し,根拠のないリスクシナリオを考察する。
関連論文リスト
- Risks and NLP Design: A Case Study on Procedural Document QA [52.557503571760215]
より具体的なアプリケーションやユーザに対して分析を専門化すれば,ユーザに対するリスクや害の明確な評価が可能になる,と我々は主張する。
リスク指向のエラー分析を行い、リスクの低減とパフォーマンスの向上を図り、将来のシステムの設計を通知する。
論文 参考訳(メタデータ) (2024-08-16T17:23:43Z) - An ethical study of generative AI from the Actor-Network Theory perspective [3.0224187843434]
本稿では,ChatGPTをアクターネットワーク理論の枠組みにおけるケーススタディとして分析する。
本稿では,ChatGPTに関する倫理的問題に関わる翻訳のアクターとプロセスについて検討する。
論文 参考訳(メタデータ) (2024-04-10T02:32:19Z) - The Social Impact of Generative AI: An Analysis on ChatGPT [0.7401425472034117]
ジェネレーティブAIモデルの急速な開発は、そのメリット、制限、関連するリスクに関する熱い議論を引き起こしている。
生成モデルは、医療、金融、教育など、複数の分野にまたがって大きな可能性を秘めている。
本稿では,ChatGPTの事例を中心に,生成型AIツールの社会的意味を探求する方法論を採用する。
論文 参考訳(メタデータ) (2024-03-07T17:14:22Z) - Unpacking the Ethical Value Alignment in Big Models [46.560886177083084]
本稿では,ビッグモデルに関連するリスクと課題の概要,既存のAI倫理ガイドラインを調査し,これらのモデルの限界から生じる倫理的影響について考察する。
本稿では,大規模モデルの倫理的価値を整合させる新しい概念パラダイムを導入し,アライメント基準,評価,方法に関する有望な研究方向性について議論する。
論文 参考訳(メタデータ) (2023-10-26T16:45:40Z) - Fairness And Bias in Artificial Intelligence: A Brief Survey of Sources,
Impacts, And Mitigation Strategies [11.323961700172175]
この調査論文は、AIの公平性とバイアスに関する簡潔で包括的な概要を提供する。
我々は、データ、アルゴリズム、人間の決定バイアスなどのバイアス源をレビューする。
偏りのあるAIシステムの社会的影響を評価し,不平等の持続性と有害なステレオタイプの強化に着目した。
論文 参考訳(メタデータ) (2023-04-16T03:23:55Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Ethical-Advice Taker: Do Language Models Understand Natural Language
Interventions? [62.74872383104381]
読解システムにおける自然言語介入の有効性について検討する。
本稿では,新たな言語理解タスクであるLingguistic Ethical Interventions (LEI)を提案する。
論文 参考訳(メタデータ) (2021-06-02T20:57:58Z) - Reasons, Values, Stakeholders: A Philosophical Framework for Explainable
Artificial Intelligence [0.0]
本稿では,この議論に概念的正確性をもたらす多面的フレームワークを提案する。
人工知能の予測に最も関係している説明の種類を特定します。
また、これらの説明の評価のための社会的および倫理的価値の関連性と重要性を認識しています。
論文 参考訳(メタデータ) (2021-03-01T04:50:31Z) - Scruples: A Corpus of Community Ethical Judgments on 32,000 Real-Life
Anecdotes [72.64975113835018]
記述倫理に動機づけられた我々は、機械倫理に対する新しいデータ駆動アプローチを調査する。
Scruplesは、625,000の倫理的判断を持つ最初の大規模データセットで、32,000の実生活の逸話について紹介する。
我々のデータセットは最先端のニューラルネットワークモデルに対して大きな課題を示し、改善の余地を残しています。
論文 参考訳(メタデータ) (2020-08-20T17:34:15Z) - On Consequentialism and Fairness [64.35872952140677]
機械学習におけるフェアネスの共通定義について、逐次的批判を行う。
学習とランダム化の問題に関するより広範な議論で締めくくります。
論文 参考訳(メタデータ) (2020-01-02T05:39:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。