論文の概要: No AI After Auschwitz? Bridging AI and Memory Ethics in the Context of
Information Retrieval of Genocide-Related Information
- arxiv url: http://arxiv.org/abs/2401.13079v1
- Date: Tue, 23 Jan 2024 20:18:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-25 16:19:33.354532
- Title: No AI After Auschwitz? Bridging AI and Memory Ethics in the Context of
Information Retrieval of Genocide-Related Information
- Title(参考訳): アウシュヴィッツの後AIは?
ジェノサイド関連情報の検索におけるaiと記憶倫理の橋渡し
- Authors: Mykola Makhortykh
- Abstract要約: AIによる情報検索システムは、ジェノサイドを含む幅広い歴史的現象をユーザーに知らせる。
IRシステムは、ジェノサイド関連情報のキュレーションに関連する複数の倫理的課題にどの程度対処できるかは、現時点では不明である。
本章はベルモントの基準にインスパイアされた3部構成の枠組みを用いて、ジェノサイド関連情報の人為的キュレーションに関連する倫理的課題の概要を述べる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The growing application of artificial intelligence (AI) in the field of
information retrieval (IR) affects different domains, including cultural
heritage. By facilitating organisation and retrieval of large volumes of
heritage-related content, AI-driven IR systems inform users about a broad range
of historical phenomena, including genocides (e.g. the Holocaust). However, it
is currently unclear to what degree IR systems are capable of dealing with
multiple ethical challenges associated with the curation of genocide-related
information. To address this question, this chapter provides an overview of
ethical challenges associated with the human curation of genocide-related
information using a three-part framework inspired by Belmont criteria (i.e.
curation challenges associated with respect for individuals, beneficence and
justice/fairness). Then, the chapter discusses to what degree the
above-mentioned challenges are applicable to the ways in which AI-driven IR
systems deal with genocide-related information and what can be the potential
ways of bridging AI and memory ethics in this context.
- Abstract(参考訳): 情報検索(IR)分野における人工知能(AI)の応用は、文化遺産を含むさまざまな領域に影響を及ぼす。
組織と大量の遺産関連コンテンツの検索を促進することで、AI駆動のIRシステムは、ジェノサイド(ホロコーストなど)を含む幅広い歴史的現象をユーザーに知らせる。
しかし、現在、IRシステムがジェノサイド関連情報のキュレーションに関連する複数の倫理的課題にどの程度対処できるかは不明である。
この問題に対処するため、本章は、ベルモント基準に触発された3部構成の枠組み(すなわち、個人、慈善、正義/フェアネスに関するキュレーション課題)を用いて、ジェノサイド関連情報の人間のキュレーションに関連する倫理的課題の概要を提供する。
そして、この章では、上記の課題が、AI駆動IRシステムがジェノサイド関連情報を扱う方法や、この文脈でAIと記憶倫理をブリッジする潜在的方法にどの程度適用できるかを論じている。
関連論文リスト
- Lessons for Editors of AI Incidents from the AI Incident Database [2.5165775267615205]
AIインシデントデータベース(AIID)は、AIインシデントをカタログ化し、インシデントを分類するプラットフォームを提供することでさらなる研究を支援するプロジェクトである。
この研究は、AIIDの750以上のAIインシデントのデータセットと、これらのインシデントに適用された2つの独立した曖昧さをレビューし、AIインシデントをインデックス化し分析する一般的な課題を特定する。
我々は、インシデントプロセスが原因、害の程度、重大さ、あるいは関連するシステムの技術的詳細に関連する不確実性に対してより堅牢になるよう、軽減策を報告する。
論文 参考訳(メタデータ) (2024-09-24T19:46:58Z) - AI for All: Identifying AI incidents Related to Diversity and Inclusion [5.364403920214549]
本研究では,AIインシデントデータベースを手動で解析することで,AIシステム内のD&I問題を特定し,理解する。
分析されたAIインシデントのほぼ半数は、人種、性別、年齢差別の顕著な優位性を持つD&Iに関連している。
論文 参考訳(メタデータ) (2024-07-19T08:54:56Z) - Report of the 1st Workshop on Generative AI and Law [78.62063815165968]
本報告では、生成AIと法に関する第1回ワークショップ(GenLaw)の開催状況について述べる。
コンピュータサイエンスと法学の実践者や学者の学際的なグループが集まり、ジェネレーティブAI法がもたらす技術的、教義的、政策上の課題について議論した。
論文 参考訳(メタデータ) (2023-11-11T04:13:37Z) - Trust, Accountability, and Autonomy in Knowledge Graph-based AI for
Self-determination [1.4305544869388402]
知識グラフ(KG)は、インテリジェントな意思決定を支えるための基盤として登場した。
KGと神経学習の統合は、現在活発な研究のトピックである。
本稿では,KGベースのAIによる自己決定を支援するための基礎的なトピックと研究の柱を概念化する。
論文 参考訳(メタデータ) (2023-10-30T12:51:52Z) - Shall androids dream of genocides? How generative AI can change the
future of memorialization of mass atrocities [0.0]
デジタル技術は、トップダウンを減らし、より創造的なアプローチで大量残虐行為を思い出すことによって、メモリアル化の慣行を変えてきた。
テキストや視覚コンテンツを生成する人工知能(AI)の生成形態の出現は、記念の分野にさらに革命をもたらす可能性がある。
本稿では,集団残虐行為を記念するために生成AIを使用する機会とリスクについて検討する。
論文 参考訳(メタデータ) (2023-05-08T18:23:13Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - The State of AI Ethics Report (Volume 5) [0.0]
報告書は、特に「環境とAI」、「信頼とAI」、「地政学とAI」に焦点を当てたAI倫理に焦点を当てている。
AI倫理、社会学、AI倫理における教育の主題と、実践においてAI倫理を実装するための組織的課題に関する特別な貢献。
レポートには、AIの社会的影響に関して、さまざまな問題に関する広範な記事が掲載されている。
論文 参考訳(メタデータ) (2021-08-09T10:47:14Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - The Short Anthropological Guide to the Study of Ethical AI [91.3755431537592]
ショートガイドは、AI倫理と社会科学の紹介と、AIの開発に関する人類学的視点の両方を兼ね備えている。
AIシステムの社会的影響と、これらのシステムがいかにして我々の世界がどのように機能するかを再考するかについての洞察を、この分野に馴染みのない人たちに提供することを目指している。
論文 参考訳(メタデータ) (2020-10-07T12:25:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。