論文の概要: Training Ethically Responsible AI Researchers: a Case Study
- arxiv url: http://arxiv.org/abs/2011.11393v1
- Date: Fri, 20 Nov 2020 14:12:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-23 14:45:21.993640
- Title: Training Ethically Responsible AI Researchers: a Case Study
- Title(参考訳): 倫理に責任のあるAI研究者を訓練する事例研究
- Authors: Hang Yuan, Claudia Vanea, Federica Lucivero, Nina Hallowell
- Abstract要約: AI研究の倫理的監視は多くの問題に悩まされている。
これらの問題に対処するには多くの方法があるが、審査委員会や委員会に倫理的考察の責任を負わせている。
我々は倫理的に責任を持つAI研究者のトレーニングという代替ソリューションを提案する。
- 参考スコア(独自算出の注目度): 2.736431207009807
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ethical oversight of AI research is beset by a number of problems. There are
numerous ways to tackle these problems, however, they leave full responsibility
for ethical reflection in the hands of review boards and committees. In this
paper, we propose an alternative solution: the training of ethically
responsible AI researchers. We showcase this solution through a case study of a
centre for doctoral training and outline how ethics training is structured in
the program. We go on to present two second-year students' reflections on their
training which demonstrates some of their newly found capabilities as ethically
responsible researchers.
- Abstract(参考訳): AI研究の倫理的監視は多くの問題に悩まされている。
これらの問題に対処するには多くの方法があるが、審査委員会や委員会に倫理的考察の責任を負わせている。
本稿では、倫理的に責任を持つAI研究者のトレーニングという代替ソリューションを提案する。
本稿では,博士養成センターの事例研究を通じて,この課題を提示し,そのプログラムにおける倫理訓練の構造について概説する。
続いて,倫理的責任を負う研究者として新たに見いだされた能力のいくつかを実証する,2年目の学生のトレーニングの振り返りを提示する。
関連論文リスト
- The Only Way is Ethics: A Guide to Ethical Research with Large Language Models [53.316174782223115]
LLM倫理白書(LLM Ethics Whitepaper)は、NLP実践者のオープンリソースであり、他人の仕事の倫理的意味を評価することを担当する。
私たちの目標は、倫理文学を明確な第一歩で考えるための具体的な勧告や挑発に翻訳することです。
LLM倫理白書」は、文献の徹底的なレビューを、ドとドナの明確な解釈に駆り立てたもので、本論文にも紹介する。
論文 参考訳(メタデータ) (2024-12-20T16:14:43Z) - Raising AI Ethics Awareness through an AI Ethics Quiz for Software Practitioners [7.928588994077104]
研究は、AI倫理と倫理原則に対する実践者の認識と知識に重大なギャップがあることを示唆している。
我々は、ソフトウェア実践者間の認知を高め、AI倫理の知識を高めるための、ソフトウェアベースのツールであるAI Ethics Quizを開発した。
論文 参考訳(メタデータ) (2024-08-28T23:36:13Z) - Investigating Responsible AI for Scientific Research: An Empirical Study [4.597781832707524]
このような機関におけるResponsible AI(RAI)の推進は、AI設計と開発に倫理的配慮を統合することの重要性の高まりを強調している。
本稿では,AI設計・開発に内在する倫理的リスクに対する意識と準備性を評価することを目的とする。
その結果、倫理的、責任的、包括的AIに関する知識ギャップが明らかとなり、利用可能なAI倫理フレームワークに対する認識が制限された。
論文 参考訳(メタデータ) (2023-12-15T06:40:27Z) - Responsible AI Research Needs Impact Statements Too [51.37368267352821]
責任ある人工知能(RAI)、倫理的AI、倫理的AIでの作業は例外ではない。
責任ある人工知能(RAI)、倫理的AI、倫理的AIでの作業は例外ではない。
論文 参考訳(メタデータ) (2023-11-20T14:02:28Z) - Responsible AI Considerations in Text Summarization Research: A Review
of Current Practices [89.85174013619883]
私たちは、責任あるAIコミュニティがほとんど見落としている共通のNLPタスクである、テキスト要約に重点を置いています。
我々は,2020-2022年に出版されたACLアンソロジーから333の要約論文の多段階的質的分析を行った。
私たちは、どの、どの、どの責任あるAI問題がカバーされているか、どの関係するステークホルダーが考慮されているか、そして、述べられた研究目標と実現された研究目標のミスマッチに焦点を合わせます。
論文 参考訳(メタデータ) (2023-11-18T15:35:36Z) - Ethics in the Age of AI: An Analysis of AI Practitioners' Awareness and
Challenges [11.656193349991609]
我々は,AI実践者のAI倫理に対する意識と倫理を取り入れた課題を理解することを目的とした調査を行った。
この結果から,AI実践者の大多数が,AI倫理の概念に精通していることが示唆された。
フォーマルな教育・訓練は、実践者がAI倫理を取り入れるように準備するのに幾らか役立つと考えられていた。
論文 参考訳(メタデータ) (2023-07-14T02:50:46Z) - Science in the Era of ChatGPT, Large Language Models and Generative AI:
Challenges for Research Ethics and How to Respond [3.3504365823045044]
本稿では,生成AIの出現にともなう科学行為における課題,倫理的・整合性リスクを概観する。
研究機器と主題としてのAI言語モデルの役割は、科学者、参加者、レビュアーに対する倫理的意味とともに精査されている。
論文 参考訳(メタデータ) (2023-05-24T16:23:46Z) - Human-Centered Responsible Artificial Intelligence: Current & Future
Trends [76.94037394832931]
近年、CHIコミュニティは人間中心のレスポンシブル人工知能の研究において著しい成長を遂げている。
この研究はすべて、人権と倫理に根ざしたまま、人類に利益をもたらすAIを開発し、AIの潜在的な害を減らすことを目的としている。
本研究グループでは,これらのトピックに関心のある学術・産業の研究者を集結させ,現在の研究動向と今後の研究動向を地図化することを目的とする。
論文 参考訳(メタデータ) (2023-02-16T08:59:42Z) - Ethics in AI through the Practitioner's View: A Grounded Theory
Literature Review [12.941478155592502]
近年、AI開発における倫理的問題のプロファイルが高まり、私たちの日常生活におけるAI技術の普及に対する世間の懸念が高まっている。
我々は,AI実践者のAI倫理観を含む,38の初等実証研究の根拠的理論文献レビュー(GTLR)を行った。
我々は,AI倫理の異なる側面を特定し,理解する上で,実践者の視点からAI倫理の分類を提示する。
論文 参考訳(メタデータ) (2022-06-20T00:28:51Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Stakeholder Participation in AI: Beyond "Add Diverse Stakeholders and
Stir" [76.44130385507894]
本稿では、既存の文献の参加と現在の実践の実証分析を通じて、AI設計における「参加的転換」を掘り下げることを目的としている。
本稿では,本論文の文献合成と実証研究に基づいて,AI設計への参加的アプローチを解析するための概念的枠組みを提案する。
論文 参考訳(メタデータ) (2021-11-01T17:57:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。