論文の概要: A Critical Examination of the Ethics of AI-Mediated Peer Review
- arxiv url: http://arxiv.org/abs/2309.12356v1
- Date: Sat, 2 Sep 2023 18:14:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-01 12:44:40.890863
- Title: A Critical Examination of the Ethics of AI-Mediated Peer Review
- Title(参考訳): AIを用いたピアレビューの倫理に関する批判的考察
- Authors: Laurie A. Schintler, Connie L. McNeely, James Witte
- Abstract要約: 人工知能(AI)システムの最近の進歩は、学術的な査読のための約束と危機を提供する。
人間のピアレビューシステムは、バイアスや虐待、透明性の欠如など、関連する問題にも悩まされている。
AI駆動のピアレビューの正当性は、科学的倫理と一致している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in artificial intelligence (AI) systems, including large
language models like ChatGPT, offer promise and peril for scholarly peer
review. On the one hand, AI can enhance efficiency by addressing issues like
long publication delays. On the other hand, it brings ethical and social
concerns that could compromise the integrity of the peer review process and
outcomes. However, human peer review systems are also fraught with related
problems, such as biases, abuses, and a lack of transparency, which already
diminish credibility. While there is increasing attention to the use of AI in
peer review, discussions revolve mainly around plagiarism and authorship in
academic journal publishing, ignoring the broader epistemic, social, cultural,
and societal epistemic in which peer review is positioned. The legitimacy of
AI-driven peer review hinges on the alignment with the scientific ethos,
encompassing moral and epistemic norms that define appropriate conduct in the
scholarly community. In this regard, there is a "norm-counternorm continuum,"
where the acceptability of AI in peer review is shaped by institutional logics,
ethical practices, and internal regulatory mechanisms. The discussion here
emphasizes the need to critically assess the legitimacy of AI-driven peer
review, addressing the benefits and downsides relative to the broader
epistemic, social, ethical, and regulatory factors that sculpt its
implementation and impact.
- Abstract(参考訳): ChatGPTのような大規模言語モデルを含む人工知能(AI)システムの最近の進歩は、学術的なピアレビューの約束と危機を提供する。
一方、AIは長い公開遅延のような問題に対処することで効率を向上させることができる。
一方、これは、相互レビュープロセスと結果の整合性を損なう倫理的および社会的懸念をもたらします。
しかしながら、人間のピアレビューシステムは、バイアスや虐待、透明性の欠如など、すでに信頼性を低下させるような関連する問題も抱えている。
ピアレビューにおけるaiの利用に注目が集まっている一方で、学術雑誌出版において、ピアレビューが位置づけられる幅広い認識論、社会的、文化的、社会的な認識論を無視して、盗作主義と著者シップを中心に議論が展開されている。
ai駆動のピアレビューの正当性は、科学的な倫理と一致し、学術的なコミュニティにおいて適切な行動を定義する道徳的および認識論的規範を包含する。
この点において、ピアレビューにおけるAIの受容性は、制度論理、倫理的慣行、内部規制機構によって形作られています。
ここでの議論は、AI主導のピアレビューの正当性を批判的に評価することの必要性を強調し、その実装と影響を形作る広範な疫学、社会的、倫理的、規制的要因に対する利点と欠点に対処する。
関連論文リスト
- Trustworthy and Responsible AI for Human-Centric Autonomous Decision-Making Systems [2.444630714797783]
我々は、AIバイアス、定義、検出と緩和の方法、およびバイアスを評価するメトリクスの複雑さをレビューし、議論する。
また、人間中心の意思決定のさまざまな領域におけるAIの信頼性と広範な適用に関して、オープンな課題についても論じる。
論文 参考訳(メタデータ) (2024-08-28T06:04:25Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Factoring the Matrix of Domination: A Critical Review and Reimagination
of Intersectionality in AI Fairness [55.037030060643126]
間欠性は、社会的不平等の持続性を調べるための重要な枠組みである。
我々は、公平性を効果的に運用するために、交差性を分析的枠組みとして採用することが重要であると論じる。
論文 参考訳(メタデータ) (2023-03-16T21:02:09Z) - A Systematic Literature Review of Human-Centered, Ethical, and
Responsible AI [12.456385305888341]
我々は、AIの倫理的、社会的、人的要因に関する主要な会議から164の論文をレビューし分析する。
私たちは、AI研究におけるガバナンスと公正性に現在重点を置いていることは、AIの予期せぬ、未知の意味に適切に対処しないかもしれないことに気付きました。
論文 参考訳(メタデータ) (2023-02-10T14:47:33Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Automated scholarly paper review: Concepts, technologies, and challenges [5.431798850623952]
近年、ピアレビュープロセスを支援するために人工知能(AI)が応用されている。
人間の関与により、このような制限は避けられないままである。
論文 参考訳(メタデータ) (2021-11-15T04:44:57Z) - Ethics of AI: A Systematic Literature Review of Principles and
Challenges [3.7129018407842445]
透明性、プライバシ、説明責任、公正性は、最も一般的なAI倫理原則として識別される。
倫理的知識の欠如と曖昧な原則は、AIにおける倫理を考える上で重要な課題として報告されている。
論文 参考訳(メタデータ) (2021-09-12T15:33:43Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Descriptive AI Ethics: Collecting and Understanding the Public Opinion [10.26464021472619]
本研究では、規範的および記述的研究が相互補完できる混合AI倫理モデルを提案する。
我々は、AIシステムの展開に対する楽観的見解と悲観的見解のギャップを埋めることにその影響について論じる。
論文 参考訳(メタデータ) (2021-01-15T03:46:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。