論文の概要: Science in the Era of ChatGPT, Large Language Models and AI: Challenges
for Research Ethics Review and How to Respond
- arxiv url: http://arxiv.org/abs/2305.15299v1
- Date: Wed, 24 May 2023 16:23:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-25 14:31:44.552551
- Title: Science in the Era of ChatGPT, Large Language Models and AI: Challenges
for Research Ethics Review and How to Respond
- Title(参考訳): チャットGPT・大規模言語モデル・AI時代の科学 : 研究倫理の見直しと応答方法への挑戦
- Authors: Evangelos Pournaras
- Abstract要約: この論文は、科学行為における課題、倫理的および整合性のリスクをレビューする。
研究機器と課題としてのAI言語モデルの役割は精査されている。
10のレコメンデーションは、AI言語モデルによるより責任ある研究行動に対する応答を形成する。
- 参考スコア(独自算出の注目度): 3.3504365823045044
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models of artificial intelligence (AI) such as ChatGPT find
remarkable but controversial applicability in science and research. This paper
reviews epistemological challenges, ethical and integrity risks in science
conduct. This is with the aim to lay new timely foundations for a high-quality
research ethics review in the era of AI. The role of AI language models as a
research instrument and subject is scrutinized along with ethical implications
for scientists, participants and reviewers. Ten recommendations shape a
response for a more responsible research conduct with AI language models.
- Abstract(参考訳): ChatGPTのような人工知能(AI)の大規模な言語モデルは、科学と研究に顕著だが議論の余地がある。
本稿では,科学行為における認識論的課題,倫理的・整合性リスクについて検討する。
これは、AI時代の高品質な研究倫理レビューのための、新たなタイムリーな基礎を築くことを目的としている。
研究機器と主題としてのAI言語モデルの役割は、科学者、参加者、レビュアーに対する倫理的意味とともに精査されている。
10のレコメンデーションは、AI言語モデルによるより責任ある研究行動に対する応答を形成する。
関連論文リスト
- Scientists' Perspectives on the Potential for Generative AI in their
Fields [18.753742428223912]
ジェネレーティブAIモデルは、現代生活の多くの側面を変革しようとしている。
Generative AIは、さまざまな科学分野の発見の方法やペースに実質的な影響を与える可能性がある。
我々は、さまざまな分野の20人の科学者にインタビューして、ジェネレーティブAIがそれぞれの分野の実践にどのように価値をもたらすかについて、洞察を得た。
論文 参考訳(メタデータ) (2023-04-04T00:06:28Z) - ChatGPT and a New Academic Reality: Artificial Intelligence-Written
Research Papers and the Ethics of the Large Language Models in Scholarly
Publishing [6.109522330180625]
ChatGPTは、テキストベースのユーザ要求を満たすために自然言語処理を使用する生成事前学習トランスフォーマーである。
GPT-3のような大規模言語モデルの出現に伴う潜在的な倫理的問題について論じる。
論文 参考訳(メタデータ) (2023-03-21T14:35:07Z) - Human-Centered Responsible Artificial Intelligence: Current & Future
Trends [76.94037394832931]
近年、CHIコミュニティは人間中心のレスポンシブル人工知能の研究において著しい成長を遂げている。
この研究はすべて、人権と倫理に根ざしたまま、人類に利益をもたらすAIを開発し、AIの潜在的な害を減らすことを目的としている。
本研究グループでは,これらのトピックに関心のある学術・産業の研究者を集結させ,現在の研究動向と今後の研究動向を地図化することを目的とする。
論文 参考訳(メタデータ) (2023-02-16T08:59:42Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Towards Language-driven Scientific AI [0.0]
私たちは、人間の能力に挑戦して新しい発見を行う複雑な科学的タスクに対処できるAIシステムを設計することにしました。
私たちのアプローチの中心は、自然言語を、科学的なAIと人間の科学者のコア表現、推論、交換フォーマットとする考え方です。
論文 参考訳(メタデータ) (2022-10-27T11:11:08Z) - Characterising Research Areas in the field of AI [68.8204255655161]
トピックの共起ネットワーク上でクラスタリング分析を行うことで,主要な概念テーマを特定した。
その結果は、ディープラーニングや機械学習、物のインターネットといった研究テーマに対する学術的関心の高まりを浮き彫りにしている。
論文 参考訳(メタデータ) (2022-05-26T16:30:30Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Learning from learning machines: a new generation of AI technology to
meet the needs of science [59.261050918992325]
科学的な発見のためのAIの有用性を高めるための新たな機会と課題を概説する。
産業におけるAIの目標と科学におけるAIの目標の区別は、データ内のパターンを識別することと、データから世界のパターンを発見することとの間に緊張を生じさせる。
論文 参考訳(メタデータ) (2021-11-27T00:55:21Z) - Ethical-Advice Taker: Do Language Models Understand Natural Language
Interventions? [62.74872383104381]
読解システムにおける自然言語介入の有効性について検討する。
本稿では,新たな言語理解タスクであるLingguistic Ethical Interventions (LEI)を提案する。
論文 参考訳(メタデータ) (2021-06-02T20:57:58Z) - The State of AI Ethics Report (January 2021) [34.40432073381641]
State of AI Ethicsは、機械学習の専門家から人権活動家や政策立案者まで、あらゆる人たちを支援することを目的としている。
このレポートは、アルゴリズム上の不正、差別、倫理的AI、労働影響、誤情報、プライバシー、リスクとセキュリティ、ソーシャルメディアなど、AIの倫理に関するさまざまな領域に関する調査と報告を精査している。
本報告の特筆すべき点は、Katlyn Tuner博士 (Research Scientist, Space Enabled Research Group, MIT)、Danielle Wood博士 (Assistant Professor, Program) による『The Abuse and Misogynoir Playbook』である。
論文 参考訳(メタデータ) (2021-05-19T10:59:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。