論文の概要: Values, Ethics, Morals? On the Use of Moral Concepts in NLP Research
- arxiv url: http://arxiv.org/abs/2310.13915v1
- Date: Sat, 21 Oct 2023 06:04:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 04:27:15.838166
- Title: Values, Ethics, Morals? On the Use of Moral Concepts in NLP Research
- Title(参考訳): 価値、倫理、道徳は?
NLP研究におけるモラル概念の利用について
- Authors: Karina Vida, Judith Simon, Anne Lauscher
- Abstract要約: 哲学に端を発する重要な倫理概念について概説する。
既存の文献を道徳的NLPで体系的に調査する。
私たちの発見は、例えば、ほとんどの論文は、それらが使用する用語を明確に定義したり、哲学の定義に従わないことを示しています。
- 参考スコア(独自算出の注目度): 13.28561989789828
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: With language technology increasingly affecting individuals' lives, many
recent works have investigated the ethical aspects of NLP. Among other topics,
researchers focused on the notion of morality, investigating, for example,
which moral judgements language models make. However, there has been little to
no discussion of the terminology and the theories underpinning those efforts
and their implications. This lack is highly problematic, as it hides the works'
underlying assumptions and hinders a thorough and targeted scientific debate of
morality in NLP. In this work, we address this research gap by (a) providing an
overview of some important ethical concepts stemming from philosophy and (b)
systematically surveying the existing literature on moral NLP w.r.t. their
philosophical foundation, terminology, and data basis. For instance, we analyse
what ethical theory an approach is based on, how this decision is justified,
and what implications it entails. Our findings surveying 92 papers show that,
for instance, most papers neither provide a clear definition of the terms they
use nor adhere to definitions from philosophy. Finally, (c) we give three
recommendations for future research in the field. We hope our work will lead to
a more informed, careful, and sound discussion of morality in language
technology.
- Abstract(参考訳): 言語技術が個人の生活に影響を及ぼすにつれ、最近の多くの研究がNLPの倫理的側面を調査している。
その他のトピックの中で、研究者は道徳の概念に注目し、例えば、道徳判断言語モデルが作るものを調べる。
しかし、これらの取り組みやその意味を裏付ける用語や理論についてはほとんど議論されていない。
この欠如は、作品の根底にある前提を隠蔽し、NLPにおける道徳に関する徹底的で目標とする科学的議論を妨げるため、非常に問題となる。
本研究では,この研究ギャップに対処する。
(a)哲学を起源とする倫理上の重要な概念の概観を提供する
b) 哲学的基礎,用語,データに基づく道徳的NLPに関する既存の文献を体系的に調査する。
例えば、アプローチがどんな倫理理論に基づいているか、この決定がどのように正当化され、どのような意味を持つのかを分析します。
92の論文を調査した結果、例えば、ほとんどの論文は、使用する用語を明確に定義したり、哲学の定義に従わなかった。
最後に
(c)この分野の今後の研究のために3つの推奨事項を提示する。
私たちの仕事は、言語技術における道徳に関するより情報があり、慎重に、健全な議論につながることを願っています。
関連論文リスト
- ApplE: An Applied Ethics Ontology with Event Context [0.8056359341994941]
本稿では,行動の道徳性を記述するために,哲学理論と事象文脈を捉えた応用倫理オントロジーのApplEを提案する。
開発プロセスは、オントロジー開発のためのアジャイル方法論(SAMOD)の修正版に準拠し、標準設計と公開プラクティスを利用する。
論文 参考訳(メタデータ) (2025-02-07T17:34:50Z) - The Only Way is Ethics: A Guide to Ethical Research with Large Language Models [53.316174782223115]
LLM倫理白書(LLM Ethics Whitepaper)は、NLP実践者のオープンリソースであり、他人の仕事の倫理的意味を評価することを担当する。
私たちの目標は、倫理文学を明確な第一歩で考えるための具体的な勧告や挑発に翻訳することです。
LLM倫理白書」は、文献の徹底的なレビューを、ドとドナの明確な解釈に駆り立てたもので、本論文にも紹介する。
論文 参考訳(メタデータ) (2024-12-20T16:14:43Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through the Lens of Moral Theories? [78.3738172874685]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチは主にボトムアップ方式で実装されており、モラルに関するクラウドソースの意見に基づいて、大量の注釈付きデータを使用してモデルをトレーニングする。
本研究は、学際的な研究から確立された道徳理論を用いて道徳的推論を行うために、言語モデル(LM)を操る柔軟なトップダウンフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - Ethical Frameworks and Computer Security Trolley Problems: Foundations
for Conversations [14.120888473204907]
コンピュータセキュリティ研究における道徳的問題と倫理的/道徳哲学の関連性について検討する。
道徳的に正しいものや間違っているものを定義したり、別のフレームワークについて議論したりしません。
論文 参考訳(メタデータ) (2023-02-28T05:39:17Z) - ClarifyDelphi: Reinforced Clarification Questions with Defeasibility
Rewards for Social and Moral Situations [81.70195684646681]
本稿では,ClarifyDelphiという対話型システムについて紹介する。
我々は、潜在的な答えが道徳的判断の多様化に繋がる質問が最も有益であると仮定する。
私たちの研究は究極的には、道徳的認知の柔軟性を研究してきた認知科学の研究にインスピレーションを受けています。
論文 参考訳(メタデータ) (2022-12-20T16:33:09Z) - AiSocrates: Towards Answering Ethical Quandary Questions [51.53350252548668]
AiSocrates(アイソクラテス)とは、異なる視点を倫理的四項に交換するシステムである。
AiSocratesは、複数の視点で倫理的4つの質問に対する有望な回答を生成する。
我々は,AiSocratesが人的価値を明示的に組み込んだNLPシステムの開発に向けた有望なステップであると主張する。
論文 参考訳(メタデータ) (2022-05-12T09:52:59Z) - Contextualizing Artificially Intelligent Morality: A Meta-Ethnography of
Top-Down, Bottom-Up, and Hybrid Models for Theoretical and Applied Ethics in
Artificial Intelligence [0.0]
このメタエスノグラフィーでは、倫理的人工知能(AI)設計の3つの異なる角度を探索する。
この枠組みへの新たな貢献は、企業や政府によって決定され、政策または法(トップから来る)によって課されるAIの倫理を構成する政治的アングルである。
ボトムアップの応用技術アプローチとAI倫理原則を実践的なトップダウンアプローチとして示すものとして、強化学習に焦点が当てられている。
論文 参考訳(メタデータ) (2022-04-15T18:47:49Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - A Word on Machine Ethics: A Response to Jiang et al. (2021) [36.955224006838584]
本稿では,最近提案されたDelphiモデルの単一事例研究に焦点をあて,モラル判断を自動化するためのプロジェクト提案手法の批判を提供する。
我々は、現在および近未来の技術の活用に焦点をあてて、機械倫理がいかに有効に進むかについて議論した。
論文 参考訳(メタデータ) (2021-11-07T19:31:51Z) - Case Study: Deontological Ethics in NLP [119.53038547411062]
我々はNLPの観点から1つの倫理理論、すなわち非オントロジー的倫理について研究する。
特に、インフォームド・コンセントを通じて、一般化原則と自律性への敬意に焦点を当てる。
NLPシステムでこれらの原則をどのように利用できるかを示すための4つのケーススタディを提供する。
論文 参考訳(メタデータ) (2020-10-09T16:04:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。