論文の概要: A Word on Machine Ethics: A Response to Jiang et al. (2021)
- arxiv url: http://arxiv.org/abs/2111.04158v1
- Date: Sun, 7 Nov 2021 19:31:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-09 14:11:28.196720
- Title: A Word on Machine Ethics: A Response to Jiang et al. (2021)
- Title(参考訳): 機械倫理に関する一言 : 江らへの反応(2021年)
- Authors: Zeerak Talat, Hagen Blix, Josef Valvoda, Maya Indira Ganesh, Ryan
Cotterell, Adina Williams
- Abstract要約: 本稿では,最近提案されたDelphiモデルの単一事例研究に焦点をあて,モラル判断を自動化するためのプロジェクト提案手法の批判を提供する。
我々は、現在および近未来の技術の活用に焦点をあてて、機械倫理がいかに有効に進むかについて議論した。
- 参考スコア(独自算出の注目度): 36.955224006838584
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ethics is one of the longest standing intellectual endeavors of humanity. In
recent years, the fields of AI and NLP have attempted to wrangle with how
learning systems that interact with humans should be constrained to behave
ethically. One proposal in this vein is the construction of morality models
that can take in arbitrary text and output a moral judgment about the situation
described. In this work, we focus on a single case study of the recently
proposed Delphi model and offer a critique of the project's proposed method of
automating morality judgments. Through an audit of Delphi, we examine broader
issues that would be applicable to any similar attempt. We conclude with a
discussion of how machine ethics could usefully proceed, by focusing on current
and near-future uses of technology, in a way that centers around transparency,
democratic values, and allows for straightforward accountability.
- Abstract(参考訳): 倫理は人類の最も長い知的努力の1つである。
近年、AIとNLPの分野は、人間と対話する学習システムが倫理的に振る舞うように制約されるべきかどうかに悩まされている。
この流れの1つの提案は、任意のテキストを取り込み、記述された状況に関する道徳的判断を出力できる道徳モデルの構築である。
本稿では,最近提案されたDelphiモデルの単一事例研究に焦点をあて,モラル判断を自動化するためのプロジェクト提案手法の批判を提供する。
Delphiの監査を通じて、同様の試みに当てはまる幅広い問題について検討する。
我々は、透明性、民主的価値、そして直接的な説明責任を可能にする方法で、テクノロジの現在および近未来の利用に焦点をあてて、機械倫理がどのようにして役立つかという議論を締めくくった。
関連論文リスト
- Quelle {é}thique pour quelle IA ? [0.0]
本研究では,AIの倫理にかかわる様々な倫理的アプローチについて分析する。
著者は、倫理の現代的必要性と意味について紹介し、他の規範の登録簿と区別し、形式化への不適切さを根拠にしている。
この研究は、文脈倫理の実践的な実践に基づくAIの人間の倫理が、人間にとって生じる倫理的問題の形式化や自動的な処理に必要であり、不必要である理由を考察して結論付けている。
論文 参考訳(メタデータ) (2024-05-21T08:13:02Z) - Towards a Feminist Metaethics of AI [0.0]
これらの不足は、AIのフェミニスト的メタ倫理に関する研究アジェンダを開発することで緩和できると私は主張する。
この視点をAIの文脈に適用することにより、AIのフェミニスト的メタ倫理は、(i)AI倫理における理論と行動の間の連続性、(ii)AI倫理の現実的な影響、(iii)AI倫理に関わる人々の役割とプロファイル、(iv)文脈、感情、物語に注意を払う方法を通じて、AIが権力関係に与える影響を調べることを提案します。
論文 参考訳(メタデータ) (2023-11-10T13:26:45Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through the Lens of Moral Theories? [78.3738172874685]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチは主にボトムアップ方式で実装されており、モラルに関するクラウドソースの意見に基づいて、大量の注釈付きデータを使用してモデルをトレーニングする。
本研究は、学際的な研究から確立された道徳理論を用いて道徳的推論を行うために、言語モデル(LM)を操る柔軟なトップダウンフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - AiSocrates: Towards Answering Ethical Quandary Questions [51.53350252548668]
AiSocrates(アイソクラテス)とは、異なる視点を倫理的四項に交換するシステムである。
AiSocratesは、複数の視点で倫理的4つの質問に対する有望な回答を生成する。
我々は,AiSocratesが人的価値を明示的に組み込んだNLPシステムの開発に向けた有望なステップであると主張する。
論文 参考訳(メタデータ) (2022-05-12T09:52:59Z) - Contextualizing Artificially Intelligent Morality: A Meta-Ethnography of
Top-Down, Bottom-Up, and Hybrid Models for Theoretical and Applied Ethics in
Artificial Intelligence [0.0]
このメタエスノグラフィーでは、倫理的人工知能(AI)設計の3つの異なる角度を探索する。
この枠組みへの新たな貢献は、企業や政府によって決定され、政策または法(トップから来る)によって課されるAIの倫理を構成する政治的アングルである。
ボトムアップの応用技術アプローチとAI倫理原則を実践的なトップダウンアプローチとして示すものとして、強化学習に焦点が当てられている。
論文 参考訳(メタデータ) (2022-04-15T18:47:49Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Descriptive AI Ethics: Collecting and Understanding the Public Opinion [10.26464021472619]
本研究では、規範的および記述的研究が相互補完できる混合AI倫理モデルを提案する。
我々は、AIシステムの展開に対する楽観的見解と悲観的見解のギャップを埋めることにその影響について論じる。
論文 参考訳(メタデータ) (2021-01-15T03:46:27Z) - Case Study: Deontological Ethics in NLP [119.53038547411062]
我々はNLPの観点から1つの倫理理論、すなわち非オントロジー的倫理について研究する。
特に、インフォームド・コンセントを通じて、一般化原則と自律性への敬意に焦点を当てる。
NLPシステムでこれらの原則をどのように利用できるかを示すための4つのケーススタディを提供する。
論文 参考訳(メタデータ) (2020-10-09T16:04:51Z) - Contextualized moral inference [12.574316678945195]
本稿では,道徳的ヴィグネットの直感的な判断をテキストベースで予測する手法を提案する。
文脈化された表現は、代替表現よりもかなり有利であることを示す。
論文 参考訳(メタデータ) (2020-08-25T00:34:28Z) - Aligning AI With Shared Human Values [85.2824609130584]
私たちは、正義、幸福、義務、美徳、常識道徳の概念にまたがる新しいベンチマークであるETHICSデータセットを紹介します。
現在の言語モデルは、基本的な人間の倫理的判断を予測できる有望だが不完全な能力を持っている。
私たちの研究は、今日の機械倫理の進歩を示しており、人間の価値観に合わせたAIへの足掛かりを提供する。
論文 参考訳(メタデータ) (2020-08-05T17:59:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。