論文の概要: What do we teach to engineering students: embedded ethics, morality, and
politics
- arxiv url: http://arxiv.org/abs/2402.02831v1
- Date: Mon, 5 Feb 2024 09:37:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 17:12:07.023379
- Title: What do we teach to engineering students: embedded ethics, morality, and
politics
- Title(参考訳): 工学生に何を教えるか - 倫理・道徳・政治の組込み
- Authors: Avigail Ferdman and Emanuele Ratti
- Abstract要約: 工学カリキュラムに倫理モジュールを統合するためのフレームワークを提案する。
我々のフレームワークは、倫理モジュールを3次元に解析的に分解する。
これは分析的明確性、すなわち、コースインストラクターが倫理的ジレンマを道徳的または政治的領域で見つけることを可能にする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the past few years, calls for integrating ethics modules in engineering
curricula have multiplied. Despite this positive trend, a number of issues with
these embedded programs remains. First, learning goals are underspecified. A
second limitation is the conflation of different dimensions under the same
banner, in particular confusion between ethics curricula geared towards
addressing the ethics of individual conduct and curricula geared towards
addressing ethics at the societal level. In this article, we propose a
tripartite framework to overcome these difficulties. Our framework analytically
decomposes an ethics module into three dimensions. First, there is the ethical
dimension, which pertains to the learning goals. Second, there is the moral
dimension, which addresses the moral relevance of engineers conduct. Finally,
there is the political dimension, which scales up issues of moral relevance at
the civic level. All in all, our framework has two advantages. First, it
provides analytic clarity, i.e. it enables course instructors to locate ethical
dilemmas in either the moral or political realm and to make use of the tools
and resources from moral and political philosophy. Second, it depicts a
comprehensive ethical training, which enables students to both reason about
moral issues in the abstract, and to socially contextualize potential
solutions.
- Abstract(参考訳): ここ数年、エンジニアリングカリキュラムに倫理モジュールを統合することを求める声が増えている。
このポジティブな傾向にもかかわらず、これらの組込みプログラムに関する多くの問題が残っている。
まず、学習目標が不明確である。
第2の制限は、同じ旗の下で異なる次元の融合であり、特に個人の行為の倫理に対処する倫理カリキュラムと、社会的レベルで倫理に取り組むためのカリキュラムの混乱である。
本稿では,これらの困難を克服するための3部構成の枠組みを提案する。
我々のフレームワークは、倫理モジュールを3次元に分析的に分解する。
第一に、学習目標に関連する倫理的次元がある。
第二に、技術者の行動の道徳的関連性に対処する道徳的側面がある。
最後に、政治的側面があり、市民レベルで道徳的関係の問題を拡大している。
全体として、私たちのフレームワークには2つの利点があります。
まず、コースインストラクターが道徳的・政治的両方の領域で倫理的ジレンマを見つけ、道徳的・政治的哲学からツールとリソースを活用できるように分析的な明快さを提供する。
第二に、学生が抽象的な道徳的問題を推論し、潜在的な解決策を社会的に文脈化できる包括的な倫理的訓練を描いている。
関連論文リスト
- Exploring and steering the moral compass of Large Language Models [55.2480439325792]
大規模言語モデル(LLM)は、様々な分野における自動化と意思決定の推進の中心となっている。
本研究は,その道徳的特徴を評価するために,最も先進的なLCMの総合的比較分析を提案する。
論文 参考訳(メタデータ) (2024-05-27T16:49:22Z) - Quelle {é}thique pour quelle IA ? [0.0]
本研究では,AIの倫理にかかわる様々な倫理的アプローチについて分析する。
著者は、倫理の現代的必要性と意味について紹介し、他の規範の登録簿と区別し、形式化への不適切さを根拠にしている。
この研究は、文脈倫理の実践的な実践に基づくAIの人間の倫理が、人間にとって生じる倫理的問題の形式化や自動的な処理に必要であり、不必要である理由を考察して結論付けている。
論文 参考訳(メタデータ) (2024-05-21T08:13:02Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through the Lens of Moral Theories? [78.3738172874685]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチは主にボトムアップ方式で実装されており、モラルに関するクラウドソースの意見に基づいて、大量の注釈付きデータを使用してモデルをトレーニングする。
本研究は、学際的な研究から確立された道徳理論を用いて道徳的推論を行うために、言語モデル(LM)を操る柔軟なトップダウンフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - Introduction to ethics in the age of digital communication [1.922823221013346]
本稿ではデジタルコミュニケーションの分野における倫理の紹介として機能する。
倫理の実践的なサブフィールドとして適用された倫理について、簡単に概観する。
本稿は、コミュニケーション分野における倫理の本質がどう変化してきたか、そして新興技術がこれらの変化に与える影響についても論じる。
論文 参考訳(メタデータ) (2023-08-28T09:03:15Z) - Ethical Frameworks and Computer Security Trolley Problems: Foundations
for Conversations [14.120888473204907]
コンピュータセキュリティ研究における道徳的問題と倫理的/道徳哲学の関連性について検討する。
道徳的に正しいものや間違っているものを定義したり、別のフレームワークについて議論したりしません。
論文 参考訳(メタデータ) (2023-02-28T05:39:17Z) - ClarifyDelphi: Reinforced Clarification Questions with Defeasibility
Rewards for Social and Moral Situations [81.70195684646681]
本稿では,ClarifyDelphiという対話型システムについて紹介する。
我々は、潜在的な答えが道徳的判断の多様化に繋がる質問が最も有益であると仮定する。
私たちの研究は究極的には、道徳的認知の柔軟性を研究してきた認知科学の研究にインスピレーションを受けています。
論文 参考訳(メタデータ) (2022-12-20T16:33:09Z) - AiSocrates: Towards Answering Ethical Quandary Questions [51.53350252548668]
AiSocrates(アイソクラテス)とは、異なる視点を倫理的四項に交換するシステムである。
AiSocratesは、複数の視点で倫理的4つの質問に対する有望な回答を生成する。
我々は,AiSocratesが人的価値を明示的に組み込んだNLPシステムの開発に向けた有望なステップであると主張する。
論文 参考訳(メタデータ) (2022-05-12T09:52:59Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - A Word on Machine Ethics: A Response to Jiang et al. (2021) [36.955224006838584]
本稿では,最近提案されたDelphiモデルの単一事例研究に焦点をあて,モラル判断を自動化するためのプロジェクト提案手法の批判を提供する。
我々は、現在および近未来の技術の活用に焦点をあてて、機械倫理がいかに有効に進むかについて議論した。
論文 参考訳(メタデータ) (2021-11-07T19:31:51Z) - Aligning AI With Shared Human Values [85.2824609130584]
私たちは、正義、幸福、義務、美徳、常識道徳の概念にまたがる新しいベンチマークであるETHICSデータセットを紹介します。
現在の言語モデルは、基本的な人間の倫理的判断を予測できる有望だが不完全な能力を持っている。
私たちの研究は、今日の機械倫理の進歩を示しており、人間の価値観に合わせたAIへの足掛かりを提供する。
論文 参考訳(メタデータ) (2020-08-05T17:59:16Z) - Reinforcement Learning Under Moral Uncertainty [13.761051314923634]
機械学習の野心的な目標は、倫理的に振る舞うエージェントを作ることだ。
倫理的エージェントは、特定の道徳理論の下で正しい行動に報いることによって訓練することができるが、道徳性の本質について広く意見の相違がある。
本稿では、競合するデシダラタの異なる点を実現するための2つのトレーニング手法を提案し、モラルの不確実性の下で行動するための単純な環境におけるエージェントを訓練する。
論文 参考訳(メタデータ) (2020-06-08T16:40:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。