論文の概要: Ethical Frameworks and Computer Security Trolley Problems: Foundations
for Conversations
- arxiv url: http://arxiv.org/abs/2302.14326v2
- Date: Fri, 4 Aug 2023 19:11:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-09 00:02:12.317374
- Title: Ethical Frameworks and Computer Security Trolley Problems: Foundations
for Conversations
- Title(参考訳): 倫理的枠組みとコンピュータセキュリティのトロリー問題--会話の基礎
- Authors: Tadayoshi Kohno, Yasemin Acar, Wulf Loh
- Abstract要約: コンピュータセキュリティ研究における道徳的問題と倫理的/道徳哲学の関連性について検討する。
道徳的に正しいものや間違っているものを定義したり、別のフレームワークについて議論したりしません。
- 参考スコア(独自算出の注目度): 14.120888473204907
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The computer security research community regularly tackles ethical questions.
The field of ethics / moral philosophy has for centuries considered what it
means to be "morally good" or at least "morally allowed / acceptable". Among
philosophy's contributions are (1) frameworks for evaluating the morality of
actions -- including the well-established consequentialist and deontological
frameworks -- and (2) scenarios (like trolley problems) featuring moral
dilemmas that can facilitate discussion about and intellectual inquiry into
different perspectives on moral reasoning and decision-making. In a classic
trolley problem, consequentialist and deontological analyses may render
different opinions. In this research, we explicitly make and explore
connections between moral questions in computer security research and ethics /
moral philosophy through the creation and analysis of trolley problem-like
computer security-themed moral dilemmas and, in doing so, we seek to contribute
to conversations among security researchers about the morality of security
research-related decisions. We explicitly do not seek to define what is morally
right or wrong, nor do we argue for one framework over another. Indeed, the
consequentialist and deontological frameworks that we center, in addition to
coming to different conclusions for our scenarios, have significant
limitations. Instead, by offering our scenarios and by comparing two different
approaches to ethics, we strive to contribute to how the computer security
research field considers and converses about ethical questions, especially when
there are different perspectives on what is morally right or acceptable.
- Abstract(参考訳): コンピュータセキュリティ研究コミュニティは、倫理的な問題に定期的に取り組む。
倫理・道徳哲学の分野は、何世紀にもわたって、それが「道徳的に良い」あるいは少なくとも「道徳的に許される/受け入れられる」を意味するかを検討してきた。
哲学の貢献の中には、(1)行動の道徳性を評価するための枠組み、(2)道徳的推論と意思決定に関する異なる視点に関する議論と知的な探求を促進する道徳的ジレンマを特徴とするシナリオ(トロリー問題など)などがある。
古典的なトロリー問題では、コンシークエンシャル解析とデオントロジー解析は異なる意見を述べることができる。
本研究では,コンピュータセキュリティ研究における道徳的問題と倫理的/道徳哲学の関連性について,トロリー問題のようなコンピュータセキュリティをテーマとした道徳的ジレンマの作成と分析を通じて明確に検証し,セキュリティ研究に関する意思決定の道徳性に関するセキュリティ研究者の間での議論に貢献することを目的とする。
道徳的に正しいか間違っているかを明確に定義しようとはしませんし、別のフレームワークよりもひとつのフレームワークを主張することもできません。
実際、私たちが中心とするコンシークエンシストとデオントロジーの枠組みは、シナリオで異なる結論に達することに加えて、大きな制限があります。
代わりに、私たちのシナリオを提供し、2つの異なる倫理的アプローチを比較することによって、コンピュータセキュリティ研究分野が倫理的問題をどう考えるか、そしてどのように会話するか、特に道徳的に正しいか、許容できるかに関する異なる視点がある場合に貢献しようと努めています。
関連論文リスト
- Exploring and steering the moral compass of Large Language Models [55.2480439325792]
大規模言語モデル(LLM)は、様々な分野における自動化と意思決定の推進の中心となっている。
本研究は,その道徳的特徴を評価するために,最も先進的なLCMの総合的比較分析を提案する。
論文 参考訳(メタデータ) (2024-05-27T16:49:22Z) - What do we teach to engineering students: embedded ethics, morality, and
politics [0.0]
工学カリキュラムに倫理モジュールを統合するためのフレームワークを提案する。
我々のフレームワークは、倫理モジュールを3次元に解析的に分解する。
これは分析的明確性、すなわち、コースインストラクターが倫理的ジレンマを道徳的または政治的領域で見つけることを可能にする。
論文 参考訳(メタデータ) (2024-02-05T09:37:52Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through the Lens of Moral Theories? [78.3738172874685]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチは主にボトムアップ方式で実装されており、モラルに関するクラウドソースの意見に基づいて、大量の注釈付きデータを使用してモデルをトレーニングする。
本研究は、学際的な研究から確立された道徳理論を用いて道徳的推論を行うために、言語モデル(LM)を操る柔軟なトップダウンフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - On the Computational Complexity of Ethics: Moral Tractability for Minds
and Machines [0.0]
倫理領域の問題を解決するために人工知能(AI)が使えるかどうかについての議論は、主に人間の能力の観点からAIができることとできないことによって進められてきた。
本稿では,計算システムにできることやできないことに基づいて,どのようなモラルマシンが可能であるかを検討する。
論文 参考訳(メタデータ) (2023-02-08T17:39:58Z) - Modeling Moral Choices in Social Dilemmas with Multi-Agent Reinforcement
Learning [4.2050490361120465]
ボトムアップ学習アプローチは、AIエージェントの倫理的行動の研究と開発にもっと適しているかもしれない。
本稿では,道徳理論に基づく報酬を内在的に動機づけたRLエージェントによる選択の体系的分析を行う。
我々は、異なる種類の道徳が協力、欠陥、搾取の出現に与える影響を分析する。
論文 参考訳(メタデータ) (2023-01-20T09:36:42Z) - MoralDial: A Framework to Train and Evaluate Moral Dialogue Systems via
Moral Discussions [71.25236662907056]
ユーザの価値観に合わせた道徳的対話システムは、会話のエンゲージメントとユーザ接続を高めることができる。
道徳的対話システムを訓練・評価するための枠組みであるMoralDialを提案する。
論文 参考訳(メタデータ) (2022-12-21T02:21:37Z) - ClarifyDelphi: Reinforced Clarification Questions with Defeasibility
Rewards for Social and Moral Situations [81.70195684646681]
本稿では,ClarifyDelphiという対話型システムについて紹介する。
我々は、潜在的な答えが道徳的判断の多様化に繋がる質問が最も有益であると仮定する。
私たちの研究は究極的には、道徳的認知の柔軟性を研究してきた認知科学の研究にインスピレーションを受けています。
論文 参考訳(メタデータ) (2022-12-20T16:33:09Z) - AiSocrates: Towards Answering Ethical Quandary Questions [51.53350252548668]
AiSocrates(アイソクラテス)とは、異なる視点を倫理的四項に交換するシステムである。
AiSocratesは、複数の視点で倫理的4つの質問に対する有望な回答を生成する。
我々は,AiSocratesが人的価値を明示的に組み込んだNLPシステムの開発に向けた有望なステップであると主張する。
論文 参考訳(メタデータ) (2022-05-12T09:52:59Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Moral Dilemmas for Moral Machines [0.0]
これは、道徳的ジレンマの目的を理解できないため、哲学的思考実験の誤用であると私は主張する。
機械倫理における道徳的ジレンマの利用は適切であり、機械学習の文脈で生じる新しい状況は、倫理における哲学的作業にいくらかの光を当てることができる。
論文 参考訳(メタデータ) (2022-03-11T18:24:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。