論文の概要: The Doctrine of Cyber Effect: An Ethics Framework for Defensive Cyber
Deception
- arxiv url: http://arxiv.org/abs/2302.13362v1
- Date: Sun, 26 Feb 2023 17:41:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-28 17:36:40.439759
- Title: The Doctrine of Cyber Effect: An Ethics Framework for Defensive Cyber
Deception
- Title(参考訳): サイバー・エフェクトのドクトリン:サイバー攻撃の防御のための倫理的枠組み
- Authors: Quanyan Zhu
- Abstract要約: 本研究は,サイバー空間における防衛的騙しの倫理に焦点をあてる。
我々は,善意,非オントロジー,無害,透明性,公正という5つの倫理原則を取り入れたサイバー効果の原理を提案する。
この教義は、AI説明責任やYouTubeレコメンデーションに関する論争など倫理的な問題を含む、幅広い適用性を持っている。
- 参考スコア(独自算出の注目度): 22.102728605081534
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The lack of established rules and regulations in cyberspace is attributed to
the absence of agreed-upon ethical principles, making it difficult to establish
accountability, regulations, and laws. Addressing this challenge requires
examining cyberspace from fundamental philosophical principles. This work
focuses on the ethics of using defensive deception in cyberspace, proposing a
doctrine of cyber effect that incorporates five ethical principles: goodwill,
deontology, no-harm, transparency, and fairness. To guide the design of
defensive cyber deception, we develop a reasoning framework, the game of
ethical duplicity, which is consistent with the doctrine. While originally
intended for cyber deception, this doctrine has broader applicability,
including for ethical issues such as AI accountability and controversies
related to YouTube recommendations. By establishing ethical principles, we can
promote greater accountability, regulation, and protection in the digital
realm.
- Abstract(参考訳): サイバースペースにおける確立された規則や規則の欠如は、合意された倫理原則の欠如に起因するものであり、説明責任、規則、法律の確立が困難である。
この課題に取り組むには、基本的な哲学原理からサイバースペースを調べる必要がある。
本研究は,サイバー空間における防御的デセプションの使用の倫理に焦点をあて,善意,デオントロジー,無傷,透明性,公平という5つの倫理原理を取り入れたサイバー効果のドクトリンを提案する。
防衛的サイバー・デセプションの設計を導くため、我々は理屈の枠組みである倫理的重複のゲームを開発し、ドクトリンと一致している。
当初はサイバー詐欺を意図していたが、この教義は、AI説明責任やYouTubeの推薦に関する論争など倫理的な問題を含め、幅広い適用性を持っている。
倫理的原則を確立することで、デジタル領域におけるより大きな説明責任、規制、保護を促進することができる。
関連論文リスト
- Ethical Hacking and its role in Cybersecurity [0.0]
本稿では,現代のサイバーセキュリティにおける倫理的ハッキングの多様な機能について検討する。
倫理的ハッキング技術の進歩、脆弱性の特定と侵入テストの実行、組織のセキュリティ強化への影響を分析します。
論文 参考訳(メタデータ) (2024-08-28T11:06:17Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Practical Cybersecurity Ethics: Mapping CyBOK to Ethical Concerns [13.075370397377078]
我々はサイバーセキュリティ・ボディー・オブ・ナレッジ(Cyber Security Body of Knowledge, CyBOK, CyBOK)で現在進行中の業務を利用して、専門職の責任と倫理を勧誘し、文書化している。
サイバーセキュリティの倫理に関する文献レビューに基づいて、サイバーセキュリティの専門職における倫理的課題を探求するためにCyBOKを使用します。
私たちの調査結果は、サイバーセキュリティには幅広い倫理的課題があるだけでなく、サイバーセキュリティのさまざまな領域が特定の倫理的考慮に直面する可能性があることを示唆しています。
論文 参考訳(メタデータ) (2023-11-16T19:44:03Z) - Report of the 1st Workshop on Generative AI and Law [78.62063815165968]
本報告では、生成AIと法に関する第1回ワークショップ(GenLaw)の開催状況について述べる。
コンピュータサイエンスと法学の実践者や学者の学際的なグループが集まり、ジェネレーティブAI法がもたらす技術的、教義的、政策上の課題について議論した。
論文 参考訳(メタデータ) (2023-11-11T04:13:37Z) - Rethinking Machine Ethics -- Can LLMs Perform Moral Reasoning through the Lens of Moral Theories? [78.3738172874685]
倫理的AIシステムの開発には倫理的判断が不可欠である。
一般的なアプローチは主にボトムアップ方式で実装されており、モラルに関するクラウドソースの意見に基づいて、大量の注釈付きデータを使用してモデルをトレーニングする。
本研究は、学際的な研究から確立された道徳理論を用いて道徳的推論を行うために、言語モデル(LM)を操る柔軟なトップダウンフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-29T15:57:32Z) - Macro Ethics Principles for Responsible AI Systems: Taxonomy and Future Directions [1.864621482724548]
我々は、AIで運用可能な21の規範的倫理原則の分類法を開発する。
我々は、この分類が、責任あるAIシステムの能力の推論に規範的倫理原則を取り入れるための方法論の開発を促進することを想定する。
論文 参考訳(メタデータ) (2022-08-12T08:48:16Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Ethics of AI: A Systematic Literature Review of Principles and
Challenges [3.7129018407842445]
透明性、プライバシ、説明責任、公正性は、最も一般的なAI倫理原則として識別される。
倫理的知識の欠如と曖昧な原則は、AIにおける倫理を考える上で重要な課題として報告されている。
論文 参考訳(メタデータ) (2021-09-12T15:33:43Z) - AI virtues -- The missing link in putting AI ethics into practice [0.0]
この論文は、正義、誠実さ、責任、注意の4つの基本的なAIの美徳を定義している。
それは2階AIの2つの美徳、寛大さと寛大さを定義し、基本的な美徳を後押しする。
論文 参考訳(メタデータ) (2020-11-25T14:14:47Z) - Case Study: Deontological Ethics in NLP [119.53038547411062]
我々はNLPの観点から1つの倫理理論、すなわち非オントロジー的倫理について研究する。
特に、インフォームド・コンセントを通じて、一般化原則と自律性への敬意に焦点を当てる。
NLPシステムでこれらの原則をどのように利用できるかを示すための4つのケーススタディを提供する。
論文 参考訳(メタデータ) (2020-10-09T16:04:51Z) - Hacia los Comit\'es de \'Etica en Inteligencia Artificial [68.8204255655161]
以下のルールを監督できるルールと専門組織を作成することが最優先である。
この研究は、大学において、人工知能に特化した倫理委員会や委員会を創設することを提案する。
論文 参考訳(メタデータ) (2020-02-11T23:48:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。