論文の概要: Software Doping Analysis for Human Oversight
- arxiv url: http://arxiv.org/abs/2308.06186v1
- Date: Fri, 11 Aug 2023 15:24:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-14 13:34:42.540931
- Title: Software Doping Analysis for Human Oversight
- Title(参考訳): 人間の監視のためのソフトウェアドーピング解析
- Authors: Sebastian Biewer, Kevin Baum, Sarah Sterz, Holger Hermanns, Sven
Hetmank, Markus Langer, Anne Lauber-R\"onsberg and Franz Lehr
- Abstract要約: この記事では、ソフトウェアがもたらす社会的リスクを軽減するためのフレームワークを紹介します。
ソフトウェアドーピング(ソフトウェアドーピング、英: software doping)とは、ユーザの関心に反する、過剰に付加された機能を含むソフトウェアを指す用語である。
本手法は, ディーゼル車の排ガス浄化システムだけでなく, 人体を不公平あるいは差別的に評価する高リスクシステムにも応用する。
- 参考スコア(独自算出の注目度): 0.6684230842837857
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This article introduces a framework that is meant to assist in mitigating
societal risks that software can pose. Concretely, this encompasses facets of
software doping as well as unfairness and discrimination in high-risk
decision-making systems. The term software doping refers to software that
contains surreptitiously added functionality that is against the interest of
the user. A prominent example of software doping are the tampered emission
cleaning systems that were found in millions of cars around the world when the
diesel emissions scandal surfaced. The first part of this article combines the
formal foundations of software doping analysis with established probabilistic
falsification techniques to arrive at a black-box analysis technique for
identifying undesired effects of software. We apply this technique to emission
cleaning systems in diesel cars but also to high-risk systems that evaluate
humans in a possibly unfair or discriminating way. We demonstrate how our
approach can assist humans-in-the-loop to make better informed and more
responsible decisions. This is to promote effective human oversight, which will
be a central requirement enforced by the European Union's upcoming AI Act. We
complement our technical contribution with a juridically, philosophically, and
psychologically informed perspective on the potential problems caused by such
systems.
- Abstract(参考訳): この記事では、ソフトウェアが生み出す社会的なリスクを軽減するためのフレームワークを紹介します。
具体的には、ソフトウェアドーピングの側面と、リスクの高い意思決定システムにおける不公平さと差別を包含する。
ソフトウェアドーピング(software doping)という用語は、ユーザの関心に逆らう機能を含むソフトウェアを指す。
ソフトウェアドーピングの顕著な例は、ディーゼル排ガススキャンダルが表面化した際に世界中の何百万もの車から見つかった、改ざんされた排出浄化システムである。
この記事では、ソフトウェアドーピング分析の正式な基礎と確立された確率的ファルシフィケーション技術を組み合わせて、ソフトウェアが望まない効果を識別するためのブラックボックス分析技術に到達します。
本手法は, ディーゼル車の排ガス浄化システムだけでなく, 人間を不公平あるいは差別的に評価する高リスクシステムにも応用する。
当社のアプローチが,より情報に富み,より責任のある意思決定を行う上で,いかに人間を支援できるかを実証する。
これは、欧州連合(EU)の今後のAI法が施行する中心的な要件である、効果的な人間の監視を促進するためである。
我々は,このようなシステムによって引き起こされる潜在的な問題について,科学的,哲学的,心理的に理解された視点で技術的貢献を補完する。
関連論文リスト
- From Silos to Systems: Process-Oriented Hazard Analysis for AI Systems [2.226040060318401]
システム理論プロセス分析(STPA)をAIの操作と開発プロセスの解析に応用する。
我々は、機械学習アルゴリズムに依存したシステムと、3つのケーススタディに焦点をあてる。
私たちは、AIシステムに適したいくつかの適応があるにもかかわらず、anAを実行するための重要な概念とステップが容易に適用できることに気付きました。
論文 参考訳(メタデータ) (2024-10-29T20:43:18Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Combatting Human Trafficking in the Cyberspace: A Natural Language
Processing-Based Methodology to Analyze the Language in Online Advertisements [55.2480439325792]
このプロジェクトは、高度自然言語処理(NLP)技術により、オンラインC2Cマーケットプレースにおける人身売買の急激な問題に取り組む。
我々は、最小限の監督で擬似ラベル付きデータセットを生成する新しい手法を導入し、最先端のNLPモデルをトレーニングするための豊富なリソースとして機能する。
重要な貢献は、Integrated Gradientsを使った解釈可能性フレームワークの実装であり、法執行にとって重要な説明可能な洞察を提供する。
論文 参考訳(メタデータ) (2023-11-22T02:45:01Z) - Development of a Multi-purpose Fuzzer to Perform Assessment as Input to
a Cybersecurity Risk Assessment and Analysis System [0.0]
本稿では,提案技術の性能について述べる。
また、このファザがサイバーセキュリティのリスク評価と分析システムの一部としてどのように機能するかについても詳述している。
論文 参考訳(メタデータ) (2023-06-07T09:38:31Z) - Can Fairness be Automated? Guidelines and Opportunities for
Fairness-aware AutoML [52.86328317233883]
本報告では、公平性に関連する害が発生する様々な方法の概要を概説する。
この方向に進むためには、いくつかのオープンな技術的課題を強調します。
論文 参考訳(メタデータ) (2023-03-15T09:40:08Z) - Bias Impact Analysis of AI in Consumer Mobile Health Technologies:
Legal, Technical, and Policy [1.6114012813668934]
本研究は,消費者向けモバイルヘルス技術(mHealth)におけるアルゴリズムバイアスの交叉について検討する。
現在のメカニズム – 法的,技術的,あるいは規範 – が,望ましくないバイアスに伴う潜在的なリスクを軽減する上で,どのような効果があるのか,検討する。
我々は、技術者や政策立案者の役割と責任に関する追加のガイダンスを提供し、そのようなシステムが患者に公平な力を与えるようにしなくてはならない。
論文 参考訳(メタデータ) (2022-08-29T00:15:45Z) - Explainable Intrusion Detection Systems (X-IDS): A Survey of Current
Methods, Challenges, and Opportunities [0.0]
侵入検知システム(IDS)は、大量のデータを高い予測精度で処理できるため、広く採用されている。
深層学習(DL)技術を用いて設計されたIDSは、ブラックボックスモデルとして扱われることが多く、予測の正当化は提供されない。
この調査では、IDSの最先端AI(XAI)とその現在の課題についてレビューし、これらの課題がX-IDSの設計にどのように当てはまるかを論じる。
論文 参考訳(メタデータ) (2022-07-13T14:31:46Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z) - A Case for Humans-in-the-Loop: Decisions in the Presence of Erroneous
Algorithmic Scores [85.12096045419686]
本研究では,児童虐待のホットラインスクリーニング決定を支援するアルゴリズムツールの採用について検討した。
まず、ツールがデプロイされたときに人間が行動を変えることを示します。
表示されたスコアが誤ったリスク推定である場合、人間はマシンの推奨に従わない可能性が低いことを示す。
論文 参考訳(メタデータ) (2020-02-19T07:27:32Z) - Bias in Data-driven AI Systems -- An Introductory Survey [37.34717604783343]
この調査は、(大きな)データと強力な機械学習(ML)アルゴリズムによって、AIの大部分は、データ駆動型AIに重点を置いている。
さもなければ、一般的な用語バイアスを使ってデータの収集や処理に関連する問題を説明します。
論文 参考訳(メタデータ) (2020-01-14T09:39:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。