論文の概要: Against Algorithmic Exploitation of Human Vulnerabilities
- arxiv url: http://arxiv.org/abs/2301.04993v1
- Date: Thu, 12 Jan 2023 13:15:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 14:19:17.933874
- Title: Against Algorithmic Exploitation of Human Vulnerabilities
- Title(参考訳): アルゴリズムによる人間の脆弱性の搾取
- Authors: Inga Str\"umke and Marija Slavkovik and Clemens Stachl
- Abstract要約: 我々は、機械学習モデルが故意に脆弱性をモデル化することを懸念している。
一般的な脆弱性を記述し、アルゴリズムによる意思決定においてそれらが役割を担っている可能性を示す。
本稿では,脆弱性モデリングの可能性を検出する手法の一連の要件を提案する。
- 参考スコア(独自算出の注目度): 2.6918074738262194
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Decisions such as which movie to watch next, which song to listen to, or
which product to buy online, are increasingly influenced by recommender systems
and user models that incorporate information on users' past behaviours,
preferences, and digitally created content. Machine learning models that enable
recommendations and that are trained on user data may unintentionally leverage
information on human characteristics that are considered vulnerabilities, such
as depression, young age, or gambling addiction. The use of algorithmic
decisions based on latent vulnerable state representations could be considered
manipulative and could have a deteriorating impact on the condition of
vulnerable individuals. In this paper, we are concerned with the problem of
machine learning models inadvertently modelling vulnerabilities, and want to
raise awareness for this issue to be considered in legislation and AI ethics.
Hence, we define and describe common vulnerabilities, and illustrate cases
where they are likely to play a role in algorithmic decision-making. We propose
a set of requirements for methods to detect the potential for vulnerability
modelling, detect whether vulnerable groups are treated differently by a model,
and detect whether a model has created an internal representation of
vulnerability. We conclude that explainable artificial intelligence methods may
be necessary for detecting vulnerability exploitation by machine learning-based
recommendation systems.
- Abstract(参考訳): 次にどの映画を見るべきか、どの曲を聴くか、オンラインを買うかといった決定は、ユーザーの過去の行動や好み、デジタル化されたコンテンツに関する情報を取り入れたレコメンデーションシステムやユーザーモデルの影響がますます強まっている。
レコメンデーションやユーザデータでトレーニングされるマシンラーニングモデルは、うつ病や若年者、ギャンブル中毒などの脆弱性と考えられる人間の特性に関する情報を意図せずに活用する可能性がある。
潜在的な脆弱な状態表現に基づくアルゴリズム的決定の使用は、マニピュレーションと見なすことができ、脆弱な個人の状態に対する影響を悪化させる可能性がある。
本稿では,脆弱性を不注意にモデル化する機械学習モデルの問題に関心を持ち,法律やAI倫理において考慮すべき問題に対する認識を高めたい。
したがって、共通の脆弱性を定義し、記述し、アルゴリズム的意思決定においてそれらが役割を担っているケースを説明する。
本稿では,脆弱性モデリングの可能性を検出し,脆弱性集団がモデルによって異なる扱いを受けるかどうかを検知し,モデルが脆弱性の内部表現を作成したかどうかを検出するための一連の要件を提案する。
機械学習に基づくレコメンデーションシステムによる脆弱性エクスプロイトの検出には,説明可能な人工知能手法が必要であると結論づける。
関連論文リスト
- Verification of Machine Unlearning is Fragile [48.71651033308842]
両タイプの検証戦略を回避できる2つの新しい非学習プロセスを導入する。
この研究は、機械学習検証の脆弱性と限界を強調し、機械学習の安全性に関するさらなる研究の道を開く。
論文 参考訳(メタデータ) (2024-08-01T21:37:10Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - Machine Unlearning: Solutions and Challenges [21.141664917477257]
機械学習モデルは、機密性、不正、悪意のあるデータを不注意に記憶し、プライバシ侵害、セキュリティ脆弱性、パフォーマンス劣化のリスクを生じさせる可能性がある。
これらの問題に対処するために、機械学習は訓練されたモデルに対する特定の訓練データポイントの影響を選択的に除去する重要なテクニックとして登場した。
本稿では,機械学習における解の包括的分類と解析について述べる。
論文 参考訳(メタデータ) (2023-08-14T10:45:51Z) - Self-Destructing Models: Increasing the Costs of Harmful Dual Uses of
Foundation Models [103.71308117592963]
本稿ではメタラーニングと逆学習の技法を活用した自己破壊モデルの学習アルゴリズムを提案する。
小規模な実験では、MLACは、BERTスタイルのモデルが性別識別を行うために再目的化されることをほとんど防ぐことができることを示す。
論文 参考訳(メタデータ) (2022-11-27T21:43:45Z) - Explainability for identification of vulnerable groups in machine
learning models [1.7403133838762446]
フィールドとしての機械学習の公正性は、情報処理の下で個人やグループの公正な扱いに焦点が当てられている。
これにより、マシンラーニングの下で脆弱な個人やグループを保護する方法とタイミングに関する新たな課題が提起される。
既存の公正性も既存の説明可能性も、予測モデルが脆弱性を特定しているかどうかを確認できない。
論文 参考訳(メタデータ) (2022-03-01T09:44:19Z) - When and How to Fool Explainable Models (and Humans) with Adversarial
Examples [1.439518478021091]
説明可能な機械学習モデルに対する敵攻撃の可能性と限界について検討する。
まず、逆例の概念を拡張して、説明可能な機械学習シナリオに適合する。
次に、説明可能なモデルに対して、逆例を生成できるかどうかを総合的に検討する枠組みを提案する。
論文 参考訳(メタデータ) (2021-07-05T11:20:55Z) - Individual Explanations in Machine Learning Models: A Survey for
Practitioners [69.02688684221265]
社会的関連性の高い領域の決定に影響を与える洗練された統計モデルの使用が増加しています。
多くの政府、機関、企業は、アウトプットが人間の解釈可能な方法で説明しにくいため、採用に消極的です。
近年,機械学習モデルに解釈可能な説明を提供する方法として,学術文献が多数提案されている。
論文 参考訳(メタデータ) (2021-04-09T01:46:34Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - (Un)fairness in Post-operative Complication Prediction Models [20.16366948502659]
手術前のリスク推定の実例を考察し,様々なアルゴリズムの偏見や不公平性について検討する。
当社のアプローチでは,潜在的なバイアスに関する透過的なドキュメントを作成して,ユーザが慎重にモデルを適用できるようにしています。
論文 参考訳(メタデータ) (2020-11-03T22:11:19Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。