論文の概要: Algorithmic Transparency and Manipulation
- arxiv url: http://arxiv.org/abs/2311.13286v1
- Date: Wed, 22 Nov 2023 10:09:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-23 15:15:06.064101
- Title: Algorithmic Transparency and Manipulation
- Title(参考訳): アルゴリズムの透明性と操作
- Authors: Michael Klenk
- Abstract要約: 最近の一連の論文は、アルゴリズムの透明性の操作可能性に関する懸念を提起している。
本稿では、脆弱性の観点よりも優れた操作の無関心な視点に注意を向ける。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: A series of recent papers raises worries about the manipulative potential of
algorithmic transparency. But while the concern is apt and relevant, it is
based on a fraught understanding of manipulation. Therefore, this paper draws
attention to the indifference view of manipulation, which explains better than
the vulnerability view why algorithmic transparency has manipulative potential.
The paper also raises pertinent research questions for future studies of
manipulation in the context of algorithmic transparency.
- Abstract(参考訳): 最近の一連の論文は、アルゴリズムの透明性の操作可能性に関する懸念を提起している。
しかし、懸念は適度で関連性があるが、操作の理解に根ざしている。
そこで本稿は,アルゴリズムの透明性がマニピュティブな可能性を持つ理由を,脆弱性の観点よりも説明できる,操作の無関心な視点に注目する。
また,アルゴリズム的透明性の文脈における操作の今後の研究について,関連する研究課題を提起する。
関連論文リスト
- Establishing a leader in a pairwise comparisons method [0.2678472239880052]
操作攻撃の開始に使用できるアルゴリズムを2つ示す。
2つの選択された選択肢の重み付けをペア比較法で行うことができ、その結果、リーダーを選択することができる。
論文 参考訳(メタデータ) (2024-03-21T23:42:00Z) - Mathematical Algorithm Design for Deep Learning under Societal and
Judicial Constraints: The Algorithmic Transparency Requirement [65.26723285209853]
計算モデルにおける透過的な実装が実現可能かどうかを分析するための枠組みを導出する。
以上の結果から,Blum-Shub-Smale Machinesは,逆問題に対する信頼性の高い解法を確立できる可能性が示唆された。
論文 参考訳(メタデータ) (2024-01-18T15:32:38Z) - Adversarial Attacks on the Interpretation of Neuron Activation
Maximization [70.5472799454224]
アクティベーション最大化アプローチは、訓練されたディープラーニングモデルの解釈と解析に使用される。
本研究では,解釈を欺くためにモデルを操作する敵の概念を考察する。
論文 参考訳(メタデータ) (2023-06-12T19:54:33Z) - Disagreement amongst counterfactual explanations: How transparency can
be deceptive [0.0]
偽物の説明は、説明可能な人工知能技術としてますます使われている。
すべてのアルゴリズムが同じインスタンスに対して一様説明を生成するわけではない。
悪意のあるエージェントがこの多様性を使って不公平な機械学習モデルに見合うと、倫理的な問題が生じる。
論文 参考訳(メタデータ) (2023-04-25T09:15:37Z) - What and How of Machine Learning Transparency: Building Bespoke
Explainability Tools with Interoperable Algorithmic Components [77.87794937143511]
本稿では,データ駆動予測モデルを説明するためのハンズオントレーニング教材について紹介する。
これらのリソースは、解釈可能な表現合成、データサンプリング、説明生成の3つのコアビルディングブロックをカバーする。
論文 参考訳(メタデータ) (2022-09-08T13:33:25Z) - Learning Losses for Strategic Classification [5.812499828391904]
私たちは、よい決定ルールを学ぶのに必要な、サンプルの複雑さに焦点をあてて、学習理論的な視点を取ります。
我々は、関数クラスと演算グラフの複雑さの観点から、操作可能な既知のグラフのサンプル複雑性を解析する。
移動学習理論の手法を用いて、グラフを操作するための類似度尺度を定義し、その操作グラフの小さな変化に対して学習結果が堅牢であることを示す。
論文 参考訳(メタデータ) (2022-03-25T02:26:16Z) - Towards Generalizable and Robust Face Manipulation Detection via
Bag-of-local-feature [55.47546606878931]
そこで本稿では,局所的特徴の一般化能力とロバスト性を向上する顔の操作検出手法を提案する。
具体的には、パッチ間関係をエンコードするためにbag-of-featureアプローチを使ってトランスフォーマーを拡張し、明示的な監督なしにローカルな偽造機能を学ぶことができる。
論文 参考訳(メタデータ) (2021-03-14T12:50:48Z) - Dimensions of Transparency in NLP Applications [64.16277166331298]
aiシステムに関する記述とコミュニケーションに関する幅広い透明性が望ましいと考えられている。
以前の研究は、システムの透明性向上とユーザの混乱の間にトレードオフが存在することを示唆している。
論文 参考訳(メタデータ) (2021-01-02T11:46:17Z) - MailLeak: Obfuscation-Robust Character Extraction Using Transfer
Learning [10.097647847497116]
提案手法は,現在の郵便サービスに対する潜在的な脅威の一例である。
本稿では,与えられたアルゴリズムの効率を解析し,その脅威を防止する対策を提案する。
論文 参考訳(メタデータ) (2020-12-22T01:14:28Z) - Algorithmic Transparency with Strategic Users [9.289838852590732]
企業がそれを透明化すれば、機械学習アルゴリズムの予測能力も増大する可能性がある。
場合によっては、機械学習アルゴリズムの予測能力さえも、企業がそれを透明にすれば増大する可能性があることを、私たちは示しています。
論文 参考訳(メタデータ) (2020-08-21T03:10:42Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。