論文の概要: Overcoming Algorithm Aversion with Transparency: Can Transparent Predictions Change User Behavior?
- arxiv url: http://arxiv.org/abs/2508.03168v1
- Date: Tue, 05 Aug 2025 07:15:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 18:18:55.835319
- Title: Overcoming Algorithm Aversion with Transparency: Can Transparent Predictions Change User Behavior?
- Title(参考訳): 透明性のあるアルゴリズム回避:透明な予測はユーザの振る舞いを変えるか?
- Authors: Lasse Bohlen, Sven Kruschel, Julian Rosenberger, Patrick Zschech, Mathias Kraus,
- Abstract要約: これまでの研究によると、機械学習(ML)モデルの予測を調整することで、不完全なアルゴリズム決定を回避できた。
解釈可能なMLモデルがアルゴリズムの逆転をさらに減らすのか、あるいは時代遅れになるのかは不明だ。
- 参考スコア(独自算出の注目度): 3.738325076054202
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Previous work has shown that allowing users to adjust a machine learning (ML) model's predictions can reduce aversion to imperfect algorithmic decisions. However, these results were obtained in situations where users had no information about the model's reasoning. Thus, it remains unclear whether interpretable ML models could further reduce algorithm aversion or even render adjustability obsolete. In this paper, we conceptually replicate a well-known study that examines the effect of adjustable predictions on algorithm aversion and extend it by introducing an interpretable ML model that visually reveals its decision logic. Through a pre-registered user study with 280 participants, we investigate how transparency interacts with adjustability in reducing aversion to algorithmic decision-making. Our results replicate the adjustability effect, showing that allowing users to modify algorithmic predictions mitigates aversion. Transparency's impact appears smaller than expected and was not significant for our sample. Furthermore, the effects of transparency and adjustability appear to be more independent than expected.
- Abstract(参考訳): これまでの研究では、機械学習(ML)モデルの予測を調整することで、アルゴリズム上の不完全な決定に対する回避を減らせることが示されている。
しかし、これらの結果は、ユーザがモデルの推論に関する情報を持っていない状況において得られた。
したがって、解釈可能なMLモデルがアルゴリズムの逆転をさらに減らしたり、調整可能性の陳腐化を図ったりできるかどうかは不明だ。
本稿では,アルゴリズムの逆転に対する調整可能な予測の影響を検証したよく知られた研究を概念的に再現し,その決定ロジックを視覚的に明らかにする解釈可能なMLモデルを導入して拡張する。
280人の参加者による事前登録されたユーザスタディを通じて、透明性がアルゴリズムによる意思決定への逆戻りを減らすための調整可能性とどのように相互作用するかを検討する。
この結果から,アルゴリズムによる予測の修正は回避効果の緩和効果が示唆された。
透明性の影響は予想よりも小さく,本例では有意差はなかった。
さらに、透明性と調整性の影響は、予想以上に独立しているように見える。
関連論文リスト
- Financial Fraud Detection Using Explainable AI and Stacking Ensemble Methods [0.6642919568083927]
本稿では,XGBoost,LightGBM,CatBoostという,勾配促進モデルの積み重ねアンサンブルを組み合わせた不正検出フレームワークを提案する。
XAI技術は、モデルの決定の透明性と解釈可能性を高めるために使用される。
論文 参考訳(メタデータ) (2025-05-15T07:53:02Z) - Estimating Causal Effects from Learned Causal Networks [56.14597641617531]
本稿では、離散可観測変数に対する因果影響クエリに応答する代替パラダイムを提案する。
観測データから直接因果ベイズネットワークとその共起潜伏変数を学習する。
本手法は, 推定手法よりも有効であることを示す。
論文 参考訳(メタデータ) (2024-08-26T08:39:09Z) - Querying Easily Flip-flopped Samples for Deep Active Learning [63.62397322172216]
アクティブラーニング(英: Active Learning)は、ラベルのないデータを戦略的に選択してクエリすることで、モデルの性能を向上させることを目的とした機械学習パラダイムである。
効果的な選択戦略の1つはモデルの予測の不確実性に基づくもので、サンプルがどの程度情報的であるかの尺度として解釈できる。
本稿では,予測されたラベルの不一致の最小確率として,最小不一致距離(LDM)を提案する。
論文 参考訳(メタデータ) (2024-01-18T08:12:23Z) - Uncovering mesa-optimization algorithms in Transformers [61.06055590704677]
いくつかの自己回帰モデルは、入力シーケンスが処理されたときに学習でき、パラメータの変更を受けずに、それを行うように明示的に訓練されていない。
我々は,新しい入力が明らかになったときにモデルを調整するための補助学習アルゴリズムが,標準の次トーケン予測誤差最小化によって生まれることを示す。
本研究は、自己回帰損失最小化の産物としてコンテキスト内学習を説明し、新しい最適化ベースのトランスフォーマー層の設計を通知する。
論文 参考訳(メタデータ) (2023-09-11T22:42:50Z) - Can predictive models be used for causal inference? [0.0]
Supervised Machine Learning (ML)とDeep Learning (DL)アルゴリズムは予測タスクで優れている。
一般に、それらは非因果関係を利用して行うと仮定される。
この説明と予測のトレードオフは、期待したほど深く、根本的ではないことを示す。
論文 参考訳(メタデータ) (2023-06-18T13:11:36Z) - Understanding Self-Predictive Learning for Reinforcement Learning [61.62067048348786]
強化学習のための自己予測学習の学習ダイナミクスについて検討する。
本稿では,2つの表現を同時に学習する新しい自己予測アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-06T20:43:37Z) - User Driven Model Adjustment via Boolean Rule Explanations [7.814304432499296]
本稿では,MLモデルの予測能力を活用しながら,ユーザが決定境界に対する修正を指定できるようにするソリューションを提案する。
我々のインタラクティブなオーバーレイアプローチは、モデルの再トレーニングを必要とせずにこの目標を達成する。
ユーザフィードバックルールをML予測に階層化して即時変更を提供することで,少ないデータで学習を支援することを実証する。
論文 参考訳(メタデータ) (2022-03-28T20:27:02Z) - Fair Interpretable Representation Learning with Correction Vectors [60.0806628713968]
我々は「補正ベクトル」の学習を中心にした公正表現学習のための新しい枠組みを提案する。
このような方法で制約されたいくつかの公正表現学習モデルが、ランキングや分類性能の損失を示さないことを実験的に示す。
論文 参考訳(メタデータ) (2022-02-07T11:19:23Z) - Recoding latent sentence representations -- Dynamic gradient-based
activation modification in RNNs [0.0]
RNNでは、サブオプティマティックな方法で情報をエンコーディングすることは、シーケンスの後の要素に基づいて表現の質に影響を与える可能性がある。
勾配に基づく補正機構を用いて,標準RNNへの拡張を提案する。
言語モデリングの文脈で異なる実験を行い、そのようなメカニズムを使うことによる影響を詳細に調べる。
論文 参考訳(メタデータ) (2021-01-03T17:54:17Z) - Algorithmic Transparency with Strategic Users [9.289838852590732]
企業がそれを透明化すれば、機械学習アルゴリズムの予測能力も増大する可能性がある。
場合によっては、機械学習アルゴリズムの予測能力さえも、企業がそれを透明にすれば増大する可能性があることを、私たちは示しています。
論文 参考訳(メタデータ) (2020-08-21T03:10:42Z) - Anticipating the Long-Term Effect of Online Learning in Control [75.6527644813815]
AntLerは、学習を予想する学習ベースの制御法則の設計アルゴリズムである。
AntLer は確率 1 と任意に最適な解を近似することを示す。
論文 参考訳(メタデータ) (2020-07-24T07:00:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。