論文の概要: Personalized Detection of Cognitive Biases in Actions of Users from
Their Logs: Anchoring and Recency Biases
- arxiv url: http://arxiv.org/abs/2206.15129v1
- Date: Thu, 30 Jun 2022 08:51:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-01 14:10:49.992976
- Title: Personalized Detection of Cognitive Biases in Actions of Users from
Their Logs: Anchoring and Recency Biases
- Title(参考訳): ログからのユーザの行動における認知バイアスの個人化検出:アンコリングと頻度バイアス
- Authors: Atanu R Sinha, Navita Goyal, Sunny Dhamnani, Tanay Asija, Raja K
Dubey, M V Kaarthik Raja, Georgios Theocharous
- Abstract要約: 私たちは2つの認知バイアス – アンカーとリリーン – に焦点を当てています。
コンピュータ科学における認知バイアスの認識は、主に情報検索の領域にある。
我々は、ユーザの行動のWebログからこれらの2つの認知バイアスを検出するために、機械学習と共に原則化されたアプローチを提供する。
- 参考スコア(独自算出の注目度): 9.445205340175555
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cognitive biases are mental shortcuts humans use in dealing with information
and the environment, and which result in biased actions and behaviors (or,
actions), unbeknownst to themselves. Biases take many forms, with cognitive
biases occupying a central role that inflicts fairness, accountability,
transparency, ethics, law, medicine, and discrimination. Detection of biases is
considered a necessary step toward their mitigation. Herein, we focus on two
cognitive biases - anchoring and recency. The recognition of cognitive bias in
computer science is largely in the domain of information retrieval, and bias is
identified at an aggregate level with the help of annotated data. Proposing a
different direction for bias detection, we offer a principled approach along
with Machine Learning to detect these two cognitive biases from Web logs of
users' actions. Our individual user level detection makes it truly
personalized, and does not rely on annotated data. Instead, we start with two
basic principles established in cognitive psychology, use modified training of
an attention network, and interpret attention weights in a novel way according
to those principles, to infer and distinguish between these two biases. The
personalized approach allows detection for specific users who are susceptible
to these biases when performing their tasks, and can help build awareness among
them so as to undertake bias mitigation.
- Abstract(参考訳): 認知的バイアス(Cognitive bias)とは、人間が情報や環境を扱う際に使用する精神的なショートカットであり、結果として偏見のある行動や行動(または行動)が自己に知られない。
バイアスは、公平さ、説明責任、透明性、倫理、法律、医学、差別に影響を及ぼす中心的な役割を占める認知バイアスによって多くの形態を取る。
バイアスの検出は、その緩和に向けて必要なステップであると考えられている。
ここでは,アンカーとレジェンシーという2つの認知バイアスに注目した。
コンピュータサイエンスにおける認知バイアスの認識は主に情報検索の領域にあり、バイアスは注釈付きデータの助けを借りて集約レベルで識別される。
バイアス検出のための異なる方向を提案するため、機械学習とともに、これらの2つの認知バイアスをユーザの行動のwebログから検出する原則付きアプローチを提案する。
個々のユーザレベルを検出することで、真にパーソナライズされ、注釈付きデータに依存しません。
代わりに、認知心理学で確立された2つの基本原則から始め、注意ネットワークの修正されたトレーニングを使用し、これらの原則に従って新しい方法で注意重みを解釈し、これらの2つのバイアスを推論し区別する。
パーソナライズされたアプローチでは、タスクの実行時にこれらのバイアスに影響を受けやすい特定のユーザの検出が可能になる。
関連論文リスト
- The Importance of Cognitive Biases in the Recommendation Ecosystem [8.267786874280848]
認知バイアスは、レコメンデーションエコシステムの様々な部分にも現れ、レコメンデーションプロセスの異なる段階にも現れます。
我々は, 特徴陽性効果, IKEA効果, 文化的ホモフィリーなどのバイアスがレコメンデーションパイプラインの様々な構成要素で観察できるという実証的証拠を提供する。
我々は,ユーザモデルや項目モデル,レコメンデーションアルゴリズムを改善するために,偏見のない認知バイアスの考察を提唱する。
論文 参考訳(メタデータ) (2024-08-22T15:33:46Z) - Modeling User Preferences via Brain-Computer Interfacing [54.3727087164445]
我々はBrain-Computer Interface技術を用いてユーザの好みを推測し、その注意力は視覚的コンテンツと感情的体験との関連性に相関する。
我々はこれらを,情報検索,生成モデルのパーソナライズされたステアリング,感情経験のクラウドソーシング人口推定など,関連するアプリケーションにリンクする。
論文 参考訳(メタデータ) (2024-05-15T20:41:46Z) - Mitigating Biases in Collective Decision-Making: Enhancing Performance in the Face of Fake News [4.413331329339185]
これらのバイアスが偽ニュースの広範的問題に与える影響を、偽ニュースの見出しを識別する人間の能力を評価することによって検討する。
センシティブな特徴を含む見出しに焦点を合わせることで、人間の反応がバイアスによってどのように形作られるかを探るため、包括的なデータセットを集めます。
人口統計学的要因,見出しカテゴリー,情報の提示方法が人的判断の誤りに大きく影響していることを示す。
論文 参考訳(メタデータ) (2024-03-11T12:08:08Z) - Cognitive Bias in Decision-Making with LLMs [19.87475562475802]
大規模言語モデル(LLM)は、幅広い意思決定タスクをサポートするツールとして大きな可能性を秘めている。
LLMは保護されたグループに対する社会的バイアスを継承し、認知バイアスと機能的に類似している。
私たちの研究は、LLMの認知バイアスを発見し、評価し、緩和するために設計されたフレームワークであるBiasBusterを紹介します。
論文 参考訳(メタデータ) (2024-02-25T02:35:56Z) - Information-Theoretic Bias Reduction via Causal View of Spurious
Correlation [71.9123886505321]
本稿では,スプリアス相関の因果的解釈による情報理論バイアス測定手法を提案する。
本稿では,バイアス正規化損失を含むアルゴリズムバイアスに対する新しいデバイアスフレームワークを提案する。
提案したバイアス測定とデバイアス法は、多様な現実シナリオで検証される。
論文 参考訳(メタデータ) (2022-01-10T01:19:31Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Towards Learning an Unbiased Classifier from Biased Data via Conditional
Adversarial Debiasing [17.113618920885187]
本稿では,訓練画像のラベルに急激に結びついている特徴に対処する,新しい逆脱バイアス法を提案する。
我々は、上記の偏見に対する既存の手法よりも、我々のアプローチが優れているという数学的証明によって論じる。
実験の結果,本手法は猫や犬の実世界画像を用いたベンチマークデータセットにおいて,最先端技術よりも優れた性能を示すことがわかった。
論文 参考訳(メタデータ) (2021-03-10T16:50:42Z) - Estimating and Improving Fairness with Adversarial Learning [65.99330614802388]
本研究では,深層学習に基づく医療画像解析システムにおけるバイアスの同時緩和と検出を目的としたマルチタスク・トレーニング戦略を提案する。
具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。
大規模で利用可能な皮膚病変データセットのフレームワークを評価します。
論文 参考訳(メタデータ) (2021-03-07T03:10:32Z) - Person Perception Biases Exposed: Revisiting the First Impressions
Dataset [26.412669618149106]
この研究はChaLearn First Impressionsデータベースを再考し、クラウドソーシングによるペアワイズ比較を用いてパーソナリティ知覚に注釈を付けた。
我々は、性別、民族性、年齢、顔の魅力といった認識特性に関連付けられた、既存の人の知覚バイアスを明らかにする。
論文 参考訳(メタデータ) (2020-11-30T15:41:27Z) - Towards causal benchmarking of bias in face analysis algorithms [54.19499274513654]
顔分析アルゴリズムのアルゴリズムバイアスを測定する実験手法を開発した。
提案手法は,一致したサンプル画像の合成トランスクター'を生成することに基づく。
性別分類アルゴリズムの偏見を従来の観察法を用いて分析することにより,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-07-13T17:10:34Z) - Learning from Failure: Training Debiased Classifier from Biased
Classifier [76.52804102765931]
ニューラルネットワークは、所望の知識よりも学習が簡単である場合にのみ、素早い相関に依存することを学習していることを示す。
本稿では,一対のニューラルネットワークを同時にトレーニングすることで,障害に基づくデバイアス化手法を提案する。
本手法は,合成データセットと実世界のデータセットの両方において,各種バイアスに対するネットワークのトレーニングを大幅に改善する。
論文 参考訳(メタデータ) (2020-07-06T07:20:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。