論文の概要: The Delusional Hedge Algorithm as a Model of Human Learning from Diverse
Opinions
- arxiv url: http://arxiv.org/abs/2402.13927v1
- Date: Wed, 21 Feb 2024 16:48:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-22 14:29:59.626757
- Title: The Delusional Hedge Algorithm as a Model of Human Learning from Diverse
Opinions
- Title(参考訳): 多様な意見からの人間の学習モデルとしての妄想的ヘッジアルゴリズム
- Authors: Yun-Shiuan Chuang, Jerry Zhu, Timothy T. Rogers
- Abstract要約: 日常的な学習の多くは、経験や根拠的真実の結果に直接アクセスすることなく、他人の意見を聴くことから生じる。
我々は、ハッシュアルゴリズムを拡張して、どの意見がそのようなシナリオを信頼するかを学習する方法を検討する。
提案手法では, ラベル付き情報とラベルなし情報の両方を, 妄想的ヘッジアルゴリズムと整合した方法で効果的に組み込むことが示される。
- 参考スコア(独自算出の注目度): 6.660458629649826
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Whereas cognitive models of learning often assume direct experience with both
the features of an event and with a true label or outcome, much of everyday
learning arises from hearing the opinions of others, without direct access to
either the experience or the ground truth outcome. We consider how people can
learn which opinions to trust in such scenarios by extending the hedge
algorithm: a classic solution for learning from diverse information sources. We
first introduce a semi-supervised variant we call the delusional hedge capable
of learning from both supervised and unsupervised experiences. In two
experiments, we examine the alignment between human judgments and predictions
from the standard hedge, the delusional hedge, and a heuristic baseline model.
Results indicate that humans effectively incorporate both labeled and unlabeled
information in a manner consistent with the delusional hedge algorithm --
suggesting that human learners not only gauge the accuracy of information
sources but also their consistency with other reliable sources. The findings
advance our understanding of human learning from diverse opinions, with
implications for the development of algorithms that better capture how people
learn to weigh conflicting information sources.
- Abstract(参考訳): 学習の認知モデルは、イベントの特徴と真のラベルまたは結果の両方で直接的な経験を仮定することが多いが、日常的な学習の多くは、経験または基礎的な真実の結果に直接アクセスすることなく、他人の意見を聴くことから生じる。
さまざまな情報ソースから学習するための古典的なソリューションであるヘッジアルゴリズムを拡張して,このようなシナリオを信頼する意見を学ぶ方法について検討する。
我々はまず,教師なしと教師なしの両方の経験から学習可能な半教師なしヘッジと呼ばれる変種を導入する。
2つの実験において、標準的なヘッジ、妄想ヘッジ、ヒューリスティックベースラインモデルからの人間の判断と予測の整合性を検討する。
結果は,人間の学習者が情報ソースの精度だけでなく,他の信頼できる情報源との整合性も評価することを示唆する,妄想的アルゴリズムと整合したラベル付き情報とラベルなし情報の両方を効果的に組み込むことを示唆している。
この知見は多様な意見から人間の学習の理解を前進させ、対立する情報ソースの重み付けをよりよく捉えるアルゴリズムの開発に寄与する。
関連論文リスト
- AI and the Problem of Knowledge Collapse [0.0]
特定の知識モードへのアクセスコストを削減することにより、AIが公衆の理解をパラドックス的に損なう可能性のある条件を特定する。
学習者やイノベーターのコミュニティが従来の手法を使うか、割引されたAI支援プロセスに頼るというシンプルなモデルを提供する。
我々のデフォルトモデルでは、AI生成コンテンツに対する20%の割引は、ディスカウントがない場合よりも真実から2.3倍の信条を生成する。
論文 参考訳(メタデータ) (2024-04-04T15:06:23Z) - Cognitive Bias in Decision-Making with LLMs [19.87475562475802]
大規模言語モデル(LLM)は、幅広い意思決定タスクをサポートするツールとして大きな可能性を秘めている。
LLMは保護されたグループに対する社会的バイアスを継承し、認知バイアスと機能的に類似している。
私たちの研究は、LLMの認知バイアスを発見し、評価し、緩和するために設計されたフレームワークであるBiasBusterを紹介します。
論文 参考訳(メタデータ) (2024-02-25T02:35:56Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Anti-Retroactive Interference for Lifelong Learning [65.50683752919089]
我々は脳のメタラーニングと連想機構に基づく生涯学習のパラダイムを設計する。
知識の抽出と知識の記憶という2つの側面から問題に取り組む。
提案した学習パラダイムが,異なるタスクのモデルを同じ最適に収束させることができることを理論的に分析した。
論文 参考訳(メタデータ) (2022-08-27T09:27:36Z) - Learning Bias-Invariant Representation by Cross-Sample Mutual
Information Minimization [77.8735802150511]
対象タスクが誤用したバイアス情報を除去するために,クロスサンプル対逆脱バイアス法(CSAD)を提案する。
相関測定は, 対向的偏り評価において重要な役割を担い, クロスサンプル型相互情報推定器によって行われる。
我々は,提案手法の最先端手法に対する利点を検証するために,公開データセットの徹底的な実験を行った。
論文 参考訳(メタデータ) (2021-08-11T21:17:02Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z) - FairCVtest Demo: Understanding Bias in Multimodal Learning with a
Testbed in Fair Automatic Recruitment [79.23531577235887]
このデモは、非構造化データから機密情報を抽出する採用ツールの背後にある人工知能(AI)の能力を示しています。
また、このデモには差別認識学習のための新しいアルゴリズムが含まれており、マルチモーダルAIフレームワークの機密情報を排除している。
論文 参考訳(メタデータ) (2020-09-12T17:45:09Z) - Contrastive learning, multi-view redundancy, and linear models [38.80336134485453]
表現学習に対する一般的な自己指導的アプローチは、対照的な学習である。
この研究は、マルチビュー設定におけるコントラスト学習の理論分析を提供する。
論文 参考訳(メタデータ) (2020-08-24T01:31:47Z) - Towards causal benchmarking of bias in face analysis algorithms [54.19499274513654]
顔分析アルゴリズムのアルゴリズムバイアスを測定する実験手法を開発した。
提案手法は,一致したサンプル画像の合成トランスクター'を生成することに基づく。
性別分類アルゴリズムの偏見を従来の観察法を用いて分析することにより,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-07-13T17:10:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。