論文の概要: Measuring Trustworthiness or Automating Physiognomy? A Comment on Safra,
Chevallier, Gr\`ezes, and Baumard (2020)
- arxiv url: http://arxiv.org/abs/2202.08674v1
- Date: Thu, 17 Feb 2022 14:17:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-18 19:18:56.659850
- Title: Measuring Trustworthiness or Automating Physiognomy? A Comment on Safra,
Chevallier, Gr\`ezes, and Baumard (2020)
- Title(参考訳): 信頼度測定か、生理学の自動化か?
Safra, Chevallier, Gr\`ezes, and Baumard (2020) へのコメント
- Authors: Rory W Spanton and Olivia Guest
- Abstract要約: 対人信頼は、人間の社会の発展に欠かせないものと見なすことができる。
Safra、Chevallier、Grezes、Baumardは、歴史的肖像画の信頼性評価を生成するために機械学習(ML)アルゴリズムをトレーニングすることで、個人間の信頼の歴史的進歩を研究した。
これらの主張は、いくつかの方法論的および分析的な問題によって立証され、Safraらによるアルゴリズムと生理学の擬似科学の相違点が浮き彫りになっている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Interpersonal trust - a shared display of confidence and vulnerability toward
other individuals - can be seen as instrumental in the development of human
societies. Safra, Chevallier, Gr\`ezes, and Baumard (2020) studied the
historical progression of interpersonal trust by training a machine learning
(ML) algorithm to generate trustworthiness ratings of historical portraits,
based on facial features. They reported that trustworthiness ratings of
portraits dated between 1500--2000CE increased with time, claiming that this
evidenced a broader increase in interpersonal trust coinciding with several
metrics of societal progress. We argue that these claims are confounded by
several methodological and analytical issues and highlight troubling parallels
between Safra et al.'s algorithm and the pseudoscience of physiognomy. We
discuss the implications and potential real-world consequences of these issues
in further detail.
- Abstract(参考訳): 個人間の信頼 - 他の個人に対する信頼と脆弱性の共有表示 - は、人間の社会の発展に有効であると見なすことができる。
Safra、Chevallier、Gr\ezes、Baumard (2020)は、顔の特徴に基づいて、歴史的肖像画の信頼性評価を生成するために機械学習(ML)アルゴリズムを訓練することで、対人信頼の歴史的進歩を研究した。
彼らは1500年から2000年代にかけての肖像画の信頼度評価が時間とともに増加し、これが社会進歩の指標と一致する対人信頼のより広範な増加を証明していると主張した。
これらの主張はいくつかの方法論的・分析的問題と相まって成り立っており、サフラらのアルゴリズムと生理学の疑似科学の類似点を強調する。
本論では,これらの問題の現実的な影響と可能性について,さらに詳細に論じる。
関連論文リスト
- Automated Trustworthiness Oracle Generation for Machine Learning Text Classifiers [9.349442247982557]
モデルの信頼性や精度といった従来のメトリクスは、機械学習モデルに対する人間の信頼を構築するには不十分です。
予測帰属語が予測クラスに関連があるかどうかを自動的にチェックするTOKIを提案する。
また,TOKIが特定した信頼性問題を対象とした新たな敵攻撃手法を提案する。
論文 参考訳(メタデータ) (2024-10-30T03:26:37Z) - Common (good) practices measuring trust in HRI [55.2480439325792]
ロボットへの信頼は、人々の日常生活にロボットを取り入れるのに欠かせないと広く信じられている。
研究者たちは、人々がロボットをさまざまな方法で信頼する方法を模索してきた。
ほとんどのロボティクス学者は、信頼のレベルが不足すると解脱のリスクが生じることに同意する。
論文 参考訳(メタデータ) (2023-11-20T20:52:10Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - A Diachronic Perspective on User Trust in AI under Uncertainty [52.44939679369428]
現代のNLPシステムは、しばしば未分類であり、ユーザの信頼を損なう確実な誤った予測をもたらす。
賭けゲームを用いて,信頼を損なう事象に対するユーザの信頼の進化について検討する。
論文 参考訳(メタデータ) (2023-10-20T14:41:46Z) - Decoding trust: A reinforcement learning perspective [11.04265850036115]
信頼ゲームにおける行動実験は、信頼と信頼は人間の間で普遍的であることを示した。
個人が蓄積した経験を通じて長期的なリターンを評価することで戦略を更新する強化学習のパラダイムに目を向ける。
両者のシナリオでは、個人が過去の経験と未来への回帰の両方を理解すれば、高いレベルの信頼と信頼感が生まれます。
論文 参考訳(メタデータ) (2023-09-26T01:06:29Z) - TrustGuard: GNN-based Robust and Explainable Trust Evaluation with
Dynamicity Support [59.41529066449414]
本稿では,信頼度を考慮した信頼度評価モデルであるTrustGuardを提案する。
TrustGuardは、スナップショット入力層、空間集約層、時間集約層、予測層を含む階層アーキテクチャで設計されている。
実験により、TrustGuardは、シングルタイムスロットとマルチタイムスロットの信頼予測に関して、最先端のGNNベースの信頼評価モデルより優れていることが示された。
論文 参考訳(メタデータ) (2023-06-23T07:39:12Z) - How are the people in the photos judged? Analysis of brain activity when
assessing levels of trust and attractiveness [0.0]
この記事では、異なる人々の顔が提示された実験について述べる。
参加者の任務は、ある人物がどれだけ信頼でき、どれだけ魅力的かを評価することである。
顔の信頼度と魅力の評価に関与する脳の最も活発な領域が示唆された。
論文 参考訳(メタデータ) (2023-06-15T14:49:54Z) - Distrust in (X)AI -- Measurement Artifact or Distinct Construct? [0.0]
信頼は説明可能な人工知能(XAI)を開発する上で重要な動機である
XAIでは不信は比較的過小評価されているようだ。
心理学的証拠は 信頼と不信を区別する
論文 参考訳(メタデータ) (2023-03-29T07:14:54Z) - Converging Measures and an Emergent Model: A Meta-Analysis of
Human-Automation Trust Questionnaires [0.6853165736531939]
我々は、最も頻繁に引用され、最も有効な人間自動および人間ロボット信頼のアンケートを同定する。
本研究では,人間自動信頼の収束モデルを示す。
論文 参考訳(メタデータ) (2023-03-24T04:42:49Z) - Consistency Analysis of ChatGPT [65.268245109828]
本稿では,ChatGPTとGPT-4の論理的一貫した行動に対する信頼性について検討する。
その結果,両モデルとも言語理解能力と推論能力が向上しているように見えるが,論理的に一貫した予測が得られないことが示唆された。
論文 参考訳(メタデータ) (2023-03-11T01:19:01Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。