論文の概要: Lie detection algorithms attract few users but vastly increase
accusation rates
- arxiv url: http://arxiv.org/abs/2212.04277v1
- Date: Thu, 8 Dec 2022 14:07:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 14:48:37.382349
- Title: Lie detection algorithms attract few users but vastly increase
accusation rates
- Title(参考訳): 嘘検出アルゴリズムは一部のユーザーを惹きつけるが、告発率を大幅に増加させる
- Authors: Alicia von Schenk, Victor Klockmann, Jean-Fran\c{c}ois Bonnefon, Iyad
Rahwan, Nils K\"obis
- Abstract要約: 人々は嘘を見つけるのが得意ではないため、他人が嘘をつくことを嫌う理由を説明できるかもしれない。
ここでは、人工知能を利用した嘘検出アルゴリズムが利用可能になったことにより、この社会的バランスがいかに破壊されるかを検討する。
人は人間よりも優れた嘘検出アルゴリズムを選び、もしそうなら、告発に対する抑制を減らせるだろうか?
- 参考スコア(独自算出の注目度): 1.7399355670260819
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: People are not very good at detecting lies, which may explain why they
refrain from accusing others of lying, given the social costs attached to false
accusations - both for the accuser and the accused. Here we consider how this
social balance might be disrupted by the availability of lie-detection
algorithms powered by Artificial Intelligence. Will people elect to use lie
detection algorithms that perform better than humans, and if so, will they show
less restraint in their accusations? We built a machine learning classifier
whose accuracy (67\%) was significantly better than human accuracy (50\%) in a
lie-detection task and conducted an incentivized lie-detection experiment in
which we measured participants' propensity to use the algorithm, as well as the
impact of that use on accusation rates. We find that the few people (33\%) who
elect to use the algorithm drastically increase their accusation rates (from
25\% in the baseline condition up to 86% when the algorithm flags a statement
as a lie). They make more false accusations (18pp increase), but at the same
time, the probability of a lie remaining undetected is much lower in this group
(36pp decrease). We consider individual motivations for using lie detection
algorithms and the social implications of these algorithms.
- Abstract(参考訳): 人々は嘘を見つけるのが得意ではないため、虚偽の告発に付随する社会的コストを考えると、他人が嘘をつくことを嫌う理由が説明できるかもしれない。
ここでは、この社会的バランスが、人工知能によるリー検出アルゴリズムの可用性によってどのように阻害されるかを考察する。
人は人間よりも優れた嘘検出アルゴリズムを選び、もしそうなら、告発に対する抑制を減らせるだろうか?
嘘検出タスクでは,精度67\%が人間の精度(50\%)よりも有意に優れていた機械学習分類器を構築し,アルゴリズムの使用に対する参加者の妥当性と,その使用が告発率に与える影響を,インセンティブ付き嘘検出実験を行った。
アルゴリズムの使用を選択した人(33\%)は,基本条件の25\%から,アルゴリズムが嘘を宣言すると86%まで,その告発率を大幅に向上させることがわかった。
偽の告発はより多い(18pp増加)が、同時に、検出されていない嘘の確率は、この群でははるかに低い(36pp減少)。
嘘検出アルゴリズムの個人的動機と,これらのアルゴリズムの社会的意味について考察する。
関連論文リスト
- The Good, the Bad, and the Ugly: The Role of AI Quality Disclosure in Lie Detection [5.539973416151908]
低品質のAIアドバイザは、品質の開示が欠如しているため、テキストベースの嘘を広めるのに役立ち、嘘を検出するのに役立ちそうである。
情報開示のない低品質のアドバイザーに頼る場合、参加者の真偽検出率は、AIの真の有効性が明らかになると、自身の能力を下回ることがわかりました。
論文 参考訳(メタデータ) (2024-10-30T15:58:05Z) - User Strategization and Trustworthy Algorithms [81.82279667028423]
ユーザストラテジゼーションがプラットフォームを短期間で支援できることが示されています。
そして、それがプラットフォームのデータを破壊し、最終的に反実的な決定を下す能力を損なうことを示します。
論文 参考訳(メタデータ) (2023-12-29T16:09:42Z) - User Perceptions of Automatic Fake News Detection: Can Algorithms Fight
Online Misinformation? [11.104666702713793]
本稿では,偽ニュース検出アルゴリズムによる警告が誤情報検出能力に与える影響を評価する。
このような警告は,ユーザの真実に対する認識に強く影響し,適度に正確な分類器でも全体のユーザ精度を向上し,不正な場合でもアルゴリズムに同意する傾向にあることがわかった。
論文 参考訳(メタデータ) (2023-04-17T00:37:53Z) - Paraphrasing evades detectors of AI-generated text, but retrieval is an
effective defense [56.077252790310176]
本稿では,パラフレーズ生成モデル(DIPPER)を提案する。
DIPPERを使って3つの大きな言語モデル(GPT3.5-davinci-003)で生成されたテキストを言い換えると、透かしを含むいくつかの検出器を回避できた。
我々は,言語モデルAPIプロバイダによって維持されなければならない,意味論的に類似した世代を検索するシンプルなディフェンスを導入する。
論文 参考訳(メタデータ) (2023-03-23T16:29:27Z) - Can AI-Generated Text be Reliably Detected? [54.670136179857344]
LLMの規制されていない使用は、盗作、偽ニュースの生成、スパムなど、悪意のある結果をもたらす可能性がある。
最近の研究は、生成されたテキスト出力に存在する特定のモデルシグネチャを使用するか、透かし技術を適用してこの問題に対処しようとしている。
本稿では,これらの検出器は実用シナリオにおいて信頼性が低いことを示す。
論文 参考訳(メタデータ) (2023-03-17T17:53:19Z) - Nearly Optimal Algorithms for Linear Contextual Bandits with Adversarial
Corruptions [98.75618795470524]
本稿では,敵対的腐敗の存在下での線形文脈的包帯問題について検討する。
我々は不確実性に直面した楽観主義の原理に基づく新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-13T17:58:58Z) - Identification of Attack-Specific Signatures in Adversarial Examples [62.17639067715379]
異なる攻撃アルゴリズムは, その効果だけでなく, 被害者の質的な影響も示している。
以上の結果から, 予測的対人攻撃は, 模擬モデルにおける成功率だけでなく, 被害者に対するより深い下流効果によって比較されるべきであることが示唆された。
論文 参考訳(メタデータ) (2021-10-13T15:40:48Z) - Human Perception of Audio Deepfakes [6.40753664615445]
音声のディープフェイクを検出するための人間と機械の能力を比較する。
我々の実験では、472人のユニークなユーザーが14912ラウンドで最先端のAIディープフェイク検出アルゴリズムと競合した。
人間とディープフェイク検出アルゴリズムは類似の強みと弱みを共有しており、どちらも特定の種類の攻撃を検出するのに苦労している。
論文 参考訳(メタデータ) (2021-07-20T09:19:42Z) - Machine Learning based Lie Detector applied to a Collected and Annotated
Dataset [1.3007851628964147]
我々は,嘘のインセンティブを与えるカードゲーム中に,異なる参加者の顔の注釈付き画像と3d情報を含むデータセットを収集した。
収集したデータセットを用いて、一般化、個人的および横断的な嘘検出実験により、機械学習ベースの嘘検出装置を複数評価した。
本実験では, 深層学習モデルが一般化タスクに対して57%, 単一参加者に対して63%の精度で嘘を認識する上で優れていることを示した。
論文 参考訳(メタデータ) (2021-04-26T04:48:42Z) - Pursuing Open-Source Development of Predictive Algorithms: The Case of
Criminal Sentencing Algorithms [0.0]
オープンソースアルゴリズムの開発は、高度に連続した文脈における標準であるべきだと我々は主張する。
これらの問題は、ほぼ全ての広く使われている刑事判決アルゴリズムの、プロプライエタリで高価な性質によって悪化していることを示唆する。
論文 参考訳(メタデータ) (2020-11-12T14:53:43Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。