論文の概要: The Good, the Bad, and the Ugly: The Role of AI Quality Disclosure in Lie Detection
- arxiv url: http://arxiv.org/abs/2410.23143v1
- Date: Wed, 30 Oct 2024 15:58:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-31 14:29:33.296095
- Title: The Good, the Bad, and the Ugly: The Role of AI Quality Disclosure in Lie Detection
- Title(参考訳): 良いこと、悪いこと、悪いこと:嘘検出におけるAI品質開示の役割
- Authors: Haimanti Bhattacharya, Subhasish Dugar, Sanchaita Hazra, Bodhisattwa Prasad Majumder,
- Abstract要約: 低品質のAIアドバイザは、品質の開示が欠如しているため、テキストベースの嘘を広めるのに役立ち、嘘を検出するのに役立ちそうである。
情報開示のない低品質のアドバイザーに頼る場合、参加者の真偽検出率は、AIの真の有効性が明らかになると、自身の能力を下回ることがわかりました。
- 参考スコア(独自算出の注目度): 5.539973416151908
- License:
- Abstract: We investigate how low-quality AI advisors, lacking quality disclosures, can help spread text-based lies while seeming to help people detect lies. Participants in our experiment discern truth from lies by evaluating transcripts from a game show that mimicked deceptive social media exchanges on topics with objective truths. We find that when relying on low-quality advisors without disclosures, participants' truth-detection rates fall below their own abilities, which recovered once the AI's true effectiveness was revealed. Conversely, high-quality advisor enhances truth detection, regardless of disclosure. We discover that participants' expectations about AI capabilities contribute to their undue reliance on opaque, low-quality advisors.
- Abstract(参考訳): 低品質のAIアドバイザは、品質の開示を欠いているため、人々が嘘を検出するのに役立ちながら、テキストベースの嘘を広めるのにどう役立つかを調査する。
実験参加者は、客観的な真理のあるトピックについて、偽りのソーシャルメディア交換を模倣したゲームショーの書き起こしを評価することによって、真理を識別する。
情報開示のない低品質のアドバイザーに頼る場合、参加者の真偽検出率は、AIの真の有効性が明らかになると、自身の能力を下回ることがわかりました。
逆に、高品質なアドバイザは開示に関係なく、真実の検出を強化する。
我々は,AI能力に対する参加者の期待が,不透明で低品質なアドバイザへの不適切な依存に寄与していることを発見した。
関連論文リスト
- On scalable oversight with weak LLMs judging strong LLMs [67.8628575615614]
我々は、2つのAIが1人の裁判官を納得させようとする議論、すなわち1人のAIが1人の裁判官を説得し、質問をする。
大規模言語モデル(LLM)をAIエージェントと人間の判断のためのスタンドインの両方として使用し、判断モデルがエージェントモデルよりも弱いと判断する。
論文 参考訳(メタデータ) (2024-07-05T16:29:15Z) - Missci: Reconstructing Fallacies in Misrepresented Science [84.32990746227385]
ソーシャルネットワーク上の健康関連の誤報は、意思決定の貧弱さと現実世界の危険につながる可能性がある。
ミスシは、誤った推論のための新しい議論理論モデルである。
大規模言語モデルの批判的推論能力をテストするためのデータセットとしてMissciを提案する。
論文 参考訳(メタデータ) (2024-06-05T12:11:10Z) - Truth-Aware Context Selection: Mitigating Hallucinations of Large Language Models Being Misled by Untruthful Contexts [31.769428095250912]
大規模言語モデル(LLM)は、ユーザや知識強化ツールが提供する非現実的なコンテキストによって容易に誤解される。
本稿では,入力から非現実的コンテキストを適応的に認識し,マスクするために,TACS(Trath-Aware Context Selection)を提案する。
TACSは,非現実的な文脈を効果的にフィルタリングし,誤解を招く情報を提示した場合のLLMの応答の全体的な品質を著しく向上させることができることを示す。
論文 参考訳(メタデータ) (2024-03-12T11:40:44Z) - Responsible AI Considerations in Text Summarization Research: A Review
of Current Practices [89.85174013619883]
私たちは、責任あるAIコミュニティがほとんど見落としている共通のNLPタスクである、テキスト要約に重点を置いています。
我々は,2020-2022年に出版されたACLアンソロジーから333の要約論文の多段階的質的分析を行った。
私たちは、どの、どの、どの責任あるAI問題がカバーされているか、どの関係するステークホルダーが考慮されているか、そして、述べられた研究目標と実現された研究目標のミスマッチに焦点を合わせます。
論文 参考訳(メタデータ) (2023-11-18T15:35:36Z) - Fact-checking information from large language models can decrease headline discernment [6.814801748069122]
本稿では,人気大言語モデルが生成した事実確認情報が,政治ニュースの見出しの信条や共有意図に与える影響について検討する。
この情報は、見出しの正確さを識別したり、正確なニュースを共有したりする参加者の能力を大幅に向上させるものではない。
我々の発見は、AIアプリケーションから生じる潜在的な害の重大な原因を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-08-21T15:47:37Z) - Deceptive AI Systems That Give Explanations Are Just as Convincing as
Honest AI Systems in Human-Machine Decision Making [38.71592583606443]
真実と偽の情報を見分ける能力は、健全な決定を下す上で不可欠である。
近年、AIに基づく偽情報キャンペーンが増加し、人間の情報処理に対する偽情報システムの影響を理解することが重要になっている。
論文 参考訳(メタデータ) (2022-09-23T20:09:03Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Zombies in the Loop? Humans Trust Untrustworthy AI-Advisors for Ethical
Decisions [0.0]
AIを利用したアルゴリズムによる倫理的アドバイスは、ユーザーがトレーニングデータについて何も知らない場合でも信頼されている。
我々は、デジタルリテラシーをAIの責任ある使用を確実にするための潜在的対策として提案する。
論文 参考訳(メタデータ) (2021-06-30T15:19:20Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。