論文の概要: In Generative AI We (Dis)Trust? Computational Analysis of Trust and Distrust in Reddit Discussions
- arxiv url: http://arxiv.org/abs/2510.16173v1
- Date: Fri, 17 Oct 2025 19:33:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:11.728229
- Title: In Generative AI We (Dis)Trust? Computational Analysis of Trust and Distrust in Reddit Discussions
- Title(参考訳): ジェネレーティブAIにおける私たち(ディス)トラスト? Redditでの議論における信頼と不信の計算分析
- Authors: Aria Pessianzadeh, Naima Sultana, Hildegarde Van den Bulck, David Gefen, Shahin Jabari, Rezvaneh Rezapour,
- Abstract要約: 本稿では,GenAIにおける信頼と不信に関する最初の計算的研究について述べる。
代表的なサンプルのクラウドソースアノテーションと分類モデルを組み合わせて分析を行った。
信頼と不信は時間とともにほぼバランスを取り、主要なモデルリリースにシフトしています。
- 参考スコア(独自算出の注目度): 1.2991144814543598
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rise of generative AI (GenAI) has impacted many aspects of human life. As these systems become embedded in everyday practices, understanding public trust in them also becomes essential for responsible adoption and governance. Prior work on trust in AI has largely drawn from psychology and human-computer interaction, but there is a lack of computational, large-scale, and longitudinal approaches to measuring trust and distrust in GenAI and large language models (LLMs). This paper presents the first computational study of Trust and Distrust in GenAI, using a multi-year Reddit dataset (2022--2025) spanning 39 subreddits and 197,618 posts. Crowd-sourced annotations of a representative sample were combined with classification models to scale analysis. We find that Trust and Distrust are nearly balanced over time, with shifts around major model releases. Technical performance and usability dominate as dimensions, while personal experience is the most frequent reason shaping attitudes. Distinct patterns also emerge across trustors (e.g., experts, ethicists, general users). Our results provide a methodological framework for large-scale Trust analysis and insights into evolving public perceptions of GenAI.
- Abstract(参考訳): 生成AI(GenAI)の台頭は、人間の生活の多くの側面に影響を与えた。
これらのシステムが日々のプラクティスに組み込まれるにつれて、公共の信頼を理解することも、採用とガバナンスの責任を負う上で不可欠になります。
AIへの信頼に関する以前の研究は、心理学と人間とコンピュータの相互作用から大きく引き離されているが、GenAIと大規模言語モデル(LLM)における信頼と不信を測定するための計算的、大規模、そして縦断的なアプローチが欠如している。
本稿では、39のサブレディットと197,618のポストにまたがる複数年にわたるRedditデータセット(2022-2025)を用いて、GenAIにおける信頼と不信の計算的研究を行った。
代表的なサンプルのクラウドソースアノテーションと分類モデルを組み合わせて分析を行った。
信頼と不信は時間とともにほぼバランスを取り、主要なモデルリリースにシフトしています。
技術的パフォーマンスとユーザビリティは次元として支配的であり、個人的な経験は意思決定の態度を形作る最も頻繁な理由である。
また、コントラクタ(専門家、倫理学者、一般ユーザなど)に固有のパターンが現れる。
本研究は,GenAIの公衆認識の発達に関する大規模信頼分析と洞察のための方法論的枠組みを提供する。
関連論文リスト
- Revisiting Trust in the Era of Generative AI: Factorial Structure and Latent Profiles [5.109743403025609]
信頼は、人々が人工知能(AI)を採用し、どのように依存するかを形作る最も重要な要素の1つです。
既存の研究の多くは、システムの信頼性、正確性、使いやすさに重点を置いて、機能の観点から信頼度を測定している。
本研究では,GenAIにおける信頼の合理性と関係性の両方を捉えるための新しい尺度であるHuman-AI Trust Scale(HAITS)を導入し,検証する。
論文 参考訳(メタデータ) (2025-10-11T12:39:53Z) - Do LLMs trust AI regulation? Emerging behaviour of game-theoretic LLM agents [61.132523071109354]
本稿では、異なる規制シナリオ下での戦略選択をモデル化する、AI開発者、規制当局、ユーザ間の相互作用について検討する。
我々の研究は、純粋なゲーム理論エージェントよりも「悲観的」な姿勢を採用する傾向にある戦略的AIエージェントの出現する振る舞いを特定する。
論文 参考訳(メタデータ) (2025-04-11T15:41:21Z) - Human Trust in AI Search: A Large-Scale Experiment [0.07589017023705934]
生成的人工知能(GenAI)は、購入するもの、投票方法、健康に影響を及ぼす。
生成的検索デザインが人間の信頼に因果的影響を及ぼす研究はない。
我々は7カ国で12,000の検索クエリを実行し、80,000のリアルタイムGenAIと従来の検索結果を生成した。
論文 参考訳(メタデータ) (2025-04-08T21:12:41Z) - GenAI vs. Human Fact-Checkers: Accurate Ratings, Flawed Rationales [2.3475022003300055]
GPT-4oは、消費者向けアプリケーションでもっとも使われているAIモデルの一つで、他のモデルよりも優れているが、すべてのモデルは、人間のコーダーとの適度な合意しか示さない。
また,要約コンテンツと完全コンテンツ入力の有効性を評価し,要約コンテンツが精度を犠牲にすることなく効率を向上させることを約束していることを確認した。
論文 参考訳(メタデータ) (2025-02-20T17:47:40Z) - Common (good) practices measuring trust in HRI [55.2480439325792]
ロボットへの信頼は、人々の日常生活にロボットを取り入れるのに欠かせないと広く信じられている。
研究者たちは、人々がロボットをさまざまな方法で信頼する方法を模索してきた。
ほとんどのロボティクス学者は、信頼のレベルが不足すると解脱のリスクが生じることに同意する。
論文 参考訳(メタデータ) (2023-11-20T20:52:10Z) - A Diachronic Perspective on User Trust in AI under Uncertainty [52.44939679369428]
現代のNLPシステムは、しばしば未分類であり、ユーザの信頼を損なう確実な誤った予測をもたらす。
賭けゲームを用いて,信頼を損なう事象に対するユーザの信頼の進化について検討する。
論文 参考訳(メタデータ) (2023-10-20T14:41:46Z) - Trust in Human-AI Interaction: Scoping Out Models, Measures, and Methods [12.641141743223377]
AIに注入されたシステムとのインタラクションにおいて、信頼が重要な要因として浮上している。
どんな信頼モデルが使われているのか、どんなシステムに使われているのかは、ほとんど分かっていない。
AIの信頼を測定するための標準的なアプローチはまだ知られていない。
論文 参考訳(メタデータ) (2022-04-30T07:34:19Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - Where Does Trust Break Down? A Quantitative Trust Analysis of Deep
Neural Networks via Trust Matrix and Conditional Trust Densities [94.65749466106664]
本稿では,新しい信頼量化戦略である信頼行列の概念を紹介する。
信頼行列は、所定のアクター・オークル回答シナリオに対して期待される質問・回答信頼を定義する。
我々は、条件付き信頼密度の概念により、信頼密度の概念をさらに拡張する。
論文 参考訳(メタデータ) (2020-09-30T14:33:43Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。