論文の概要: Trust and distrust in electoral technologies: what can we learn from the failure of electronic voting in the Netherlands (2006/07)
- arxiv url: http://arxiv.org/abs/2412.05052v1
- Date: Fri, 06 Dec 2024 14:07:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-09 15:57:04.503426
- Title: Trust and distrust in electoral technologies: what can we learn from the failure of electronic voting in the Netherlands (2006/07)
- Title(参考訳): 選挙技術における信頼と不信--オランダにおける電子投票の失敗から学ぶ(2006/07)
- Authors: David Duenas-Cid,
- Abstract要約: 本稿では、オランダにおける機械投票の中止にアプローチして、デジタル政府技術における信頼と不信の複雑なダイナミクスに焦点を当てる(2006-07)。
それは、以前信頼されていたシステムが崩壊する可能性、信頼と不信の関係がいかにパラドックス的であるか、そしてそれが選挙技術の採用と管理とどのように相互作用するかを説明する。
本稿では,デジタル政府技術における信頼のダイナミクスの理解に寄与し,政策立案と技術導入戦略に影響を及ぼす。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This paper focuses on the complex dynamics of trust and distrust in digital government technologies by approaching the cancellation of machine voting in the Netherlands (2006-07). This case describes how a previously trusted system can collapse, how paradoxical the relationship between trust and distrust is, and how it interacts with adopting and managing electoral technologies. The analysis stresses how, although being a central component, technology's trustworthiness dialogues with the socio-technical context in which it is inserted, for example, underscoring the relevance of public administration in securing technological environments. Beyond these insights, the research offers broader reflections on trust and distrust in data-driven technologies, advocating for differentiated strategies for building trust versus managing distrust. Overall, this paper contributes to understanding trust dynamics in digital government technologies, with implications for policymaking and technology adoption strategies.
- Abstract(参考訳): 本稿では,オランダにおける機械投票の中止(2006-07)にアプローチすることで,デジタル政府技術における信頼と不信の複雑なダイナミクスに焦点を当てる。
このケースでは、以前信頼されていたシステムが崩壊する可能性、信頼と不信の関係がいかにパラドックス的であるか、選挙技術の採用と管理とどのように相互作用するかを説明します。
この分析は、技術の中心的構成要素であるにもかかわらず、テクノロジーの信頼性と、それが挿入される社会技術的文脈との対話、例えば、技術環境の確保における公共行政の関連性について強調する。
これらの洞察以外にも、この研究はデータ駆動技術における信頼と不信に関する広範な考察を提供し、信頼の構築と不信の管理を区別する戦略を提唱している。
本稿では,デジタル政府技術における信頼のダイナミクスの理解に寄与し,政策立案と技術導入戦略に影響を及ぼす。
関連論文リスト
- Trust in AI: Progress, Challenges, and Future Directions [6.724854390957174]
私たちの日常生活における人工知能(AI)システムの利用の増加は、ユーザの視点からAIにおける信頼と不信の重要性を説明してくれます。
AIにおける信頼/不信は規制官の役割を担い、この拡散のレベルを著しく制御することができる。
論文 参考訳(メタデータ) (2024-03-12T20:26:49Z) - Mathematical Algorithm Design for Deep Learning under Societal and
Judicial Constraints: The Algorithmic Transparency Requirement [65.26723285209853]
計算モデルにおける透過的な実装が実現可能かどうかを分析するための枠組みを導出する。
以上の結果から,Blum-Shub-Smale Machinesは,逆問題に対する信頼性の高い解法を確立できる可能性が示唆された。
論文 参考訳(メタデータ) (2024-01-18T15:32:38Z) - Common (good) practices measuring trust in HRI [55.2480439325792]
ロボットへの信頼は、人々の日常生活にロボットを取り入れるのに欠かせないと広く信じられている。
研究者たちは、人々がロボットをさまざまな方法で信頼する方法を模索してきた。
ほとんどのロボティクス学者は、信頼のレベルが不足すると解脱のリスクが生じることに同意する。
論文 参考訳(メタデータ) (2023-11-20T20:52:10Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - AI Assurance using Causal Inference: Application to Public Policy [0.0]
ほとんどのAIアプローチは、"ブラックボックス"としてのみ表現することができ、透明性の欠如に悩まされる。
効果的で堅牢なAIシステムを開発するだけでなく、内部プロセスが説明可能で公平であることを確認することも重要です。
論文 参考訳(メタデータ) (2021-12-01T16:03:06Z) - Personalized multi-faceted trust modeling to determine trust links in
social media and its potential for misinformation management [61.88858330222619]
ソーシャルメディアにおけるピア間の信頼関係を予測するためのアプローチを提案する。
本稿では,データ駆動型多面信頼モデルを提案する。
信頼を意識したアイテムレコメンデーションタスクで説明され、提案したフレームワークを大規模なYelpデータセットのコンテキストで評価する。
論文 参考訳(メタデータ) (2021-11-11T19:40:51Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - Towards a Policy-as-a-Service Framework to Enable Compliant, Trustworthy
AI and HRI Systems in the Wild [7.225523345649149]
信頼できる自律システムの構築は、単に「常に正しいことをする」エージェントを雇おうとする以上の多くの理由から難しい。
AIとHRIには、信頼の問題は本質的に社会技術的である、というより広い文脈がある。
本稿では, 信頼性の「ファジィ」な社会技術的側面と, 設計・展開の両面での配慮の必要性を強調した。
論文 参考訳(メタデータ) (2020-10-06T18:32:31Z) - The Development of Visualization Psychology Analysis Tools to Account
for Trust [0.0]
信頼の定義は、新しく形成された自律産業のイノベーションの多くに公共のムードを評価することの適用性を考えると、重要な取り組みである。
信頼できる指標や信頼度を測定する手段を開発することで、スマートシステムの受容と採用を促進することから、政策立案者に公共の雰囲気や変化を受け入れる意思を伝えることまで、幅広い影響を与える可能性がある。
論文 参考訳(メタデータ) (2020-09-28T10:30:09Z) - Trustworthy AI Inference Systems: An Industry Research View [58.000323504158054]
我々は、信頼できるAI推論システムの設計、展開、運用にアプローチするための業界調査ビューを提供する。
信頼された実行環境を用いたAIシステムの機会と課題を強調します。
我々は,産業,アカデミック,政府研究者のグローバルな集団的注意を必要とする,さらなる発展の分野を概説する。
論文 参考訳(メタデータ) (2020-08-10T23:05:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。