論文の概要: An Open Model for Researching the Role of Culture in Online
Self-Disclosure
- arxiv url: http://arxiv.org/abs/2003.08942v1
- Date: Thu, 19 Mar 2020 16:57:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-28 17:50:57.191115
- Title: An Open Model for Researching the Role of Culture in Online
Self-Disclosure
- Title(参考訳): オンライン自己開示における文化の役割研究のためのオープンモデル
- Authors: Christine Bauer and Katharina Sophie Schmid and Christine Strauss
- Abstract要約: プライバシー計算理論に基づくOSD研究のためのオープンな研究モデルを提案する。
オープンリサーチモデルには、6つの文化的次元、6つの予測因子、24の構造化命題が含まれています。
- 参考スコア(独自算出の注目度): 4.995343972237369
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The analysis of consumers' personal information (PI) is a significant source
to learn about consumers. In online settings, many consumers disclose PI
abundantly -- this is particularly true for information provided on social
network services. Still, people manage the privacy level they want to maintain
by disclosing by disclosing PI accordingly. In addition, studies have shown
that consumers' online self-disclosure (OSD) differs across cultures.
Therefore, intelligent systems should consider cultural issues when collecting,
processing, storing or protecting data from consumers. However, existing
studies typically rely on a comparison of two cultures, providing valuable
insights but not drawing a comprehensive picture. We introduce an open research
model for cultural OSD research, based on the privacy calculus theory. Our open
research model incorporates six cultural dimensions, six predictors, and 24
structured propositions. It represents a comprehensive approach that provides a
basis to explain possible cultural OSD phenomena in a systematic way.
- Abstract(参考訳): 消費者の個人情報(PI)の分析は、消費者について学ぶ上で重要な情報源である。
オンライン環境では、多くの消費者がpiを豊富に公開している。
それでも、人々はPIを開示することで、維持したいプライバシレベルを管理します。
さらに、消費者のオンライン自己開示(OSD)は文化によって異なることが研究で示されている。
したがって、インテリジェントシステムは、消費者からのデータを収集、処理、保存、保護する際の文化的問題を考慮すべきである。
しかし、既存の研究は2つの文化の比較に依存しており、価値ある洞察を提供するが、全体像を描いていない。
プライバシ計算理論に基づいた,文化osd研究のためのオープンリサーチモデルを提案する。
オープンリサーチモデルは、6つの文化的次元、6つの予測因子、24の構造化命題を含む。
文化的osd現象を体系的に説明するための基礎を提供する包括的アプローチを表している。
関連論文リスト
- Perception of Digital Privacy Protection: An Empirical Study using GDPR Framework [0.22628031081632272]
本研究では、一般データ保護知覚規則(General Data Protection Perception Regulation, システム二分法)フレームワークを用いて、政府データのデジタルプライバシ保護の認識について検討する。
発見は、人々のプライバシー権の保護に対する認識を二分していることを示唆している。
同意を与えて無断で反対する権利は、最も保護されていないものと認識される。
第2に、この研究は、社会的ジレンマが、彼らのコンテキストと文化に基づいて、デジタルプライバシを知覚する人々の社会的なジレンマの証拠を示す。
論文 参考訳(メタデータ) (2024-11-19T04:36:31Z) - The Implications of Open Generative Models in Human-Centered Data Science Work: A Case Study with Fact-Checking Organizations [12.845170214324662]
オープンモデルが組織に与える影響に注目し、AIを使って大量の循環的誤報を観察し分析する。
我々は6大陸20のファクトチェック機関で,N=24の専門家を対象にインタビュー調査を行った。
事実チェックを行う組織は、組織的自律性、データプライバシとオーナシップ、アプリケーション固有性、能力透明性のオープンモデルを好む。
論文 参考訳(メタデータ) (2024-08-04T08:41:48Z) - Collection, usage and privacy of mobility data in the enterprise and public administrations [55.2480439325792]
個人のプライバシーを守るためには、匿名化などのセキュリティ対策が必要である。
本研究では,現場における実践の洞察を得るために,専門家によるインタビューを行った。
我々は、一般的には最先端の差分プライバシー基準に準拠しない、使用中のプライバシー強化手法を調査した。
論文 参考訳(メタデータ) (2024-07-04T08:29:27Z) - Massively Multi-Cultural Knowledge Acquisition & LM Benchmarking [48.21982147529661]
本稿では,多文化知識獲得のための新しいアプローチを提案する。
本手法は,文化トピックに関するウィキペディア文書からリンクページの広範囲なネットワークへ戦略的にナビゲートする。
私たちの仕事は、AIにおける文化的格差のギャップを深く理解し、橋渡しするための重要なステップです。
論文 参考訳(メタデータ) (2024-02-14T18:16:54Z) - Reducing Privacy Risks in Online Self-Disclosures with Language Models [26.273214719939894]
我々は19の自己開示カテゴリの分類を開発し,4.8Kの注釈付き開示スパンからなる大きなコーパスをキュレートした。
検出のための言語モデルを微調整し、部分的なスパンを65%以上達成しました。
本稿では、開示をあまり具体的でない用語に言い換える自己開示抽象化の課題を紹介する。
論文 参考訳(メタデータ) (2023-11-16T03:28:43Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Protecting User Privacy in Online Settings via Supervised Learning [69.38374877559423]
我々は、教師付き学習を活用する、オンラインプライバシ保護に対するインテリジェントなアプローチを設計する。
ユーザのプライバシを侵害する可能性のあるデータ収集を検出してブロックすることにより、ユーザに対してある程度のディジタルプライバシを復元することが可能になります。
論文 参考訳(メタデータ) (2023-04-06T05:20:16Z) - Lessons from the AdKDD'21 Privacy-Preserving ML Challenge [57.365745458033075]
W3Cの顕著な提案では、過去のディスプレイの集計された、差別化されたプライベートなレポートを通じてのみ広告信号を共有することができる。
この提案を広く研究するために、AdKDD'21でオープンなプライバシ保護機械学習チャレンジが行われた。
重要な発見は、大量の集約されたデータの小さな集合が存在する場合の学習モデルは驚くほど効率的で安価であることである。
論文 参考訳(メタデータ) (2022-01-31T11:09:59Z) - Digital Divide and Social Dilemma of Privacy Preservation [0.6261444979025642]
各国の地政学的位置に基づく個人のプライバシー保護のギャップについて述べるために,「デジタルプライバシ・ディビジョン(DPD)」を紹介した。
オンラインアンケートを作成し、4カ国700人以上の回答者から回答を得た。
ドイツとバングラデシュに居住する個人は同様のプライバシー上の懸念を共有している。
論文 参考訳(メタデータ) (2021-10-06T11:43:46Z) - User Perception of Privacy with Ubiquitous Devices [5.33024001730262]
本研究は,ユビキタステクノロジーの時代におけるプライバシの認識に関する様々な懸念を探求し,発見することを目的としている。
公共やプライベートスペースにおけるプライバシーに対する態度、プライバシーの意識、同意を求めること、様々な技術に関連するジレンマ/コンフュージョン、公共やプライベートスペースにおけるプライバシーの侵害から身を守る方法に関する個人行動に対する態度と信念の影響など、主要なテーマである。
論文 参考訳(メタデータ) (2021-07-23T05:01:44Z) - Explainable Patterns: Going from Findings to Insights to Support Data
Analytics Democratization [60.18814584837969]
我々は,データストーリテリングの探索と作成において,レイユーザをサポートする新しいフレームワークであるExplainable Patterns (ExPatt)を提示する。
ExPattは、外部(テキスト)の情報ソースを使用して、観察または選択された発見の実用的な説明を自動的に生成します。
論文 参考訳(メタデータ) (2021-01-19T16:13:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。