論文の概要: Measuring, Modeling, and Helping People Account for Privacy Risks in Online Self-Disclosures with AI
- arxiv url: http://arxiv.org/abs/2412.15047v1
- Date: Thu, 19 Dec 2024 16:53:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-20 13:30:17.378085
- Title: Measuring, Modeling, and Helping People Account for Privacy Risks in Online Self-Disclosures with AI
- Title(参考訳): AIによるオンライン自己開示におけるプライバシリスクの測定、モデル化、支援
- Authors: Isadora Krsek, Anubha Kabra, Yao Dou, Tarek Naous, Laura A. Dabbish, Alan Ritter, Wei Xu, Sauvik Das,
- Abstract要約: Redditのような匿名のオンラインフォーラムでは、自己開示の利点はしばしばユーザーに明らかだが、プライバシーリスクはより抽象的だ。
これまでの研究は、ユーザーがテキスト中の潜在的に危険な自己開示を特定するのに役立つ自然言語処理ツールの開発に取り組んできた。
保護したいユーザーのためにデザインされたり評価されたりした人はいません。
- 参考スコア(独自算出の注目度): 25.188347404539925
- License:
- Abstract: In pseudonymous online fora like Reddit, the benefits of self-disclosure are often apparent to users (e.g., I can vent about my in-laws to understanding strangers), but the privacy risks are more abstract (e.g., will my partner be able to tell that this is me?). Prior work has sought to develop natural language processing (NLP) tools that help users identify potentially risky self-disclosures in their text, but none have been designed for or evaluated with the users they hope to protect. Absent this assessment, these tools will be limited by the social-technical gap: users need assistive tools that help them make informed decisions, not paternalistic tools that tell them to avoid self-disclosure altogether. To bridge this gap, we conducted a study with N = 21 Reddit users; we had them use a state-of-the-art NLP disclosure detection model on two of their authored posts and asked them questions to understand if and how the model helped, where it fell short, and how it could be improved to help them make more informed decisions. Despite its imperfections, users responded positively to the model and highlighted its use as a tool that can help them catch mistakes, inform them of risks they were unaware of, and encourage self-reflection. However, our work also shows how, to be useful and usable, AI for supporting privacy decision-making must account for posting context, disclosure norms, and users' lived threat models, and provide explanations that help contextualize detected risks.
- Abstract(参考訳): Redditのような匿名のオンラインフォーラムでは、自己開示の利点は、しばしばユーザーに明らかになる(例えば、知らない人を理解するために、私の義父について話すことができる)が、プライバシーのリスクはより抽象的である(例えば、私のパートナーは、これが私のことを伝えることができるのだろうか?
これまでの研究は、ユーザーがテキスト内で潜在的に危険を伴う自己開示を特定するのに役立つ自然言語処理(NLP)ツールの開発を試みてきたが、保護したいユーザーのために設計されたものや評価されたものはない。
この評価に従えば、これらのツールは社会的技術的ギャップによって制限されることになる。ユーザは、自己開示を完全に避けるように指示する父性的なツールではなく、情報的な意思決定を支援する補助ツールが必要です。
このギャップを埋めるために、N = 21のRedditユーザを対象に調査を行い、著者の2つの投稿で最先端のNLP開示検出モデルを使用して、モデルがどのように役立ったのか、どのようにして短命になったのか、より情報的な決定を下すのにどのように役立つのか、といった質問をしました。
不完全にもかかわらず、ユーザーはモデルに肯定的に反応し、ミスをキャッチし、知らないリスクを知らせ、自己反省を促すツールとしての使用を強調した。
しかし、私たちの研究は、プライバシー決定を支援するAIが、いかに有用で有用かを示すために、投稿コンテキスト、開示規範、ユーザーの生きた脅威モデルを説明し、検出されたリスクをコンテキスト化するための説明を提供する必要があるかも示しています。
関連論文リスト
- MisinfoEval: Generative AI in the Era of "Alternative Facts" [50.069577397751175]
本稿では,大規模言語モデル(LLM)に基づく誤情報介入の生成と評価を行うフレームワークを提案する。
本研究では,(1)誤情報介入の効果を測定するための模擬ソーシャルメディア環境の実験,(2)ユーザの人口動態や信念に合わせたパーソナライズされた説明を用いた第2の実験について述べる。
以上の結果から,LSMによる介入はユーザの行動の修正に極めて有効であることが確認された。
論文 参考訳(メタデータ) (2024-10-13T18:16:50Z) - Risks and NLP Design: A Case Study on Procedural Document QA [52.557503571760215]
より具体的なアプリケーションやユーザに対して分析を専門化すれば,ユーザに対するリスクや害の明確な評価が可能になる,と我々は主張する。
リスク指向のエラー分析を行い、リスクの低減とパフォーマンスの向上を図り、将来のシステムの設計を通知する。
論文 参考訳(メタデータ) (2024-08-16T17:23:43Z) - Personhood credentials: Artificial intelligence and the value of privacy-preserving tools to distinguish who is real online [5.365346373228897]
悪質な俳優は長い間、不正行為、偽情報拡散、その他の偽装的なスキームの実行に誤解を招くアイデンティティを使用してきた。
ますます有能なAIの出現により、悪いアクターは彼らの活動の潜在的な規模と効果を増幅することができる。
我々は、この課題に対処する新しいツールの価値を分析する:「個人認証」(PHC)。
PHCは、ユーザーに対して、個人情報を開示することなく、実際の人間(AIではなく)をオンラインサービスに示すことを可能にする。
論文 参考訳(メタデータ) (2024-08-15T02:41:25Z) - Trust No Bot: Discovering Personal Disclosures in Human-LLM Conversations in the Wild [40.57348900292574]
人間とチャットボットのインタラクションにおける個人の開示を測定することで、ユーザのAIリテラシーをよりよく理解することができる。
我々は、実際のユーザが商用のGPTモデルに対して行った個人情報を詳細に分析する。
論文 参考訳(メタデータ) (2024-07-16T07:05:31Z) - Reducing Privacy Risks in Online Self-Disclosures with Language Models [26.273214719939894]
我々は19の自己開示カテゴリの分類を開発し,4.8Kの注釈付き開示スパンからなる大きなコーパスをキュレートした。
検出のための言語モデルを微調整し、部分的なスパンを65%以上達成しました。
本稿では、開示をあまり具体的でない用語に言い換える自己開示抽象化の課題を紹介する。
論文 参考訳(メタデータ) (2023-11-16T03:28:43Z) - Can LLMs Keep a Secret? Testing Privacy Implications of Language Models via Contextual Integrity Theory [82.7042006247124]
私たちは、最も有能なAIモデルでさえ、人間がそれぞれ39%と57%の確率で、プライベートな情報を公開していることを示しています。
我々の研究は、推論と心の理論に基づいて、新しい推論時プライバシー保護アプローチを即時に探求する必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2023-10-27T04:15:30Z) - TeD-SPAD: Temporal Distinctiveness for Self-supervised
Privacy-preservation for video Anomaly Detection [59.04634695294402]
人間の監視のないビデオ異常検出(VAD)は複雑なコンピュータビジョンタスクである。
VADのプライバシー漏洩により、モデルは人々の個人情報に関連する不必要なバイアスを拾い上げ、増幅することができる。
本稿では,視覚的プライベート情報を自己管理的に破壊する,プライバシーに配慮したビデオ異常検出フレームワークTeD-SPADを提案する。
論文 参考訳(メタデータ) (2023-08-21T22:42:55Z) - User-Centered Security in Natural Language Processing [0.7106986689736825]
自然言語処理(NLP)におけるユーザ中心のセキュリティの枠組みの提案
NLP内の2つのセキュリティドメインに重点を置いている。
論文 参考訳(メタデータ) (2023-01-10T22:34:19Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Should Machine Learning Models Report to Us When They Are Clueless? [0.0]
我々は、AIモデルは、慣れ親しんだデータの範囲外を誇張していると報告する。
モデルを外挿したかどうかを知ることは、AIモデルの説明に含めるべき基本的な洞察である。
論文 参考訳(メタデータ) (2022-03-23T01:50:24Z) - Detecting Cross-Modal Inconsistency to Defend Against Neural Fake News [57.9843300852526]
我々は、画像やキャプションを含む機械生成ニュースに対して、より現実的で挑戦的な対策を導入する。
敵が悪用できる可能性のある弱点を特定するために、4つの異なる種類の生成された記事からなるNeuralNewsデータセットを作成します。
ユーザ実験から得られた貴重な知見に加えて,視覚的意味的不整合の検出にもとづく比較的効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-16T14:13:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。