論文の概要: Proposals for Resolving Consenting Issues with Signals and User-side
Dialogues
- arxiv url: http://arxiv.org/abs/2208.05786v1
- Date: Tue, 9 Aug 2022 16:30:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 10:31:38.011792
- Title: Proposals for Resolving Consenting Issues with Signals and User-side
Dialogues
- Title(参考訳): 信号とユーザ側対話による同意問題解決の提案
- Authors: Harshvardhan J. Pandit
- Abstract要約: 本研究は,同意のためのUI/UXと同意を表現するためのパワーバランスの2つのカテゴリに分類される要求に基づいて,既知の問題を提示する。
まず、同意プロセスをよりよく統制し、同意満足度を減らすために、プライバシー信号による自動化を使用すること。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Consent dialogues are a source of annoyance, malicious intent, dark patterns,
illegal practices and a plethora of other issues. This work presents known
problems based on GDPR requirements grouped into two categories: (i) UI/UX for
consenting; and (ii) power imbalance in expressing consent. To resolve this, it
presents two proposals: First, the use of automation through privacy signals to
better govern consenting processes and to reduce `consent-fatigue'. Second, as
generation of consent dialogues on the user side and its practicalities for
both websites as well as users and agents (e.g. web browsers). Both proposals
are discussed in terms of possibilities for implementation and suitability for
stakeholders. The article concludes with a discussion on the difficulties in
achieving such solutions owing to the conflicts of interest between
`web-enablers' and `web-consumers', and the necessity for the EU to take a
direct stance in addressing these in their future laws.
- Abstract(参考訳): 同意の対話は、不快感、悪意のある意図、暗いパターン、違法な慣行、その他多くの問題の原因である。
本研究は、GDPR要求に基づく既知の問題を2つのカテゴリに分類する。
(i)承諾のためのUI/UX、及び
(二)同意の表明における権力の不均衡
まず、同意プロセスをよりよく統制するために、プライバシー信号による自動化を使用すること、そして 'consent-fatigue' を減らすことである。
第2に、ユーザ側における同意対話の生成と、Webサイトおよびユーザおよびエージェント(例えば、Webブラウザ)の実用性についてである。
どちらの提案も、実装可能性と利害関係者への適合性の観点から議論されている。
この記事は、「Web-enablers」と「Web-consumers」の利害対立による解決の難しさと、EUが将来の法律でこれらに対処するための直接的なスタンスを取る必要があることによる議論で締めくくられている。
関連論文リスト
- A Hate Speech Moderated Chat Application: Use Case for GDPR and DSA Compliance [0.0]
本研究は、コンテンツモデレーションプロセスに法的・倫理的推論を実装する新しい応用法を提案する。
GPT-3.5やSolid Pods,ルール言語Provaといった技術を使って,オンラインコミュニケーションの基本となる2つのユースケースを提示し,実装する。
この研究は、ヘイトスピーチの法的および倫理的定義の異なる範囲で推論するための新しいアプローチを提案し、ヘイトスピーチに適合するカウンターを計画する。
論文 参考訳(メタデータ) (2024-10-10T08:28:38Z) - Constraining Participation: Affordances of Feedback Features in Interfaces to Large Language Models [49.74265453289855]
大規模言語モデル(LLM)は、コンピュータ、Webブラウザ、ブラウザベースのインターフェースによるインターネット接続を持つ人なら誰でも利用できるようになった。
本稿では,ChatGPTインタフェースにおける対話型フィードバック機能の可能性について検討し,ユーザ入力の形状やイテレーションへの参加について分析する。
論文 参考訳(メタデータ) (2024-08-27T13:50:37Z) - Demarked: A Strategy for Enhanced Abusive Speech Moderation through Counterspeech, Detoxification, and Message Management [71.99446449877038]
本研究では, 重度尺度, (ii) ターゲットの存在, (iii) 文脈尺度, (iv) 法的尺度の4つの側面を基礎として, より包括的手法であるDemarcation scoreing abusive speechを提案する。
本研究は,ネット上での虐待的スピーチを効果的に解決するための今後の戦略を明らかにすることを目的としている。
論文 参考訳(メタデータ) (2024-06-27T21:45:33Z) - PresAIse, A Prescriptive AI Solution for Enterprises [6.523929486550928]
本稿は、IBM Researchのイニシアチブの概要であり、一連の規範的AIソリューションを提供することによって、これらの課題のいくつかに対処することを目的としている。
ソリューションスイートには、スケーラブルな因果推論方法、解釈可能な意思決定アプローチ、大規模言語モデルの統合が含まれている。
概念実証であるPresAIseは、非MLの専門家が自然言語インターフェースを介して規範的なAIモデルと対話できるようにすることで、ソリューションの可能性を示している。
論文 参考訳(メタデータ) (2024-02-03T03:23:08Z) - SocraSynth: Multi-LLM Reasoning with Conditional Statistics [2.5200794639628032]
大きな言語モデル(LLM)は偏見や幻覚、推論能力の欠如に対する批判に直面している。
本稿では,これらの問題を緩和するために開発されたマルチLLMエージェント推論プラットフォームであるSocra Synthを紹介する。
論文 参考訳(メタデータ) (2024-01-19T07:16:21Z) - EM Pre-training for Multi-party Dialogue Response Generation [86.25289241604199]
多人数対話では、応答発話の宛先を生成前に指定する必要がある。
本稿では,アドレナラベルを生成するための期待ステップを反復的に実行する期待最大化(EM)アプローチを提案する。
論文 参考訳(メタデータ) (2023-05-21T09:22:41Z) - User Satisfaction Estimation with Sequential Dialogue Act Modeling in
Goal-oriented Conversational Systems [65.88679683468143]
我々は,ユーザ満足度を予測するために,対話行動の逐次的ダイナミクスを取り入れた新しいフレームワーク,すなわちUSDAを提案する。
USDAは、ユーザの満足度を予測するために、コンテンツと行動機能の連続的な遷移を対話に取り入れている。
4つのベンチマーク目標指向対話データセットによる実験結果から,提案手法はUSEの既存手法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2022-02-07T02:50:07Z) - Deciding Whether to Ask Clarifying Questions in Large-Scale Spoken
Language Understanding [28.195853603190447]
大規模会話エージェントは、様々なあいまいさでユーザの発話を理解するのに苦しむことがある。
本稿では,あいまいさと文脈的信号による仮説を生かした神経自覚モデルを提案する。
論文 参考訳(メタデータ) (2021-09-25T22:32:10Z) - ConvAI3: Generating Clarifying Questions for Open-Domain Dialogue
Systems (ClariQ) [64.60303062063663]
本論文では,対話システムに対する質問の明確化に関する課題について詳述する(ClariQ)。
このチャレンジは、2020年のSearch Oriented Conversational AI (SCAI) EMNLPワークショップで、ConvAI3(Conversational AI Challenge series)の一部として組織されている。
論文 参考訳(メタデータ) (2020-09-23T19:48:02Z) - Dark Patterns and the Legal Requirements of Consent Banners: An
Interaction Criticism Perspective [23.99411145447749]
データプライバシとセキュリティへのユーザの関与は、同意バナーを通じて、インターネットサービスとの対話において、ユビキタスな部分になっている、と私たちは主張する。
我々の分析は、デザイナー、インターフェイス、ユーザー、および社会的コンテキストレンズの上に構築され、複雑で緊急で矛盾する方法で一緒に起こる緊張とシナジーを高める。
我々は、倫理的懸念事項を公共政策に翻訳するために、法学、倫理学、コンピュータサイエンス、インタラクティブシステム奨学金の学際的対話を行う機会で締めくくります。
論文 参考訳(メタデータ) (2020-09-21T22:00:51Z) - M2P2: Multimodal Persuasion Prediction using Adaptive Fusion [65.04045695380333]
本稿では,ディベートアウトカム予測 (DOP) 問題において,誰が討論に勝つかを予測し,IPP (Intensity of Persuasion Prediction) 問題では,講演者の発言前後の投票数の変化を予測する。
我々のM2P2フレームワークはIPP問題を解決するためにマルチモーダル(音響、視覚、言語)データを使用した最初のフレームワークです。
論文 参考訳(メタデータ) (2020-06-03T18:47:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。