論文の概要: GreaseVision: Rewriting the Rules of the Interface
- arxiv url: http://arxiv.org/abs/2204.03731v1
- Date: Thu, 7 Apr 2022 20:50:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-11 14:08:41.692888
- Title: GreaseVision: Rewriting the Rules of the Interface
- Title(参考訳): GreaseVision: インターフェースのルールを書き換える
- Authors: Siddhartha Datta, Konrad Kollnig, Nigel Shadbolt
- Abstract要約: GreaseVisionは、エンドユーザがソフトウェアの害に対する介入を共同で開発することを可能にする新しいフレームワークである。
我々の貢献により、研究者は大規模に害や介入の分布を研究できる。
- 参考スコア(独自算出の注目度): 10.65724536340206
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Digital harms can manifest across any interface. Key problems in addressing
these harms include the high individuality of harms and the fast-changing
nature of digital systems. As a result, we still lack a systematic approach to
study harms and produce interventions for end-users. We put forward
GreaseVision, a new framework that enables end-users to collaboratively develop
interventions against harms in software using a no-code approach and recent
advances in few-shot machine learning. The contribution of the framework and
tool allow individual end-users to study their usage history and create
personalized interventions. Our contribution also enables researchers to study
the distribution of harms and interventions at scale.
- Abstract(参考訳): デジタル害はどんなインターフェースでも現れる。
これらの害に対処する上での鍵となる問題は、被害の個性の高さとデジタルシステムの変化の早い性質である。
結果として、エンドユーザーに対する害の研究や介入の体系的なアプローチはいまだに欠如している。
GreaseVisionは、エンドユーザーがノーコードアプローチと最近の数ショット機械学習の進歩を使って、ソフトウェアの害に対する介入を共同で開発できる新しいフレームワークである。
このフレームワークとツールの貢献により、個々のエンドユーザは自身の使用履歴を調査し、パーソナライズされた介入を作成できる。
我々の貢献により、研究者は大規模に害や介入の分布を研究できる。
関連論文リスト
- ID-Guard: A Universal Framework for Combating Facial Manipulation via Breaking Identification [60.73617868629575]
深層学習に基づく顔操作の誤用は、公民権に対する潜在的な脅威となる。
この不正行為を防ぐため、プロアクティブな防御技術が提案され、操作プロセスを妨害した。
我々は,ID-Guardと呼ばれる,顔操作と戦うための新しい普遍的枠組みを提案する。
論文 参考訳(メタデータ) (2024-09-20T09:30:08Z) - Composable Interventions for Language Models [60.32695044723103]
言語モデルのテストタイム介入は、事実の正確性を高め、有害な出力を軽減し、コストのかかる再トレーニングなしにモデルの効率を向上させる。
しかし、新しい手法の洪水にもかかわらず、様々な種類の介入が独立して発展している。
複数の介入が同じ言語モデルに与える影響を研究するためのフレームワークである構成可能な介入を導入する。
論文 参考訳(メタデータ) (2024-07-09T01:17:44Z) - Privacy-Preserving Graph Machine Learning from Data to Computation: A
Survey [67.7834898542701]
我々は,グラフ機械学習のプライバシ保護手法の見直しに重点を置いている。
まずプライバシ保護グラフデータを生成する方法を検討する。
次に,プライバシ保護情報を送信する方法について述べる。
論文 参考訳(メタデータ) (2023-07-10T04:30:23Z) - Decentralized Adversarial Training over Graphs [55.28669771020857]
機械学習モデルの敵攻撃に対する脆弱性は、近年、かなりの注目を集めている。
この研究は、個々のエージェントが様々な強度摂動空間に従属するグラフ上の敵の訓練を研究する。
論文 参考訳(メタデータ) (2023-03-23T15:05:16Z) - ExploreADV: Towards exploratory attack for Neural Networks [0.33302293148249124]
ExploreADVは、地域的および非受容的な攻撃をモデル化できる汎用的で柔軟な敵攻撃システムである。
提案システムは,入力のサブリージョンに着目し,知覚不能な摂動を探索し,攻撃に対する画素/領域の脆弱性を理解するための柔軟性をユーザに提供する。
論文 参考訳(メタデータ) (2023-01-01T07:17:03Z) - Mind-proofing Your Phone: Navigating the Digital Minefield with
GreaseTerminator [6.47425225935854]
この研究はGreaseTerminatorを導入し、研究者がエンドユーザによるデジタル害に対する介入を開発し、デプロイし、テストできるようにする。
我々は介入開発と展開の容易さと、GreaseTerminatorでカバーされる可能性のある幅広い害を実証する。
論文 参考訳(メタデータ) (2021-12-20T17:35:02Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z) - Monitoring and Diagnosability of Perception Systems [21.25149064251918]
知覚は、ロボット工学や自動運転車などの自律システムの高統合的応用において重要な要素である。
知覚システムの重要さにもかかわらず、システムレベルのモニタリングには正式なアプローチは存在しない。
本稿では,認識システムの実行時モニタリングと故障検出のための数学的モデルを提案する。
論文 参考訳(メタデータ) (2020-05-24T18:09:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。