論文の概要: BLIP: Facilitating the Exploration of Undesirable Consequences of Digital Technologies
- arxiv url: http://arxiv.org/abs/2405.06783v1
- Date: Fri, 10 May 2024 19:21:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-14 20:05:32.595120
- Title: BLIP: Facilitating the Exploration of Undesirable Consequences of Digital Technologies
- Title(参考訳): BLIP:デジタル技術の望ましくない結果の探索を支援する
- Authors: Rock Yuren Pang, Sebastin Santy, René Just, Katharina Reinecke,
- Abstract要約: 本稿では,オンライン記事から実世界の望ましくない技術結果を取り出すシステムBLIPを紹介する。
15人の研究者による2つのユーザースタディにおいて、BLIPは、彼らがリストできる望ましくない結果の数と多様性を大幅に増やした。
BLIPは、進行中のプロジェクトに関連する望ましくない結果を特定し、"考えもしなかった"望ましくない結果に気付き、テクノロジに関する自身の経験を反映させるのに役立った。
- 参考スコア(独自算出の注目度): 20.27853476331588
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Digital technologies have positively transformed society, but they have also led to undesirable consequences not anticipated at the time of design or development. We posit that insights into past undesirable consequences can help researchers and practitioners gain awareness and anticipate potential adverse effects. To test this assumption, we introduce BLIP, a system that extracts real-world undesirable consequences of technology from online articles, summarizes and categorizes them, and presents them in an interactive, web-based interface. In two user studies with 15 researchers in various computer science disciplines, we found that BLIP substantially increased the number and diversity of undesirable consequences they could list in comparison to relying on prior knowledge or searching online. Moreover, BLIP helped them identify undesirable consequences relevant to their ongoing projects, made them aware of undesirable consequences they "had never considered," and inspired them to reflect on their own experiences with technology.
- Abstract(参考訳): デジタル技術は社会を肯定的に変えてきたが、デザインや開発の際には望ましくない結果がもたらされた。
我々は、過去の望ましくない結果に対する洞察は、研究者や実践者が意識を高め、潜在的に有害な影響を予測するのに役立つと仮定する。
この仮定をテストするために,オンライン記事から現実の望ましくない技術結果を取り出すシステムBLIPを導入し,それらを要約して分類し,インタラクティブなWebベースインタフェースで提示する。
コンピュータサイエンス分野の15人の研究者による2つのユーザスタディにおいて、BLIPは、事前の知識やオンライン検索に頼らずにリストアップできる望ましくない結果の数と多様性を大幅に増加させた。
さらにBLIPは、進行中のプロジェクトに関連する望ましくない結果の特定を支援し、"考えもしなかった"望ましくない結果に気付き、テクノロジに関する自身の経験を反映するように促した。
関連論文リスト
- Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - Deepfake Media Forensics: State of the Art and Challenges Ahead [51.33414186878676]
AIが生成する合成メディア、別名Deepfakesは、エンターテイメントからサイバーセキュリティまで、多くの領域に影響を与えている。
ディープフェイク検出は、微妙な矛盾やアーティファクトを機械学習技術で識別することに焦点を当て、研究の不可欠な領域となっている。
本稿では,これらの課題に対処する主要なアルゴリズムについて,その利点,限界,今後の展望について検討する。
論文 参考訳(メタデータ) (2024-08-01T08:57:47Z) - The Case for Anticipating Undesirable Consequences of Computing
Innovations Early, Often, and Across Computer Science [24.13786694863084]
私たちの社会はますます、コンピューティングイノベーションの負の、意図しない結果の負担を負っている。
我々の以前の研究は、私たちの多くが、我々の研究がもたらす危険について先入観的に考えることの価値を認識していますが、後からのみ対処する傾向があります。
デジタル技術の望ましくない結果を考えることが重要であるが、一般的には行われていない文化をどのように変えることができるのか?
論文 参考訳(メタデータ) (2023-09-08T17:32:22Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - "That's important, but...": How Computer Science Researchers Anticipate
Unintended Consequences of Their Research Innovations [12.947525301829835]
意図しない結果を考えることは一般的に重要であるが、実践されることは滅多にない。
主要な障壁は、正式なプロセスと戦略の欠如と、迅速な進歩と出版を優先する学術的な実践である。
我々は,研究プロセスの前後において,技術革新の社会的意味を日常的に探究する道を開くことを目的としている。
論文 参考訳(メタデータ) (2023-03-27T18:21:29Z) - Towards Unbiased Visual Emotion Recognition via Causal Intervention [63.74095927462]
本稿では,データセットバイアスによる負の効果を軽減するために,新しい感情認識ネットワーク(IERN)を提案する。
IERNの有効性を検証する一連の設計されたテストと、3つの感情ベンチマークの実験は、IERNが他の最先端のアプローチよりも優れていることを示した。
論文 参考訳(メタデータ) (2021-07-26T10:40:59Z) - Toward Explainable Users: Using NLP to Enable AI to Understand Users'
Perceptions of Cyber Attacks [2.099922236065961]
本論文は,ユーザの行動とコンテキストに対する認識の説明とモデル化にAI技術を用いた最初の事例である。
我々の知る限り、この論文は、ユーザーの行動とコンテキストに対する認識の説明とモデル化にAI技術を使用した最初の事例である。
論文 参考訳(メタデータ) (2021-06-03T17:17:16Z) - Unpacking the Expressed Consequences of AI Research in Broader Impact
Statements [23.3030110636071]
本稿では,2020 Neural Information Processing Systems カンファレンスで記述された文のサンプルのテーマ分析の結果を紹介する。
私たちが特定するテーマは、結果の表現方法と影響の領域に関連するカテゴリに分類されます。
結果を踏まえて、将来のイテレーションでより広範なインパクトステートメントをどのように実装して、潜在的な目標とよりよく一致させることができるか、という視点を提供します。
論文 参考訳(メタデータ) (2021-05-11T02:57:39Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z) - Avoiding Negative Side Effects due to Incomplete Knowledge of AI Systems [35.763408055286355]
エージェントの行動の負の副作用を認識して回避する学習は、自律システムの安全性と信頼性を向上させるために重要である。
ネガティブな副作用の緩和は、AIシステムの展開が急速に増加しているために注目が集まっている、新たな研究トピックである。
本稿は、様々な形態の負の副作用と、それらに対処する最近の研究成果について概説する。
論文 参考訳(メタデータ) (2020-08-24T16:48:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。