論文の概要: The Grey Hoodie Project: Big Tobacco, Big Tech, and the threat on
academic integrity
- arxiv url: http://arxiv.org/abs/2009.13676v4
- Date: Tue, 27 Apr 2021 12:29:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-30 18:21:35.807926
- Title: The Grey Hoodie Project: Big Tobacco, Big Tech, and the threat on
academic integrity
- Title(参考訳): Grey Hoodie Project:Big Tobacco, Big Tech, そして学術的完全性に対する脅威
- Authors: Mohamed Abdalla and Moustafa Abdalla
- Abstract要約: われわれは、Big Techが学術的展望を積極的に歪め、そのニーズに合うかを示す。
他の業界(Big Tobacco)のよく研究されている行動と、現在のBig Techの行動を比較することで、どちらの業界でも同様の戦略が採用されていることがわかる。
学術研究の資金を、ビッグデータが社会的に責任を負う公共イメージの推進に利用するツールとして検討する。
- 参考スコア(独自算出の注目度): 3.198144010381572
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As governmental bodies rely on academics' expert advice to shape policy
regarding Artificial Intelligence, it is important that these academics not
have conflicts of interests that may cloud or bias their judgement. Our work
explores how Big Tech can actively distort the academic landscape to suit its
needs. By comparing the well-studied actions of another industry (Big Tobacco)
to the current actions of Big Tech we see similar strategies employed by both
industries. These strategies enable either industry to sway and influence
academic and public discourse. We examine the funding of academic research as a
tool used by Big Tech to put forward a socially responsible public image,
influence events hosted by and decisions made by funded universities, influence
the research questions and plans of individual scientists, and discover
receptive academics who can be leveraged. We demonstrate how Big Tech can
affect academia from the institutional level down to individual researchers.
Thus, we believe that it is vital, particularly for universities and other
institutions of higher learning, to discuss the appropriateness and the
tradeoffs of accepting funding from Big Tech, and what limitations or
conditions should be put in place.
- Abstract(参考訳): 政府機関は、人工知能に関する政策を形成するために学者の専門的なアドバイスに頼っているため、これらの学術者は、彼らの判断を曇らせるか偏見を抱くかもしれない利害の衝突を持っていないことが重要である。
我々の研究は、Big Techがそのニーズに合うように学界を積極的に歪める方法を探っている。
他の産業(大きなタバコ)のよく研究された行動と、現在の大企業の行動を比較することで、両方の産業で採用されている同様の戦略が分かる。
これらの戦略により、業界は学術的および公共的な言説を揺るがし、影響を与えることができる。
学術研究の資金は、ビッグテックが社会に責任を負う公共のイメージを広めるためのツールとして利用し、資金提供を受けた大学が主催するイベントや意思決定に影響を与え、個々の科学者の研究課題や計画に影響を与え、活用可能な受容的な学術者を見つけるためのツールとして、学術研究の資金について検討する。
我々は,大学レベルから個々の研究者まで,大規模技術がアカデミアに与える影響を実証する。
したがって、特に高等教育機関において、大企業からの資金提供を受けることの適切性とトレードオフ、そしてどのような制限や条件を講じるべきなのかを議論することが不可欠であると信じている。
関連論文リスト
- Auto-assessment of assessment: A conceptual framework towards fulfilling the policy gaps in academic assessment practices [4.770873744131964]
英国、アラブ首長国連邦、イラクの3カ国から117人の学者を対象に調査を行った。
我々は、ほとんどの学者が、教育におけるAIについて肯定的な意見を持っていることを確認した。
学生の働きを自律的に評価する新しいAIフレームワークを初めて提案する。
論文 参考訳(メタデータ) (2024-10-28T15:22:37Z) - Do Responsible AI Artifacts Advance Stakeholder Goals? Four Key Barriers Perceived by Legal and Civil Stakeholders [59.17981603969404]
責任あるAI(RAI)コミュニティは、透明性を促進し、AIシステムのガバナンスをサポートするために、多数のプロセスとアーティファクトを導入している。
我々は、責任あるAI活動に関する政策と擁護を通知する19の政府、法律、市民社会の利害関係者と半構造化されたインタビューを行う。
我々は、これらの信念を4つの障壁にまとめて、RAIアーティファクトが(必然的に)市民社会、政府、産業間での権力関係を再構成する方法を説明する。
論文 参考訳(メタデータ) (2024-08-22T00:14:37Z) - Now, Later, and Lasting: Ten Priorities for AI Research, Policy, and Practice [63.20307830884542]
今後数十年は、産業革命に匹敵する人類の転換点になるかもしれない。
10年前に立ち上げられたこのプロジェクトは、複数の専門分野の専門家による永続的な研究にコミットしている。
AI技術の短期的および長期的影響の両方に対処する、アクションのための10のレコメンデーションを提供します。
論文 参考訳(メタデータ) (2024-04-06T22:18:31Z) - Big Tech influence over AI research revisited: memetic analysis of attribution of ideas to affiliation [0.0]
本稿は、AI研究におけるビッグデータのリーチとパワーの理解を広げ、深化することを目的としている。
これは単なる出版量ではなく、新しいアイデアやミームの伝播における支配性を強調している。
論文 参考訳(メタデータ) (2023-12-20T09:45:44Z) - Academic competitions [61.592427413342975]
この章では、機械学習とその関連分野の文脈における学術的課題について調査する。
ここ数年で最も影響力のあるコンペをレビューし、知識領域における課題を分析します。
科学的な課題,その目標,主要な成果,今後の数年間の期待を概観する。
論文 参考訳(メタデータ) (2023-12-01T01:01:04Z) - On the Opportunities of Green Computing: A Survey [80.21955522431168]
人工知能(AI)は数十年にわたり、技術と研究において大きな進歩を遂げてきた。
高いコンピューティングパワーの必要性は、より高い二酸化炭素排出量をもたらし、研究の公正性を損なう。
コンピューティングリソースの課題とAIの環境への影響に取り組むため、グリーンコンピューティングはホットな研究トピックとなっている。
論文 参考訳(メタデータ) (2023-11-01T11:16:41Z) - Human-Centered Responsible Artificial Intelligence: Current & Future
Trends [76.94037394832931]
近年、CHIコミュニティは人間中心のレスポンシブル人工知能の研究において著しい成長を遂げている。
この研究はすべて、人権と倫理に根ざしたまま、人類に利益をもたらすAIを開発し、AIの潜在的な害を減らすことを目的としている。
本研究グループでは,これらのトピックに関心のある学術・産業の研究者を集結させ,現在の研究動向と今後の研究動向を地図化することを目的とする。
論文 参考訳(メタデータ) (2023-02-16T08:59:42Z) - The History of AI Rights Research [0.0]
報告書は、AIの権利およびその他の人工エンティティの道徳的考慮に関する研究の歴史を文書化している。
この論文は、この文学における重要な知的影響と、このトピックをより直接的に扱う研究や学術的な議論を強調している。
論文 参考訳(メタデータ) (2022-07-06T17:52:27Z) - Big Tech Companies Impact on Research at the Faculty of Information
Technology and Electrical Engineering [15.068124449703435]
技術の発展に伴い、倫理に関する課題も増大する。
ビッグデータ企業がAI倫理に影響を与えているのは、多くの倫理AI研究者がBig Techやその関連研究所に根ざしているからだ。
論文 参考訳(メタデータ) (2022-04-10T12:28:08Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - The Privatization of AI Research(-ers): Causes and Potential
Consequences -- From university-industry interaction to public research
brain-drain? [0.0]
民間部門は、基本人工知能(AI)研究開発においてますます重要な役割を担っている。
この現象は、学術から産業への研究者の脳ドレインの認識に反映されている。
学界から業界、特にエリート機関からGoogle、Microsoft、Facebookといったテクノロジー企業への研究者の流入が増加しています。
論文 参考訳(メタデータ) (2021-02-02T18:02:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。