論文の概要、ライセンス

# (参考訳) ディープフェイクと2020年米大統領選:何が起こるのか [全文訳有]

Deepfakes and the 2020 US elections: what (did not) happen ( http://arxiv.org/abs/2101.09092v1 )

ライセンス: CC BY 4.0
Jo\~ao Paulo Meneses(参考訳) 2016年の米大統領選で起きたと推定される偽情報量に悩まされ、学者、政治、ジャーナリストらは2018年に最初のディープフェイクが発覚した最悪の事態を予測した。 結局のところ、2020年のアメリカ大統領選挙は、アメリカ史上最も安全だと信じられていた。 この論文は、明らかな矛盾についての説明を求めている:我々は、悪意ある政治的ディープフェイクが2020年の米大統領選に影響を及ぼすのを阻止する条件を生み出した、さまざまな種類の警告と恐怖の多角化と共役であると考えている。 これらの警告から,ソーシャルネットワークの積極的な役割,新しい法律,人工知能へのアクセスの困難さ,社会意識の向上の4つの要因を特定した。 しかし、この公式は、米国、2020年の場合に有効であることが証明されているが、他の政治的文脈で繰り返すことができると仮定するのは正しくない。

Alarmed by the volume of disinformation that was assumed to have taken place during the 2016 US elections, scholars, politics and journalists predicted the worst when the first deepfakes began to emerge in 2018. After all, US Elections 2020 were believed to be the most secure in American history. This paper seeks explanations for an apparent contradiction: we believe that it was precisely the multiplication and conjugation of different types of warnings and fears that created the conditions that prevented malicious political deepfakes from affecting the 2020 US elections. From these warnings, we identified four factors (more active role of social networks, new laws, difficulties in accessing Artificial Intelligence and better awareness of society). But while this formula has proven to be effective in the case of the United States, 2020, it is not correct to assume that it can be repeated in other political contexts.
公開日: Fri, 22 Jan 2021 13:10:47 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
Deepfakes and the 2020 US elections: what (did not) happen João Paulo Meneses, CECS, Portugal D011454@ismai.pt Abstract Alarmed by the volume of disinformation that was assumed to have taken place during the 2016 US elections, scholars, politics and journalists predicted the worst when the first deepfakes began to emerge in 2018. deepfakes and the 2020 us election: what (did not) happen joão paulo meneses, cecs, portugal d011454@ismai.pt アメリカにおける2016年の選挙中に起きたと仮定された偽情報の量によって、2018年に最初のディープフェイクが発生し始めたとき、学者、政治、ジャーナリストは最悪の事態を予測した。 0.72
After all, US Elections 2020 were believed to be the most secure in American history. 結局のところ、2020年のアメリカ大統領選挙は、アメリカ史上最も安全だと信じられていた。 0.63
This paper seeks explanations for an apparent contradiction: we believe that it was precisely the multiplication and conjugation of different types of warnings and fears that created the conditions that prevented malicious political deepfakes from affecting the 2020 US elections. この論文は、明らかな矛盾についての説明を求めている:我々は、悪意ある政治的ディープフェイクが2020年の米大統領選に影響を及ぼすのを阻止する条件を生み出した、さまざまな種類の警告と恐怖の多角化と共役であると考えている。 0.54
From these warnings, we identified four factors (more active role of social networks, new laws, difficulties in accessing Artificial Intelligence and better awareness of society). これらの警告から,ソーシャルネットワークの積極的な役割,新しい法律,人工知能へのアクセスの困難さ,社会意識の向上の4つの要因を特定した。 0.69
But while this formula has proven to be effective in the case of the United States, 2020, it is not correct to assume that it can be repeated in other political contexts. しかし、この公式は、米国、2020年の場合に有効であることが証明されているが、他の政治的文脈で繰り返すことができると仮定するのは正しくない。 0.73
Keywords: Deepfakes, Social Networks, Disinformation, US Elections João Paulo Meneses C..EC.S., Portugal In E-mail: d011454@ismai.pt ORCID: 0000-0003-2365-3832 キーワード:Deepfakes, Social Networks, Disinformation, US Elections João Paulo Meneses C..EC.S., Portugal In E-mail: d011454@ismai.pt ORCID: 0000-0003-2365-3832 0.77
英語(論文から抽出)日本語訳スコア
the a that is はあ? あ あれ は 0.57
capable of and 能力 ですから そして 0.63
report (‘Understanding the US Elections 20, Nisos1 published a 報告 (「下」) nisos1が公表した米国選挙20選 0.72
Introduction One year before illicit economy for synthetic media’2) that read ‘we do not anticipate widespread deepfake3 use in disinformation campaigns in the near term (to include the 2020 election cycle)’. はじめに「短期(2020年の選挙サイクルを含む)の偽情報キャンペーンでディープフェイク3が広く使われることを予想していない」と書かれた「合成メディアの違法経済」の1年前。 0.72
In retrospect, Nisos experts made the right forecast. 振り返ると、Nisosの専門家は正しい予測をした。 0.56
However, this was a clear minority opinion. しかし、これは明快な少数意見であった。 0.66
Before and after their report, dozens of politicians and institutions drew considerable attention to the approaching danger: ‘imagine a scenario where, on the eve of next year’s presidential election, the Democratic nominee appears in a video where he or she endorses President Trump. 来年の大統領選挙の前夜に、民主党候補がトランプ氏を支持したビデオに登場したシナリオを想像してみてほしい。
訳抜け防止モード: 報告書の前後には、何十人もの政治家や機関が、近づいてくる危険にかなりの注意を払っていた。 来年の大統領選挙の前夜、民主党候補はトランプ氏を支持したビデオに登場した。
0.63
Now, imagine it the other way around.’ (Sprangler, 2019). では、その逆を想像してみよう(Sprangler, 2019)。 0.67
It is fair to say that deepfakes’ high potential for disinformation was noticed long before these hypothetical consequences were evoked, mainly because to be highly credible. ディープフェイクの偽情報に対する高いポテンシャルは、これらの仮説的な結果が誘発されるずっと前に、主に信頼性が高いために認識されたと言えます。 0.56
Two examples: ‘In an online quiz, 49 percent of people who visited our site said they incorrectly believed Nixon’s synthetically altered face was real and 65 percent thought his voice was real’ (Panetta et al, 2020), or ‘Two-thirds of participants believed that one day it would be impossible to discern a real video from a fake one. オンラインクイズでは、我々のサイトを訪れた人々の49%が、ニクソンの合成された顔が本物で、65%が彼の声が本物だと誤って信じている、と答えている(Panetta et al, 2020)。
訳抜け防止モード: オンラインクイズでは、サイトを訪れた人の49%が言いました ニクソンの人工的な顔は本物だと誤って信じていた そして65%は、彼の声は本物だと思った(panetta et al, 2020)。 参加者の3分の2は いつか、本物のビデオと偽のビデオを見分けることは不可能になるだろう。
0.71
42 percent of people believed it is very or extremely likely that deepfakes will be used to mislead voters in 2020’ (AMEinfo, 2020). 回答者の42%は、2020年の有権者を誤解させるのにディープフェイクが使われる可能性は極めて高いと考えている(ameinfo, 2020)。 0.65
However, perhaps the most frightening factor to anyone in the consequences of disinformation was the predictable difficulty in combating or neutralizing malicious deepfakes, since are evolving: Artificial Intelligence (AI). しかし、偽情報の結果における最も恐ろしい要因は、人工知能(ai)が進化しているために、悪意のあるディープフェイクとの戦いや中立化が予測可能な困難さであった。
訳抜け防止モード: しかし、おそらく偽情報の結果として最も恐ろしい要因は、悪意のあるディープフェイクと戦うことや中和することの予測上の困難だった。 人工知能(AI)。
0.65
‘Expert says detecting deepfakes almost impossible’, was the suggestive headline of an Axios story (Fernandez, 2020). ディープフェイクの発見はほぼ不可能」は、Axiosの物語(Fernandez, 2020)の示唆的な見出しだった。 0.65
The same expert, Hany Farid, a professor from University of California, Berkeley, stated in other source that ‘[i]n January 2019, deepfakes were buggy and flickery. 同じ専門家であるカリフォルニア大学バークレー校のハニー・ファリド教授は、別の情報源で「2019年1月、ディープフェイクはバギーでフリックだった。 0.57
Nine months later, I’ve never seen anything like how fast they’re going. 9ヶ月も経たないうちに、彼らがどれだけ速く行くかなんて、見たことがない。 0.67
This is the tip of the iceberg’ (Toews, 2020). これは氷山の一角だ(Toews, 2020)。 0.59
Many factors make this technology something special and probably nothing compared to what (2020) state: was known until now, as Katarya and Lal ‘The existence of such open-source software and the availability of devices in the market for fabricating and propagating these falsified information has brought to attention the immediate need for detection and elimination of malicious deepfake content’. これまでは、kataryaとlalが“このようなオープンソースソフトウェアの存在と、これらの偽造情報の作成と伝播のための市場におけるデバイスの存在”として知られていたため、悪意のあるディープフェイクコンテンツの検出と削除の即時の必要性が注目されるようになった。 0.62
technology they were revealed 技術 彼らは 明らかに 0.67
interested adapting 興味 adapting~ 0.72
built on they 1.1 Warnings about the 2020 US elections 建立 オン 彼らは 1.1 米国選挙に関する警告 0.65
The dangers that deepfakes can pose for an election were widely anticipated prior to the 2020 US elections. ディープフェイクが選挙に影響を及ぼす危険性は、2020年の米大統領選に先立って広く予想されていた。 0.51
Although the weight of the two technologies is different, the basic fear was that in 2016.4 Consequently, there were deepfakes could play the same role that fake news did warnings the sectors potential of deepfakes to cause ‘with so few people undecided about the upcoming presidential election, influencing just a handful of people on the 2つのテクノロジーの重みは異なるが、基本的な恐れは2016年にディープフェイクが発生し、その結果、フェイクニュースがディープフェイクの可能性を警告したのと同じ役割を果たせることであった。
訳抜け防止モード: 2つのテクノロジーの重さは異なるが、基本的な恐れは2016年だった。 ディープフェイク(ディープフェイク)は、偽ニュースがディープフェイク(ディープフェイク)の可能性を警告したのと同じ役割を果たす可能性がある。 ほんの一握りの人々に影響を与え
0.55
(mainly politicians, irreparable harm. (主に政治家、不可分な損害) 0.69
Much more because technologists, and academics) about それ以上に 技術者や学者) 0.56
from various 1 https://www.nisos.co m/company 2 https://www.nisos.co m/deep_fakes 3 In our definition, a deepfake is completely or partially fake content in video, audio, text and/or image form that was generated using Artificial Intelligence. 様々なものから われわれの定義では、deepfakeは人工知能を使って生成されたビデオ、オーディオ、テキスト、画像形式で完全にまたは部分的にフェイクされたコンテンツである。 0.66
Thus, deepfakes are not limited to their most popular form, namely videos 4 In summary, the Mueller Report concluded that Russia’s Internet Research Agency and military intelligence service (GRU) used a range of digital tactics to target the 2016 US elections. したがって、ディープフェイクは彼らの最も人気のある形式、すなわちビデオ4に限定されない。要約すると、muellerのレポートは、ロシアのインターネット研究機関と軍事情報局(gru)は、2016年のアメリカ大統領選挙を狙うために、さまざまなデジタル戦術を使ったと結論づけている。
訳抜け防止モード: したがって、ディープフェイクは最も人気のある形態に限ったものではない。 まとめると、Mueller ReportはロシアのInternet Research Agencyを結論づけた。 軍事情報部(GRU)はデジタル戦術を多用した 2016年アメリカ合衆国大統領選挙に立候補。
0.68
英語(論文から抽出)日本語訳スコア
margins can sway an election’ examples of this potential: マージンは選挙のこの可能性の例を妨げかねない。 0.55
(Polakovic, 2020). (polakovic, 2020)。 0.76
The following list presents some 以下 List presents some ♪ 0.55
relevant - - - a 関連 - - - あ 0.73
his opening remarks, 彼の オープニング 言っとくよ 0.54
Schiff warned of schiff氏は警告する 0.62
committee Chair Adam in 2019 that the technology could アダム委員会委員長 2019年にテクノロジーが 0.59
‘In the old days, if you wanted to threaten the United States, you needed 10 aircraft carriers, and nuclear weapons, and long-range missiles. 昔、米国を脅かしたいなら、10隻の空母、核兵器、長距離ミサイルが必要でした。
訳抜け防止モード: 「昔、米国を脅かしたいなら。」 10隻の空母と核兵器と 長距離ミサイルが必要だった
0.56
Today (…) all you need is the ability to produce a very realistic fake video that could undermine our elections, that could throw our country into tremendous crisis internally and weaken us deeply,’stated US Senator Marco Rubio (Porup, 2019). 現在(...)必要なのは、我々の選挙を損なうような、非常にリアルなフェイクビデオを制作できることです。
訳抜け防止モード: 今日(...)必要なのは、選挙を台無しにする非常にリアルなフェイクビデオを制作できることだ。 米国上院議員のマルコ・ルビオ氏(2019年、共和党)は「我が国は内政危機に陥り、我々を深く弱体化させる可能性がある」と指摘。
0.61
‘In ‘nightmarish’ scenario for the upcoming presidential campaigns and declared that ‘now is the time for social media companies to put in place policies to protect users from misinformation, not in 2021 after viral deepfakes have polluted the 2020 elections’‘ (Galtson, 2020). 今こそ、ソーシャルメディア企業がユーザーを誤った情報から守るための政策を講じるべき時だ、と宣言した(2020年、ガルトソン)。
訳抜け防止モード: 来るべき大統領選挙の‘夜行性’シナリオ 今こそソーシャルメディア企業が、ユーザーを誤情報から守るためのポリシーを敷く時だ、と宣言した。 新型ウイルスのディープフェイク(ディープフェイク)が2020年の選挙を汚染した後は、2021年に入っていない(Galtson, 2020)。
0.68
Senator Ben Sasse, a Republican from Nebraska who introduced a bill to criminalize the malicious creation of deepfakes, warned ‘destroy human lives’, ‘roil financial markets’, and even ‘spur military conflicts around the world’ (Wolfgang, 2018). ネブラスカ州選出の共和党上院議員ベン・サセ(Ben Sasse)は、ディープフェイクの悪意ある創造を犯罪化する法案を提出した。
訳抜け防止モード: ベン・サッセ上院議員 ネブラスカ州選出の共和党議員で ディープフェイクの悪質な創造を犯罪化する法案を導入した。 警告は「人間の命を破壊する」「金融市場を混乱させる」。 そして、”世界中の軍事紛争を引き起こしている”(wolfgang, 2018)。
0.65
‘How exactly could deepfakes be weaponized in an election? ディープフェイクはどうやって選挙で武器化できるのか? 0.59
To begin with, malicious actors could forge evidence to fuel false accusation and fake narratives. まず、悪質な俳優は偽の告発や偽の物語を刺激する証拠を偽造する可能性がある。
訳抜け防止モード: まず最初に、 悪質な俳優は 虚偽の告発や 偽の物語の証拠を偽造できる
0.67
(…) Deepfakes could also be used to create entirely new fictitious content, including controversial or hateful statements with the intention of playing upon political divisions, or even inciting violence’, wrote researchers Puutio and Timis (2020). ディープフェイク(Deepfakes)は、政治的分裂や暴力の扇動を意図した論争的あるいは憎悪的な発言を含む、全く新しい架空のコンテンツを作るのにも使える、と研究者のPuutio and Timis (2020)は書いている。 0.64
‘Disinformation conveyed via deepfakes could pose a challenge during elections, since, to the untrained eye, a deepfake may be difficult to distinguish from a real video. ディープフェイクで伝えられる偽情報は、未学習の目には、本物のビデオと区別するのが難しいので、選挙中に難題になる可能性がある。 0.61
Any political actor could try to discredit an opponent or try to incite some political scandal with the goal of furthering their own agenda’ (Dobber et al, 2020: 2). あらゆる政治俳優は、相手を軽蔑したり、自分の議題をさらに進めるために何らかの政治スキャンダルを提起しようとすることができる(Dobber et al, 2020: 2)。 0.77
‘The upcoming US presidential election in November 2020 will serve as a bellwether not only for Western liberal democracies, but for the rest of the world’ (Schick, 2020a: 21) and ‘I believe the corrupt information ecosystem will play an even greater role in the 2020 election than it did in 2016’ (Schick, 2020a: 113). 2020年11月の米大統領選挙は、欧米のリベラルな民主主義者だけでなく、世界の他の国々にも影響を及ぼすだろう」(Schick, 2020a: 21)と「腐敗した情報エコシステムは、2016年の選挙よりもさらに大きな役割を果たすだろう」(Schick, 2020a: 113)。 0.75
‘Deepfake videos and audios could undermine the democratic process by tipping an election’, the University of Maryland (Simonite, 2020). メリーランド大学(Simonite, 2020)は「ディープフェイクビデオとオーディオは、選挙を先送りすることで民主的なプロセスを損なう可能性がある」と述べた。 0.67
‘If executed and timed well enough, such interventions are bound to tip an outcome sooner or shadow of a cast illegitimacy over the election process itself’ (Citron & Chesnet, 2019, 1779). もし十分に実行され、十分な時間が経過すれば、そのような介入は、選挙プロセス自体に対する不正行為の早さや影を突き付けることになる(Citron & Chesnet, 2019, 1779)。 0.71
‘‘Democracies will be common, Emerging Technologies Fellow Lindsay Gorman told panelists gathered online, on March 12 at the Information Technology Innovation Foundation’ (Patton, 2020). 新興技術の仲間であるlindsay gorman氏は3月12日、情報技術イノベーション財団(patton, 2020)で、オンラインのパネリストたちが集まりました。
訳抜け防止モード: 民主主義はありふれたものだ。 Emerging TechnologiesフェローのLindsay Gorman氏は3月12日,Information Technology Innovation Foundation(Patton, 2020)で,オンラインパネリストたちに講演を行った。
0.71
‘We’ve seen proofs of concepts of deepfakes being released that could be used to influence the electorate. ディープフェイク(ディープフェイク)の概念の証明は、選挙人に影響を与える可能性がある。 0.50
(…) If a deepfake is dropped at the right time, say maybe two or three days before an election occurs, imagine the impact that could have if it goes viral?’, stated Matt Price of ZeroFox (Roby, 2019). (...)もし、ディープフェイクが適切なタイミングでドロップされたら、例えば選挙の2、3日前に、バイラルになった場合の影響を想像してみてください」とzerofoxのmatt price氏は述べている(roby, 2019)。
訳抜け防止モード: (...)Deepfakeを正しいタイミングで落とせば、 例えば、選挙が起こる2、3日前に、ウイルスに感染した場合に起こる影響を想像してみてください。 ZeroFox (Roy , 2019 ) の Matt Price 氏は述べている。
0.77
‘Artificial intelligence is the real thing. アートインテリジェンス(Artificial Intelligence)は、本物だ。 0.68
It is already in use by attackers. 既に攻撃者によって使用されている。 0.66
When they learn how to do deepfakes, I would argue this is potentially an existential threat’, said MajorGeneral (ret.) 彼らがディープフェイクのやり方を学ぶとき、これは潜在的に存在の脅威だと私は思う」と、少将(ret.)は述べた。 0.57
Brett Williams, the former US cyber command chief (Grossman, 2020). ブレット・ウィリアムズ(brett williams) - アメリカのサイバー司令長官(grossman, 2020)。 0.65
This list of examples is intended to show that public warnings about the dangers of deepfakes have appeared since at issue united people with very different interests around a common goal. この例の一覧は、ディープフェイクの危険性に関する公衆の警告が、共通の目標に関する非常に異なる関心を持つ人々がイシューで結集して以来現れてきたことを示すものである。 0.61
least 2018. 少なくとも2018年 0.69
On the other hand, the said Danielle Citron, a 他方では、 Aのダニエル・シトロンは言った 0.42
then-law professor at then‐law professor 0.90
if deepfakes become at a disadvantage’ ディープフェイクが disadvantage (複数形 disadvantages) 0.36
cases they will later—and in 事例 彼らは 後に イン 0.62
a larger set of あ より大きく set of... 0.52
at least - - に 少なくとも - - 0.79
- - - - - - - - - - - - 0.85
英語(論文から抽出)日本語訳スコア
1.2 Some previous cases ‘We haven’t seen any deepfakes released in the wild that we think are genuinely malicious, not saying that they’re deepfakes and trying to mask what they are’, said Price (Roby, 2019). 1.2 前例 彼らはディープフェイクであり、彼らが何であるかを隠そうとしているわけではない、とPrice(Roby, 2019)は言う。
訳抜け防止モード: 1.2 前例 野生のディープフェイクは見たことがない 私たちは本当に悪意があると考えています 彼らがディープフェイクで 挑戦しているとは言わないで 自分が何者かを隠すために とPrice(Robby, 2019)は言った。
0.60
In addition, the cases that went public in the two years prior to the 2020 elections were isolated or even anecdotal. さらに、2020年の選挙前の2年間に公表された事件は孤立または逸話さえもなかった。 0.67
In January 2019 in Gabon, a video of President Ali Bongo, who had not made a public appearance for several months, triggered a coup. 2019年1月、ガボンで数ヶ月間公に現れなかったアリー・ボンゴ大統領のビデオがクーデターを引き起こした。
訳抜け防止モード: 2019年1月、アリ・ボンゴ大統領のビデオ『ガボン』に出演。 何ヶ月も公の場に 出なかった クーデターを起こした
0.56
‘The military believed the video was a fake, although the president later confirmed it was real’ (Siyech, 2020). 軍部はビデオが偽物だと信じていたが、大統領は後に本物だと認めた」(Siyech, 2020)。 0.78
In India, a day before the Delhi election in February, two videos of Delhi unit Bharatiya Janata Party (BJP) President Manoj Tiwari hit the internet where he was found urging voters to vote to his party. インドでは2月のデリー選挙の1日前、デリーのバーラティヤ・ヤナタ党(BJP)大統領マノジ・ティワリ(Manoj Tiwari)がインターネットに侵入し、有権者に党に投票するよう呼びかけた。
訳抜け防止モード: インドでは2月のデリー選挙の1日前に delhi unit bharatiya janata party(bjp)プレジデントmanoj tiwariの2つのビデオがインターネットを襲った。 彼は有権者に自分の党に投票するよう促した。
0.75
The videos were then reported as deepfakes (Kumar, 2020) In Italy, an Italian satirical television show used a deepfake video unfavourable to the prime insulting minister, Matteo Renzi. その後、イタリアの風刺番組『Deepfakes』(クマール、2020年)で、イタリアの首相マテオ・レンツィ(英語版)に不利なディープフェイク・ビデオが使用された。 0.69
fellow politicians. As the video the video was authentic, which led to public outrage’ (Buo, 2020). 政治家仲間。 ビデオが本物であるように、このビデオは大衆の怒りに繋がった(buo, 2020)。 0.72
However, there appears to be a disconnect between this succession of warnings and the events that subsequently transpired. しかし、この一連の警告とその後に発生した出来事の間には、切り離されたように見える。 0.64
As Grossman (2020) expressed, ‘if there has been a surprise in campaign tactics this cycle, it is that these AI-generated videos have played a very minor role, little more than a cameo’. Grossman (2020) が言うように,“このサイクルでキャンペーン戦略に驚きがあったならば,これらのAI生成ビデオはカメオにすぎず,ごく小さな役割を果たしたものだ”。 0.76
This paper intends to explain this gap by not only seeking answers but also suggesting recommendations, using historical and secondary research. 本稿は, 回答を求めるだけでなく, 推薦を示唆し, 歴史的, 二次的研究を用いて, このギャップを説明することを目的とする。 0.54
2.0 What really happened in US Election 20 Collectively, there are four reasons that explain why malicious political deepfakes did not appear during the electoral period in the United States. 2.0 アメリカ合衆国大統領選挙で実際に起こったこと アメリカ合衆国における選挙期間中に悪質な政治的ディープフェイクが現れなかった理由を説明する4つの理由がある。 0.66
Over the course of at least during the year before the elections, thousands of deepfakes were disseminated; although most were of a pornographic nature, hundreds of videos that were seemingly benign in scope (e g , humorous, artistic, etc.) 少なくとも選挙前年の間、数千のディープフェイクが広まっていた。ほとんどはポルノ的性質だったが、何百ものビデオはスコープが不利であるように見える(ユーモア、芸術など)。 0.56
were also released. In other words, not only did deepfake technology continue to develop, but hundreds of creators5 around the world continued to produce this type of content. 解放されました 言い換えれば、deepfakeの技術は発展し続けるだけでなく、世界中の何百人ものクリエーターがこの種のコンテンツを制作し続けているということだ。 0.57
on ‘The social media shared individuals spread online, many ソーシャルメディア共有の個人はオンラインで拡散した 0.75
him to believe depicted started 信じるために 描写 開始 0.62
video 2.1 Interventions from social networks and technological platforms ビデオ 2.1 ソーシャルネットワークと技術プラットフォームからの介入 0.79
After receiving significant criticism for their passivity in the 2016 US elections, social networks (and technological platforms more generally) changed their discourse from 2018 onwards. 2016年のアメリカ合衆国大統領選挙で、ソーシャルメディア(および技術プラットフォーム)が通過を批判された後、2018年以降、彼らの言説を変更した。 0.65
They moved away from maintaining a generally neutral attitude towards the content and towards a more active, interventionist, and even controversial form of censorship. 彼らは、コンテンツに対する概して中立的な態度を保ち、より活発で介入主義者であり、議論を呼んでいる検閲形態へと向かった。
訳抜け防止モード: 彼らは立ち去った 内容に対する概して中立的な態度を維持する より活発で介入主義者で 論争を巻き起こす検閲に 向かおうとしています
0.65
‘If they do not avail themselves of this opportunity—and if deepfakes rampage through next year’s election, their wake—Congress may well move to strip the platforms of the near total immunity they have enjoyed for a quarter of a century, and the courts may rethink interpretations of the First Amendment from democratic processes’ (Chesney and Citron, apud Galston, 2020). もし彼らがこの機会を利用できなければ—そしてもし来年の選挙で大混乱を乗り越えれば—Congressは4世紀半にわたって楽しんだほぼ完全な免疫のプラットフォームを排除し、裁判所は民主的プロセスから修正第1条の解釈を再考するかもしれない(Chesney and Citron, apud Galston, 2020)。 0.71
falsehoods and misrepresentations fundamental lawmakers 虚偽と誤表現 基本 議員 0.63
protecting prevent 保護 prevent ~ 0.71
that leaving a swathe of あれ aを去る swathe (複数形 swathes) 0.56
in 5 https://www.technolo gyreview.com/2019/09 /25/132884/google-ha s-released-a-giant-d atabase-ofdeepfakes- to-help-fight-deepfa kes/ イン 5 https://www.technolo gyreview.com/2019/09 /25/132884/google-ha s-released-a-giant-d atabase-ofdeepfakes- to-help-fight-deepfa kes/ 0.35
英語(論文から抽出)日本語訳スコア
policies against under 政策 反対 under 0.71
uploading Hwang (2020: 14) states that ‘Public and policymaker concern has led to many of these platforms declaring circumstances. アップロード Hwang (2020: 14) は,‘公共と政策立案者の懸念が,これらのプラットフォームの多くを状況宣言に導いた’と述べている。 0.69
Furthermore, ‘there are no laws that regulate what’s going on with social media and websites today. さらに、ソーシャルメディアやウェブサイトで起きていることを規制する法律は存在しない。
訳抜け防止モード: さらに,「法律は存在しない」 ソーシャルメディアやウェブサイトで何が起きているのかを規制する。
0.76
(…) they don’t really have an incentive to go around and try to take down this synthetic content or even note that it is synthetic content’ (Roby, 2019). (...)彼らは、この合成コンテンツを取り下げたり、合成コンテンツであることに留意するインセンティブを持っていない(roby, 2019)。
訳抜け防止モード: (...)彼らは、実際に動き回るインセンティブを持っていない そして、この合成コンテンツを取り下げよう、あるいは合成コンテンツであることに留意しよう(roby, 2019)。
0.73
And the chief executive officer of Alphabet and Google, Sundar Pichai (2020), underlines: ‘Now there is no question in my mind that artificial intelligence needs to be regulated. そしてAlphabetとGoogleのCEO Sundar Pichai(2020)は、次のように述べている。 0.33
It is too important not to. それは重要ではない。 0.71
The only question is how to approach it’. 唯一の疑問は、どのようにアプローチするかだ。 0.71
Some of the most significant moves of social networks were as follows: ソーシャルネットワークの最も重要な動きは以下のとおりである。 0.72
deepfake content Deepfake 内容 0.75
certain - - - - 確か - - - - 0.79
In January 2020, Facebook announced that they would begin removing content that ‘has been edited or synthesized (…) in ways that aren’t apparent to an average person and would likely mislead someone into thinking that a subject of the video said words that they did not actually say’ (Hwang, 2020: 14); ‘Facebook claims A.I. 2020年1月、facebookは「平均的な人にとって明らかでない方法で編集または合成された」(...)コンテンツを削除し、ビデオの主題が実際に言っていない言葉を言ったと誤解させる可能性があると発表した(hwang, 2020: 14)。
訳抜け防止モード: 2020年1月、facebookは‘編集された’コンテンツや合成されたコンテンツ(...)を、平均的な人にとって明らかでない方法で削除すると発表した。 ビデオの主題が言ったことを 誤解させるでしょう と語らなかった(hwang, 2020 : 14)。 facebookはa.i.を主張する。
0.83
Now Detects 94.7% of the Hate Speech That Gets Removed From Its Platform’ (Shead, 2020). 現在、プラットフォームから削除されたヘイトスピーチの94.7%が検出されている(shead, 2020)。 0.64
Twitter adopted a broader approach in February 2020, announcing that they would remove and warn users against ‘synthetic or manipulated media that are likely to cause harm’ (Hwang, 2020: 14). twitterは2020年2月により広いアプローチを採用し、ユーザーに害をもたらす可能性のある「合成または操作されたメディア」を排除および警告すると発表した(hwang, 2020: 14)。 0.77
A Twitter blog post last week rounding up its election efforts said ‘it had added labels warning of misleading content to 300,000 tweets since October 27, which was 0.2 percent of all election-related posts in that period. 先週のtwitterのブログ記事は、選挙活動のまとめとして、“10月27日から30万ツイートに誤解を招くコンテンツを警告するラベルを追加した。
訳抜け防止モード: 先週のTwitterのブログ記事は、選挙運動をまとめて、「10月27日以来、30万ツイートに誤解を招くコンテンツが警告されるラベルを追加した。 これは全選挙の0.2%だった。
0.76
It didn’t mention deepfakes’ (Simonite, 2020). deepfakes’(simonite, 2020)については言及していない。 0.70
Platforms such as Reddit have adopted similar policies (Hwang, 2020: 14). Redditのようなプラットフォームも同様の方針を採用している(Hwang, 2020: 14)。 0.75
In September 2019, Facebook announced a $10 million ‘Deepfake Detection Challenge’. 2019年9月、Facebookは1000万ドルの「ディープフェイク検出チャレンジ」を発表した。 0.68
This was a partnership with six leading academic institutions and companies, including Amazon and Microsoft (Galston, 2020). これは、AmazonやMicrosoft(Galston, 2020)を含む6つの主要な学術機関や企業とのパートナーシップだった。 0.70
‘These efforts will likely play a significant role technical smoothing research pushing both advancements solutions into practical by intermediaries across the web’ (Hwang, 2020: 15). これらの取り組みは、双方のソリューションをウェブ上の仲介者によって実践的に推進する技術的円滑化研究に重要な役割を果たす可能性が高い(hwang, 2020: 15)。 0.68
forward and software progression can 前進とソフトウェア 進歩は 0.65
implemented the that be 実施 あの... Be 0.52
of in The above list shows that the main social networks chose to take a more active role in the fight against deepfakes. ですから イン 上記のリストは、主要なソーシャルネットワークがディープフェイクとの戦いにおいて、より積極的な役割を担ったことを示している。
訳抜け防止モード: ですから イン 上記の一覧は、 主要なソーシャルネットワークは ディープフェイクとの戦いにおいて より積極的な役割を担った
0.60
However, others did not, which led Camille François to remark that scrutiny, many platforms who ‘while consider alternative platforms and other designed to host content moderated away from the main platforms carry the risk of creating an entire alternative ecosystem where disinformation and hate can thrive’ (TSPAF, 2020). しかし、他のプラットフォームはそうしなかったため、カミーユ・フランソワは「代替プラットフォームやメインプラットフォームから遠ざけられたコンテンツをホストするように設計されたプラットフォームの多くは、偽情報と憎悪が繁栄する代替エコシステム全体を作るリスクを負っている」(TSPAF, 2020)と述べた。 0.69
Facebook, themselves outside of facebook、自らを外へ 0.86
drawn intense conversation 激しい会話をしました 0.48
have the political and Google 政治的に そしてGoogle 0.75
Twitter, 2.1.1 ツイッター。 2.1.1 0.47
Seeking technological solutions to combat deepfakes ディープフェイク対策の技術的解決策を探る 0.52
To combat fake news, social networks resorted to fact-checking. 偽ニュースと戦うために、ソーシャルネットワークは事実チェックに頼った。 0.60
However, eliminating malicious deepfakes requires – and will increasingly require – the use of AI tools. しかし、悪意のあるディープフェイクを削除するには、AIツールの使用がますます必要になる。 0.56
Research by Ahmed (2020), Farid and Agarwal (Manke, 2019), and Thaw et al (2020) demonstrated that ordinary people had difficulty identifying videos made with deepfake technology. ahmed (2020), farid and agarwal (manke, 2019), thaw et al (2020) による研究は、一般人がdeepfake技術で作ったビデオを特定するのに苦労していることを示した。 0.75
There have been countless efforts to develop effective detection systems (Goled, 2020), but ‘have yet to establish a foolproof method’ (Grossmann, 2020). 効果的な検知システムを開発するための努力は数え切れないほどある(Goled, 2020)が、"まだばかげた防御方法を確立していない"(Grossmann, 2020)。 0.72
‘Factors such as the need to avoid attribution, the time needed to train a Machine Learning model, and the availability of data will constrain how sophisticated actors use tailored deepfakes in practice’, suggested Hwang (2020: iii). 帰属を避ける必要、マシンラーニングモデルのトレーニングに必要な時間、データの提供といった要素は、高度なアクターが実際に仕組まれたディープフェイクをどのように使用するかに制約がある、とhwang氏は主張する(2020年3月)。
訳抜け防止モード: 帰属を避ける必要や機械学習モデルのトレーニングに必要な時間などの要因。 そしてデータの入手は、アクターが実際にどのようにカスタマイズされたディープフェイクを使用するかを制限する。 Hwang (2020 : iii )。
0.65
Furthermore, Du et al (2020) recognized that ‘although lots of efforts have been devoted to detect deepfakes, their performance drops significantly on previously さらに、du et al (2020) は「ディープフェイクの検出に多くの努力が費やされてきたが、パフォーマンスは以前より大幅に低下している。 0.60
英語(論文から抽出)日本語訳スコア
unseen but related manipulations and the detection generalization capability remains a problem’. 目に見えないが関連する操作と検出一般化能力は依然として問題である。 0.55
‘It’s a good thing that the 2020 election wasn’t swarmed by deepfakes, because attempts to automatically detect AI-generated successful. 2020年の選挙はディープフェイク(ディープフェイク)によるものではなく、aiが生成した成功を自動的に検出しようとする試みだった。
訳抜け防止モード: 2020年の選挙がディープフェイクで決まらなかったのは良いことだ。 AIを自動的に検出しようとするため。
0.69
When Facebook winner, to announced in June, missed more than a third of deepfakes in its test collection’ Simonite (2020). 6月に発表されたFacebookの勝者は、テストコレクションのSimonite(2020年)で3分の1以上のディープフェイクを逃した。 0.65
2.2 New laws about deepfakes 2.2 ディープフェイクに関する新しい法律 0.57
video haven’t yet been spot create ビデオはまだスポット作成されていない 0.79
very deepfakes, researchers ディープフェイクだ 研究者 0.52
challenged code the 挑戦 コード はあ? 0.59
to Once again, the lesson of 2016: before deepfakes could be a problem in the 2020 US elections, laws were created to stop them. へ ディープフェイクが2020年のアメリカ合衆国大統領選挙で問題になる前に、それを止めるための法律が制定された。 0.60
Efforts were made to ensure that the laws immediately had a federal dimension, but concrete results actually manifested in two states: California and Texas. 法律が即座に連邦の次元を持つことを保証する努力が行われたが、具体的な結果はカリフォルニア州とテキサス州の2州で現われた。 0.64
California’s case is more relevant, not only due to its stature as the largest state in the United States (and home to many technology companies), but also because two laws were passed that came into effect in early 2020. カリフォルニア州は、米国最大の州(および多くのテクノロジー企業の本拠地)としての地位を保っているだけでなく、2020年初頭に施行された2つの法律が成立しているため、関連性が高い。 0.83
The first law (AB 602) was designed to combat pornographic deepfakes, whilst the second law (AB 730) prohibited the use of deepfakes to influence political campaigns. 第1法(AB 602)はポルノのディープフェイクと戦うように設計され、第2法(AB 730)はディープフェイクの使用を禁止した。 0.59
However, AB730 will lapse on 1 January 2023. しかし、AB730は2023年1月1日に消滅する。 0.57
AB 730 prohibits the distribution of materially deceptive audio or visual media that depicts a candidate for office within 60 days of an election ‘with actual malice’, or the intent to injure the candidate’s reputation or deceive voters into voting for or against the candidate. ab 730は、選挙の60日以内に大統領候補を‘実際の悪意’で描写する物的欺きのオーディオやビジュアルメディアの配布を禁止し、候補者の評判を損ねたり、有権者を騙して候補者に投票したり、反対したりする意図を禁止している。 0.66
‘Significantly, this measure exempts print and online media and websites if that entity clearly discloses that the deepfake video or audio file is inaccurate or of questionable authenticity’ (Halm et al, 2019). deepfakeのビデオやオーディオファイルが不正確であるか、あるいは疑わしい本物であると明確に公表している場合、印刷やオンラインメディアやwebサイトを除外する(halm et al, 2019)。 0.75
Along the way, efforts were made to to create legislation by lawmakers such as Ben Sasse, who introduced what was viewed as the first bill to criminalize the malicious creation and distribution of deepfakes. その過程で、ベン・サッセ(ben sasse)のような議員が、ディープフェイクの悪質な創造と流通を犯罪化する最初の法案を制定する法案を作成する努力が行われた。 0.60
Introduced a day before the government shutdown, the bill flew under the radar and expired when the year ended (Waddell, 2019). 政府が閉鎖する前日、法案はレーダーの下を飛行し、年が終わると期限が切れた(Waddell, 2019)。 0.73
In addition, Representative Yvette Clark introduced the DEEPFAKES Accountability Act in June 2019. さらに、イヴェット・クラーク下院議員は2019年6月にdeepfakes accountability actを導入した。 0.47
‘This bill would make it a crime to create and distribute a deepfake without including a digital marker of the modification and text statement acknowledging the modification’ (Galston, 2020). この法案は、修正を承認する修正文とテキスト文のデジタルマーカーを含むことなく、ディープフェイクを作成し、配布することが犯罪となる(galston, 2020)。 0.67
On 20 December 2019, President Donald Trump signed the United States’ law related to deepfakes. 2019年12月20日、トランプ米大統領はディープフェイクに関する米国法に署名した。 0.68
This legislation was part of the National Defense Authorization Act (NDAA) for Fiscal Year 2020. この法律は、2020年度の国防認可法(NDAA)の一部であった。 0.72
In two provisions related to this emerging technology, the NDAA (1) requires on the foreign report requires a comprehensive the of to government targeting US foreign Congress notify elections; and (3) establishes a ‘Deepfakes Prize’ competition to encourage the research or commercialization of deepfake-detection technologies,’ as explained by Haleet al (2019). この新興技術に関する2つの規定において、NDAA(1)は、米国外国議会に選挙を通知する政府への包括的報告を要求し、(3)Haleet al(2019)で説明されているように、ディープフェイク検出技術の研究開発や商業化を促進するために「ディープフェイク賞」を創設する。 0.62
These measures resulted in the Deepfakes Report Act of 2019.6 Although it is not legislation, we can associate the webpage ‘Rumor vs. Reality’7 sponsored by the Cybersecurity and is part of the Department of Homeland Security, which continued to be active after November 3. これらの措置は、2019.6年のディープフェイクス報告書法(Deepfakes Report Act of 2019.6)となったが、法律ではないが、サイバーセキュリティが後援するWebページ‘Rumor vs. Reality’7を関連づけることができる。 0.61
Or the two programs created by the Defense Advanced Research Projects Agency, improve あるいは防衛高等研究計画局が作成した2つのプログラムを改良する。 0.77
Infrastructure Security Agency to this topic. インフラストラクチャ・セキュリティ・エージェンシーからこのトピックへ。 0.61
The agency weaponization deepfake-disinformat ion 代理店 兵器化 ディープフェイク情報 0.50
(2) activities intended to (2)活動 意図して 0.73
deepfakes; federal ディープフェイク 連邦 0.46
first of 6 https://www.govtrack .us/congress/bills/1 16/hr3600 7 https://www.cisa.gov /rumorcontrol まず ですから 6 https://www.govtrack .us/congress/bills/1 16/hr3600 7 https://www.cisa.gov /rumorcontrol 0.53
英語(論文から抽出)日本語訳スコア
defenses against adversary information operations’, states the Congressional Research Service (Neus, 2020). 敵対的情報運用に対する防衛は、議会調査局(neus, 2020)が定める。 0.69
2.3 ‘Why take the risk?‘ 2.3 ‘なぜリスクを取るのか? 0.77
be significant Be significant 0.77
expense in expense~ イン 0.65
avoid training depicts, at 避ける 訓練 絵や に 0.67
least not how to せめて どうやって へ 0.57
there may Of the four reasons presented in this paper, there is one that, at least in part, does not result from such a concerted but unorganized effort to prevent deepfakes: ‘depending on what the deepfake the acquiring data, structuring it properly, and running the training process’ (Hwang, 2020: 3). かもしれない 本稿で提示された4つの理由のうち、少なくとも部分的には、ディープフェイクを防ごうとする協調的かつ非組織的な努力によるものではない。「ディープフェイクの深層化、適切な構造化、トレーニングプロセスの実行」である(Hwang, 2020: 3)。 0.57
Whilst some who bet on disinformation as a tactic in electoral interference were intimidated by these efforts (either because they feared the consequences Of being caught or that their work would be halted at the source, namely on social networks), others understood that resorting to deepfake technology was not necessary or even possible. 選挙干渉の戦術として偽情報に賭ける者の中には、これらの努力によって脅かされた者もいたが(彼らは、捕まることの結果を恐れたり、彼らの仕事がソーシャルネットワークのソースで停止されることを恐れていた)、ディープフェイク技術へのアプローチは必要ない、あるいは可能ではないと理解した者もいる。
訳抜け防止モード: 選挙干渉の戦術として偽情報に賭ける者 これらの努力に脅迫された(捕えられる結果を恐れたためか) あるいは彼らの仕事は 情報源、すなわちソーシャルネットワークで停止され と理解した者もいた。 ディープフェイク技術は 必要でも不可能でもありませんでした
0.67
the ‘Those who would use deepfakes as part of an online attack have not yet mastered technology, or the to perpetrator’, wrote Gary Grossman (2020). Gary Grossman氏(2020年)によると、”ディープフェイクをオンライン攻撃の一部として使う者は、まだ技術を習得していない。 0.73
However, ‘deepfakes have earned a reputation for unique and deadly precision’ (Simonite, 2020), most still aren’t that good. しかし、“ディープフェイクはユニークで致命的な精度で評価されている(Simonite, 2020)。
訳抜け防止モード: しかし、「ディープフェイクはユニークで致命的な精度で評判を得ている」(Simonite, 2020)。 殆どはまだそんなに良くない。
0.68
‘For a while yet it is likely to be easier to fake reality using conventional video production techniques’ (Simonite, 2020). しばらくの間は、従来のビデオ制作技術を使って、現実を偽装するのがより簡単になるだろう」(simonite, 2020)。 0.76
And if deepfakes haven’t arrived until US Elections 20, ‘it’s not because they aren’t a threat (…). そしてもしディープフェイクが20歳になるまで届いていないなら、それは彼らが脅威ではないからではない(...)。 0.58
It’s because simple deceptions like selective editing or outright lies have worked just fine’ (Mak & Temple-Raston, 2020). それは、選択的な編集や正しい嘘といった単純な誤解がうまくいったからだ(mak & temple-raston, 2020)。 0.70
In other words, because ‘factors such as the need to avoid attribution, the time needed to train a Machine Learning model, and the availability of data will constrain how sophisticated actors use tailored deepfakes in practice’ (Hwang, 2020: iv) or just because ‘people seem to be much more taken with pornographic possibilities than bringing down Governments’ (Boyd, 2020), the truth likely to attract attention from automated filters, while conventional film editing and obvious lies won’t. 言い換えれば、‘帰属を避けるための要素や、機械学習モデルのトレーニングに必要な時間、データの可用性など’は、高度なアクターが実際どのようにカスタマイズされたディープフェイクを使用するかに制約がある’(hwang, 2020: iv)、あるいは‘人々が政府を倒すよりもポルノの可能性に気を取られているように見える’(boyd, 2020)ため、真実は自動フィルターから注目される可能性が高いが、従来の映画編集や明らかな嘘は、そうではない。 0.71
Why take the risk?’ (Brandom, 2019). なぜリスクを取るのか?」(brandom, 2019)。 0.84
‘[u]ploading an algorithmically doctored video アルゴリズムで診断されたビデオを[u]ploadingする 0.69
any breadcrumbs is that the パン粉 それは... 0.41
idea that that would その考えは そうすれば 0.66
lead back lead + back 0.65
is 2.4 Greater social awareness of disinformation は 2.4 偽情報の社会的認識 0.71
Although this may be the least relevant factor, it may be appropriate to highlight what appears to be a greater social awareness of disinformation, especially compared to the period before the 2016 US elections. これは最も関係の薄い要因かもしれないが、特に2016年のアメリカ合衆国大統領選挙前の期間と比較して、偽情報に対する社会的意識が高まることを強調するのは適切かもしれない。 0.60
This change began with universities, which made the topic of disinformation a priority (Katarya et al, 2020). この変更は大学から始まり、偽情報を優先的に扱うようになった(Katarya et al, 2020)。 0.75
In parallel, ‘there is a rising number of newly formed startups claiming to be able to tackle the problem of deepfakes’ (Stacey, 2019). それと並行して、‘deepfakes(ディープフェイク)の問題に対処できると主張する新興スタートアップが増えている’(stacey, 2019)。 0.67
The efforts of the Knight Foundation, a freedom of speech advocate, are also worth noting. 言論の自由擁護団体であるナイト財団の努力も注目に値する。 0.50
The organization awarded $50 million in grants in 2019 to 11 universities and research institutions in the United States to study how technology is transforming democracy (Brunner, 2019). この組織は2019年に、テクノロジーが民主主義をどう変えるかを研究するために、米国の11の大学や研究機関に5000万ドルを寄付した(Brunner, 2019)。 0.64
One of the curious observations about deepfakes affirmation process is that, at different times and in different countries, deepfake technology has been used to denounce the dangers of deepfake technology including the classic deepfake produced in 2018 by comedian Jordan Peele, in which former US President Barack Obama calls Trump as a ‘dipshit’8; the two videos commissioned by British think tank Future Advocacy, in which British Prime Minister Boris Johnson endorses his opponent, Jeremy Corbyn; and another One of the curious observations about deepfakes affirmation process is that, at different times and in different countries, deepfake technology has been used to denounce the dangers of deepfake technology including the classic deepfake produced in 2018 by comedian Jordan Peele, in which former US President Barack Obama calls Trump as a ‘dipshit’8; the two videos commissioned by British think tank Future Advocacy, in which British Prime Minister Boris Johnson endorses his opponent, Jeremy Corbyn; and another 0.85
itself. There are many examples of this, それ自身 これには多くの例がある。 0.73
8 https://www.youtube. com/watch?v=bE1KWpoX9Hk 8 https://www.youtube. com/watch?v=bE1KWpoX9Hk 0.39
英語(論文から抽出)日本語訳スコア
committee and the 委員会 そして はあ? 0.59
Government in American history’, claimed the Election executive Election 政府 アメリカの歴史において,選挙執行役選挙という選挙権 0.73
video in which Corbyn endorses Johnson9; or a pair of deepfake advertisements – perhaps the first serious use of deepfakes in the US political campaign – released by nonpartisan advocacy group RepresentUs featuring Russian President Vladimir Putin and North Korean leader Kim Jong-un, both disseminating the same message: they do not need to interfere with the US elections, because the United States was capable of damaging its democracy on its own.10 ‘Some have even been used as part of a public service campaign to express the importance of saving democracy’ (Grossmann, 2020). video in which Corbyn endorses Johnson9; or a pair of deepfake advertisements – perhaps the first serious use of deepfakes in the US political campaign – released by nonpartisan advocacy group RepresentUs featuring Russian President Vladimir Putin and North Korean leader Kim Jong-un, both disseminating the same message: they do not need to interfere with the US elections, because the United States was capable of damaging its democracy on its own.10 ‘Some have even been used as part of a public service campaign to express the importance of saving democracy’ (Grossmann, 2020). 0.89
Lastly, ‘the fact-checking and journalism ecosystem did better with 2020 disinformation than many had feared after the distortions of 2016’ (Simonite, 2020) (Chaturvedi, 2020) or (Spencer, 2020). 最後に、“ファクトチェックとジャーナリズムのエコシステムは、2016年の歪み(simonite, 2020)や(chaturvedi, 2020)、あるいは(spencer, 2020)以降、多くの人々が恐れていたような、2020年の偽情報よりも優れています。
訳抜け防止モード: 最後に、”the fact - check and journalism ecosystem did better with 2020 disinformation than many had afraids after the strains of 2016” (simonite, 2020) (chaturvedi, 2020)。 あるいは(スペンサー、2020年)。
0.87
3.0 Conclusion ‘The November 3rd election was the most secure Infrastructure Council Coordinating Infrastructure Sector Coordinating Council11. 3. 結論 ‘11月3日の選挙は、インフラストラクチャーセクターのコーディネートコーディネートカウンシル11において、最もセキュアなインフラストラクチャーカウンシルである。 0.46
The question of this paper is not about disinformation in general, since fake news continued to proliferate in the months prior to the elections (Abbasi and Derakhti, 2020; Schick, 2020a: 75). フェイクニュースは選挙前の数ヶ月間(アバシーとデラクティ、2020年、シック、2020a: 75年)も増え続けていたためである。
訳抜け防止モード: 本論文の問題は、一般に偽情報ではない。 偽ニュースが続き proliferate~ 選挙前の数ヶ月(アブバシとデラフティ、2020年、シック、2020a : 75年)。
0.70
Rather, it is about malicious political deepfakes. むしろ、悪質な政治的ディープフェイクだ。 0.63
They appear to have played a minor role in US Elections 2020, which was indicated by the fact that the most-discussed topic in the months before 3 November was a faked video showing former Vice President Joe Biden sticking his tongue out, which was tweeted out by the president himsel (Mak and Temple-Raston, 2020). これは、11月3日以前の数ヶ月で最も議論された話題が、元副大統領のジョー・バイデンが舌を突き出した偽の動画だったという事実が示しており、ヒッセル大統領(マク・テンプル=ラストン、2020年)がツイートした。 0.59
A Investigations detailing the levels, was a dossier at Typhoon more relevant case, on several hypothetical business Joe connections Biden, Biden’s Eventually, journalists denounced the report as being authored by a fake person, ‘the spurious photograph of whom is a realistic avatar created by AI. レベルを詳細に説明した調査は、Typhoonのより関連性の高いケースで、いくつかの仮説上のビジネス上のJoe Connectでは、Biden, Biden’s Ultimateのジャーナリストたちは、このレポートは偽の人物によって書かれたものだ、と非難している。 0.68
The 64-page ‘Martin Aspen’ dossier is a fraudulent project, fraught with slimy intrigue throughout’ (Cunningham, 2020) of From hypersensitivity, which to desinformations and proliferation of deepfakes but also to intervene, preventing it – a measure that they had not taken until the moment when the elections were approaching – and to the creation of laws to prevent what really had not yet happened. 64ページの”martin aspen’ dossier”(マーチン・アスペン・ドシエ)は、過敏性(hypersensitivity)からディープフェイク(deepfake)の偽情報や拡散を防ぐだけでなく、それを防ぐための介入、すなわち選挙が近づいた瞬間まで実施しなかった措置)、そして、まだ起こっていないことを防ぐための法律の作成から生まれた、詐欺的なプロジェクトだ。 0.69
Can we consider warnings made in 2019 and 2020 regarding the use of deepfakes in US elections to be exaggerated or even premature? 米国の選挙におけるディープフェイクの使用について、2019年と2020年に発せられた警告を誇張するか、あるいは時期尚早と考えることができるだろうか。 0.53
Apparently so, but it was this exaggeration that enabled the creation of a climate that helped to nullify the putative effect of deepfakes. どうやらこの誇張は、ディープフェイクの影響を無効化するのに役立った気候の創造を可能にしたのである。 0.57
It was a combination of various factors, as if we faced a (positive) ‘perfect storm’, that made the 2020 elections in the United States the ‘most secure’. これは、米国における2020年の選挙を「最も安全な」ものにした(肯定的な)「完璧な嵐」に直面するような、さまざまな要因の組み合わせだった。 0.71
Some of these factors may have been more relevant than others, as noted by Chesney and Citron, who believed that the content screening and removal policies of social media platforms may have proven to be ‘the most salient response mechanism of all’, as their terms of service agreements are ‘the single most important documents governing digital speech in today’s world’ (Galston, 2020). chesneyとcitronは、ソーシャルメディアプラットフォームのコンテンツのスクリーニングと削除のポリシーは、サービス契約の条件が“今日の世界のデジタルスピーチを統括する唯一の重要な文書”(galston, 2020)であることから、”すべての人たちにとって最も有意義な応答メカニズム”であると証明した。
訳抜け防止モード: これらの要因のいくつかは他の要因よりも関係があったかもしれない。 チェスニーとシトロンは、ソーシャルメディアプラットフォームのコンテンツスクリーニングと削除ポリシーが証明されたかもしれないと信じていた すべてにおいて,最も健全な応答メカニズムである サービス契約の条件は、“今日の世界のデジタルスピーチを管理する唯一の最も重要な文書”である(Galston, 2020)。
0.68
previously social scenario only not 前回までの社会 シナリオだけではありません 0.53
created be much more environment attentive より多く創造され environment‐attentive 0.80
an view, led アン ビュー、led 0.60
the to designed to networks と デザインされた ネットワーク 0.55
our point of 私達 ポイント ですから 0.63
of Hunter Chinese son. ハンターの 中国語 息子よ 0.57
9 https://futureadvoca cy.com/deepfakes/ 10 https://act.represen t.us/sign/deepfake-r elease/ 11 https://www.cisa.gov /news/2020/11/12/joi nt-statement-electio ns-infrastructure-go vernmentcoordinating -council-election 9 https://futureadvoca cy.com/deepfakes/ 10 https://act.represen t.us/sign/deepfake-r elease/11 https://www.cisa.gov /news/2020/11/12/joi nt-statement-electio ns-infrastructure-go vernmentcoordinating -council-election 0.25
英語(論文から抽出)日本語訳スコア
that the threat あれ はあ? threat 0.62
remains’ (2019:44) and remains』 (2019年44月) 0.63
(Simonite, 2020). (Simonite, 2020)。 0.82
However, we followed Paul Barrett, the author of a New York University 2019 report that listed deepfakes first on a list of disinformation predictions for 2020.12 He wrote that ‘the warnings may have worked, convincing would-be deepfake producers that their clips would be quickly unmasked. しかし、ニューヨーク大学2019のレポートの著者であるポール・バレット(Paul Barrett)氏は、2020.12年の偽情報予測リストでディープフェイクを最初に挙げた。
訳抜け防止モード: しかし、私たちは、ニューヨーク大学2019のレポートの著者であるPaul Barrett氏に従いました。 ディープフェイク」は2020年12月の 偽情報予測リストで 彼はそれを書いた。 警告が効いたかもしれない ディープフェイクのプロデューサーは、彼らのクリップはすぐに取り除かれるだろうと説得する。
0.62
But he warns In addition, Paris and Donovan argued that an exclusively technological approach insufficient for addressing the threats of deep and cheap fakes13. さらにパリとドノバンは、ディープで安価な偽13の脅威に対処するには技術的アプローチが不十分だと主張した。 0.67
According to them, any solution must take into account both ‘the history of evidence’ (2019:47). 彼らによると、いかなる解決策も「証拠の歴史」の両方を考慮する必要がある(2019:47)。 0.70
Furthermore, Price stated that ‘there’s a number of different ways that this problem can be tackled, and I don’t think anyone by itself is a solution’ (Roby, 2019). さらに、プライスは、“この問題に取り組むにはさまざまな方法があり、それ自身で誰も解決策とは思いません”と述べた(roby, 2019)。 0.63
We agree with Grossmann there have not been more reason politically motivated malevolent deepfakes designed to stoke oppression, division, and violence is a matter of conjecture’. 我々はグロスマンに同意する 政治的に動機づけられた マレヴォレントなディープフェイクが 抑圧、分裂、暴力を 抑止する為にデザインされた理由はない 0.65
The abovementioned combination of factors resulted in this specific context, but there is no guarantee that the same will be true of the future, in other elections. 上記の要因の組み合わせは、この特定の文脈につながったが、他の選挙でも同様が将来に当てはまるという保証はない。
訳抜け防止モード: 上記の要因の組み合わせは、この特定の文脈を生み出した。 しかし、他の選挙では、同じことが未来に当てはまる保証はありません。
0.70
The public and widespread perception in the United States of the role that disinformation played in this widespread the perception is unlikely to exist, since ‘across most of the world there is minimal commitment to taking on malicious deepfakes’ (Lamb, 2020). アメリカ合衆国における偽情報が広範に広範に作用しているという一般の認識は、「悪質なディープフェイクに取り組むことには最小限のコミットメントがある」(ramb, 2020)ため、その認識は存在し得ない。 0.63
‘social processes that produce truth’ 「真実を生み出す社会プロセス」 0.68
(2020) when he states, elections was (2020年) 選挙は 0.53
important. electoral context, 重要だ 選挙人 文脈 0.56
2016 very In 2016 とても 院 0.68
another the is もう一つ はあ? は 0.53
‘the 3.1 Recommendations 「the」 3.1 勧告 0.67
- Given the challenging nature of policing deepfakes and the fact that they are ‘also the most sophisticated tool of misinformation and disinformation that has existed to date’ (Carruthers, 2020), the following list of recommendations is aimed at helping to address this problem in the future: - - ディープフェイクを捜査することの難しさと「これまで存在した最も洗練された偽情報と偽情報のツールでもある」(carruthers, 2020)という事実を踏まえると、以下の推奨リストは、この問題を解決するのに役立つ。 0.75
Continuing to develop legislation aimed at stopping the creation of malicious deepfakes without affecting freedom of expression. 表現の自由に影響を与えずに悪質なディープフェイクの創造を止めることを目的とした法律の開発を継続する。 0.51
‘Deepfakes have indeed blurred the lines of truth and pushed us towards a post-truth world’ (Raj, 2020). ディープフェイクは真実の線を曖昧にし、われわれをポスト真実の世界へと押し上げた(raj, 2020)。 0.64
Using available systems in the absence of a universal detection and blocking system. 普遍的な検出およびブロッキングシステムがない場合に利用可能なシステムを使用する。 0.75
This would allow to improve the final quality of the best detection software. これにより、最高の検出ソフトウェアの最終品質が向上する。 0.72
‘As the deepfake technology approaches towards generating fake content with considerably improved quality, it will likely become impossible to detect them shortly’ (Katarya and Lal, 2020). ディープフェイク技術は、品質が大幅に向上した偽コンテンツの生成にアプローチしているので、すぐに検出することは不可能になるだろう(katarya and lal, 2020)。 0.63
Continuing to invest in increasingly effective detection and blocking systems. ますます効果的な検出およびブロックシステムへの投資を継続する。 0.68
This will also depend on the level of funding that universities and startups can secure. これはまた、大学やスタートアップが確保できる資金のレベルにも依存する。 0.74
As stated by Nasir Memon, a professor of computer science at NYU, ‘there’s no money to be made out of detecting [fake media], which means that few people are motivated to research ways to detect deepfakes’ (Redick, 2020). nyuのコンピューターサイエンスの教授nasir memonによると、‘フェイクメディアの検出で稼ぐお金はないから、ディープフェイクを検出する方法を研究したいという人は少ない”、という(redick, 2020)。
訳抜け防止モード: nyuのコンピュータサイエンスの教授であるnasir memon氏が述べているように。 'ああ、お金がない' 検出[偽のメディア]から作られる つまり、ディープフェイク(reidick, 2020)を検出する方法を研究する動機のある人はほとんどいないということだ。
0.73
‘Also of particular concern is the use of deep fakes in propaganda and misinformation in regions with fragile governance and underlying ethnic tensions. 「特に懸念されるのは、脆弱な統治と根底にある民族緊張のある地域では、プロパガンダや誤情報に深い偽物を使うことである。 0.53
(…) This highly divisive content spreads quickly because it appeals to emotions’ (Smith and Mansted, 2020). (...)この高度に分裂したコンテンツは、感情に訴えるからだ(smith and mansted, 2020)。 0.76
We must be ‘always be skeptical, regardless of suspicions over AI involvement. AIの関与に関する疑念に関わらず、常に懐疑的でなければならない。 0.59
The truth is most definitely out there… it just might take a little longer to reach than usual’, stated Boyd (2020). 真実は間違いなくそこにある。いつもより少し時間がかかるかもしれない」とボイド(2020年)は述べた。 0.67
This ‘new security measures consistently catch many deepfake images and videos, people may be lulled into a false sense of security and believe we have the この「新しいセキュリティ対策」は、常に多くのディープフェイク画像や動画を捉えており、人々は誤ったセキュリティ感覚に陥り、私たちが持っていると信じているかもしれない。
訳抜け防止モード: この‘新しいセキュリティ対策’は、多くのディープフェイク画像やビデオを継続的にキャッチする。 人々は偽りの安心感に誘惑され 信じています
0.66
important because is more 重要なのは より多く 0.64
- - 12 https://bhr.stern.ny u.edu/tech-disinfo-a nd-2020-election 13 Videos manipulated without resorting to Artificial Intelligence - - 12 https://bhr.stern.ny u.edu/tech-disinfo-a nd-2020-election 13 人工知能に頼らずに操作されたビデオ 0.69
英語(論文から抽出)日本語訳スコア
situation under control’, said Professor Bart Kosko of the Ming Hsieh Department of Electrical and Computer Engineering; University of South California (Paul, 2020). 南カリフォルニア大学 (Paul, 2020) のMing Hsieh Department of Electrical and Computer EngineeringのBart Kosko教授は言う。 0.56
This must avoid at all costs. これはあらゆるコストで避けなければならない。 0.62
In addition, as Schick (2020) anticipated, ‘the question, then, should not be ‘(When) will political visual can mitigate disinformation is already reshaping our political reality?‘ さらに、schick (2020) が予想したように、"その質問は、(いつ)政治的視覚が、既に我々の政治的現実を形変えている偽情報を緩和できるのか? 0.71
the many ways deepfakes いろいろな意味で Deepfakes 0.70
‘How we emerge?’ 「いかにして emerge? 0.55
in which but 3.2 Limitations その中に でも 3.2 制限 0.68
size’, ‘Proof サイズ」。 「証明」 0.64
Threshold: Exploring inadvertently and social しきい値: 探究 不注意にも社会的にも 0.61
later. Naturally, more and better 後で 自然に、より、より良く 0.67
deepfakes? Analyzing 2020/20, ディープフェイク? 2020/20年の分析 0.50
The writing of this paper began shortly after 3 November, the US Election day, and concluded less than three months is information about the situation bound to emerge at a later date. この論文の執筆は、米国の選挙日である11月3日以降に始まり、3ヶ月足らずで終わると結論づけた。
訳抜け防止モード: この論文の執筆は、アメリカ合衆国大統領選挙の日である11月3日に始まった。 そして3ヶ月足らずで締めくくったのは、後日起きるであろう状況に関する情報だ。
0.62
Although it was stated in this paper that there was no knowledge of malicious political deepfakes during the two years prior to the 2020 elections in the United States, it is important to note that several deepfakes were very likely stopped by social network detection algorithms before they could be released and shared – that is, they would have existed if not for these systems, but they were pre-emptively identified and the public never learned of their existence. この論文では、2020年のアメリカ合衆国大統領選挙に先立つ2年間に悪質な政治的ディープフェイクに関する知識が無かったことが述べられているが、いくつかのディープフェイクは、公開され共有される前に、ソーシャルネットワーク検出アルゴリズムによって停止された可能性が非常に高いことに注意する必要がある。
訳抜け防止モード: この論文では、2020年のアメリカ合衆国大統領選挙の2年間、悪意ある政治深層事件に関する知識は存在しなかったと述べている。 重要なのは、いくつかのディープフェイクが、以前、ソーシャルネットワーク検出アルゴリズムによって停止した可能性が高いことです。 解放され 共有され つまり、これらのシステムには存在しなかっただろう。 しかし、彼らは無意識に特定され、大衆は彼らの存在を知ることはなかった。
0.66
4.0 References Abbasi, A., and Derakhti, A., ‘An Exploratory Study on Disinformation and Fake News Associated with the U.S. 2020 Presidential Election’, 2020 shares S., Ahmed, ‘Who cognitive network ability, [https://doi.org/10.1 016/j.tele.2020.1015 08] AMEinfo, How [https://www.ameinfo. com/industry/digital -and-media/proof-thr eshold-exploring-how americans-perceive-d eepfakes] Boyd. 4.0 Abbasi, A. and Derakhti, A., ‘An Exploratory Study on Disinformation and Fake News Associated with the U.S. 2020 Presidential Election’, 2020 share, S., Ahmed, ‘Who Cognitive Network ability, [https://doi.org/10.1 016/j.tele.2020.1015 08] AMEinfo, How [https://www.ameinfo. com/industry/digital -and-media/proof-thr eshold-exploring-how americans-perceive-d eepfakes] Boyd. 0.64
C. in action?’, 2020/10/16 [https://blog.malware bytes.com/cybercrime /2020/10/deepfakes-a nd-the-2020-united-s tateselection-missin g-in-action/] Brandom, 2019/03/05 ‘Deepfake [https://www.theverge .com/2019/3/5/182517 36/deepfake-propagan da-misinformation-tr ollvideo-hoax] Brunner, J., 2019/12/04 right-for-the-rest-o f-the-country-how-uw -and-wsu-plan-to-fig ht-the-digital-deepf akes/] Buo, S. A., ‘2020 The Emerging Threats of Deepfake Attacks and Countermeasures’, 2020/12 [http://dx.doi.org/10 .13140/RG.2.2.23089. 81762] Carruthers, B., 2020/10/26 media--and-what-it-m eans-for-marketers/3 889] Chaturvedi, A., ‘US elections 2020: Facebook India fact checker NewsMobile and UC Berkeley startup 2020/09/30 C. in action?’, 2020/10/16 [https://blog.malware bytes.com/cybercrime /2020/10/deepfakes-a nd-the-2020-united-s tateselection-missin g-in-action/] Brandom, 2019/03/05 ‘Deepfake [https://www.theverge .com/2019/3/5/182517 36/deepfake-propagan da-misinformation-tr ollvideo-hoax] Brunner, J., 2019/12/04 right-for-the-rest-o f-the-country-how-uw -and-wsu-plan-to-fig ht-the-digital-deepf akes/] Buo, S. A., ‘2020 The Emerging Threats of Deepfake Attacks and Countermeasures’, 2020/12 [http://dx.doi.org/10 .13140/RG.2.2.23089. 81762] Carruthers, B., 2020/10/26 media--and-what-it-m eans-for-marketers/3 889] Chaturvedi, A., ‘US elections 2020: Facebook India fact checker NewsMobile and UC Berkeley startup 2020/09/30 0.43
The for marketers’, [https://www.warc.com /newsandopinion/opin ion/the-coming-age-o f-synthetic- the for marketers', [https://www.warc.com /newsandopinion/opin ion/the-coming-age-o f-synthetic- 0.38
‘deepfakes’’, [https://www.seattlet imes.com/seattle-new s/politics/maybe-we- can-get-this- deepfakes’, [https://www.seattlet imes.com/seattle-new s/politics/maybe-we- can-get-this- 0.36
is real? UW and WSU plan to fight digital 本当か? UWとWSU、デジタルと戦う計画 0.74
the 2020 United States election: missing 2020年アメリカ合衆国大統領選挙:落選 0.77
the role of Telematics テレマティクスの役割 0.57
‘Can you tell which face 「どの顔か分かるか?」 0.67
political and interest, Informatics 政治と 興味 情報学 0.71
synthetic media ‘Deepfakes and 合成メディア 「ディープフェイク」 0.59
– and what it means – そして何? 意味は 0.75
coming age of 来なさい 年齢 ですから 0.61
Perceive Deepfakes’, 知覚 Deepfakes’, 0.70
propaganda propaganda 0.85
2020/06/10 2020/06/10 0.39
Americans FakeNetAI アメリカ人 FakeNetAI 0.77
is not a real problem’, は いや あ 本物 問題」。 0.58
social media’, 社会 Media’, 0.77
detect deep R. to 検出 深く R。 へ 0.72
fakes on 偽物 オン 0.65
英語(論文から抽出)日本語訳スコア
on & S., ‘Do オン & S。 「道」 0.68
The Law Review Security’, 法律 レビュー セキュリティ’。 0.59
2019, 107 California 2019, 107 カリフォルニア 0.83
M., ‘Expert says M。 「専門家」 言った 0.55
Knowledge Have Real Effects on 知識 有 実 影響 オン 0.64
Political Attitudes?’, International 政治 態度は? 国際 0.66
(Microtargeted) of microtargeted (複数形 microtargeteds) 0.69
Journal [https://economictime s.indiatimes.com/tec h/internet/us-electi ons-2020-facebook-in dia-factchecker-news mobile-and-uc-berkel ey-startup-fakenetai -to-detect-deep-fake s-on-socialmedia/art icleshow/78386921.cm s?utm_source=contentofinterest&am p;utm_medium=text&utm_c ampaign=cppst] Citron, D. K., and Chesney, R., ‘Deep Fakes: A Looming Challenge for Privacy, Democracy, and National 1753 [https://scholarship. law.bu.edu/faculty_s cholarship/640] Cunningham, P., ‘Fake faces and fake news: ‘Martin Aspen’ dossier on Hunter Biden’s China connection’, 2020/10/30 [http://jinpeili.blog spot.com/2020/10/fak e-faces-and-bald-fac ed-liesbehind.html] Dobber, T., Metoui, N., Trilling, D., Helberger, N., and de Vreese, C., Deepfakes 2020, Press/Politics [https://doi.org/10.1 177/1940161220944364 ] Du, M., Pentyala, S. K., Li, Y., and Hu, X., ‘Towards Generalizable Deepfake Detection with Locality-aware AutoEncoder’, 2020/10, CIKM ‘20: Proceedings of the 29th ACM International Conference Management Information [https://doi.org/10.1 145/3340531.3411892] Fernandez, 2020/09/30 detecting [https://www.axios.co m/deepfakes-technolo gy-misinformation-pr oblem-71bb7f2b-5dc2- 4fbd9b56-01ad430c1a4 e.html] Galtson, W. A., ‘Is seeing still believing? 日誌 [https://economictime s.indiatimes.com/tec h/internet/us-electi ons-2020-facebook-in dia-factchecker-news mobile-and-uc-berkel ey-startup-fakenetai -to-detect-deep-fake s-on-socialmedia/art icleshow/78386921.cm s?utm_source=contentofinterest&am p;utm_medium=text&utm_c ampaign=cppst] Citron, D. K., and Chesney, R., ‘Deep Fakes: A Looming Challenge for Privacy, Democracy, and National 1753 [https://scholarship. law.bu.edu/faculty_s cholarship/640] Cunningham, P., ‘Fake faces and fake news: ‘Martin Aspen’ dossier on Hunter Biden’s China connection’, 2020/10/30 [http://jinpeili.blog spot.com/2020/10/fak e-faces-and-bald-fac ed-liesbehind.html] Dobber, T., Metoui, N., Trilling, D., Helberger, N., and de Vreese, C., Deepfakes 2020, Press/Politics [https://doi.org/10.1 177/1940161220944364 ] Du, M., Pentyala, S. K., Li, Y., and Hu, X., ‘Towards Generalizable Deepfake Detection with Locality-aware AutoEncoder’, 2020/10, CIKM ‘20: Proceedings of the 29th ACM International Conference Management Information [https://doi.org/10.1 145/3340531.3411892] Fernandez, 2020/09/30 detecting [https://www.axios.co m/deepfakes-technolo gy-misinformation-pr oblem-71bb7f2b-5dc2- 4fbd9b56-01ad430c1a4 e.html] Galtson, W. A., ‘Is seeing still believing? 0.63
The deepfake challenge to truth in politics’, 2020/01/08 [https://www.brooking s.edu/research/is-se eing-still-believing -the-deepfake-challe nge-totruth-in-polit ics/] Goled, ‘Top [https://analyticsind iamag.com/top-ai-bas ed-tools-techniques- for-deepfake-detecti on/] Grossman, G., ‘Deepfakes may not have upended the 2020 U.S. election, but their day is coming’, 2020,11/01 [https://venturebeat. com/2020/11/01/deepf akes-may-not-have-up ended-the2020-u-s-el ection-but-their-day -is-coming/] Hale, W., Chipman, J., Ferraro, M. and Preston, S., ‘First Federal Legislation on Deepfakes Signed Into [https://www.jdsupra. com/legalnews/first- federal-legislation- ondeepfakes-42346/] Halm, K.C., Doran, A.K., Segal, J. and Kalinowski IV, Caeser, ‘Two New California Laws Tackle Deepfake 2019/10/14 [https://www.dwt.com/ insights/2019/10/cal ifornia-deepfakes-la w] Hwang, T., Emerging assessment/] Katarya, R., and Lal, A., ‘A Study on Combating Emerging Threat of Deepfake Weaponization’, 2020/10 [https://ieeexplore.i eee.org/document/924 3588] Kumar, rapidly’, is [https://www.analytic sinsight.net/landsca pe-deepfake-content- escalating-rapidly/] The deepfake challenge to truth in politics’, 2020/01/08 [https://www.brooking s.edu/research/is-se eing-still-believing -the-deepfake-challe nge-totruth-in-polit ics/] Goled, ‘Top [https://analyticsind iamag.com/top-ai-bas ed-tools-techniques- for-deepfake-detecti on/] Grossman, G., ‘Deepfakes may not have upended the 2020 U.S. election, but their day is coming’, 2020,11/01 [https://venturebeat. com/2020/11/01/deepf akes-may-not-have-up ended-the2020-u-s-el ection-but-their-day -is-coming/] Hale, W., Chipman, J., Ferraro, M. and Preston, S., ‘First Federal Legislation on Deepfakes Signed Into [https://www.jdsupra. com/legalnews/first- federal-legislation- ondeepfakes-42346/] Halm, K.C., Doran, A.K., Segal, J. and Kalinowski IV, Caeser, ‘Two New California Laws Tackle Deepfake 2019/10/14 [https://www.dwt.com/ insights/2019/10/cal ifornia-deepfakes-la w] Hwang, T., Emerging assessment/] Katarya, R., and Lal, A., ‘A Study on Combating Emerging Threat of Deepfake Weaponization’, 2020/10 [https://ieeexplore.i eee.org/document/924 3588] Kumar, rapidly’, is [https://www.analytic sinsight.net/landsca pe-deepfake-content- escalating-rapidly/]
訳抜け防止モード: 2020/01/08[https://www.brooking s.edu/research/is-se eing- Still-believing-the- deepfake-challenge-t otruth-in-politics/] トップ [ https://analyticsind iamag.com/top-ai-bas ed-tools-techniques- for-deepfake-detecti on/] Grossman, G。 しかし、2020,11/01[https://venturebeat. com/2020/11/01/deepf akes-may-not-have-up ended-the 2020-u-s-election- but-their-day-is-com ing/] W., Chipman, J., Ferraro, M. and Preston, S., ‘ First Federal Legislation on Deepfakes Signed Into [ https://www.jdsupra. com/legalnews/first- federal-legislation- ondeepfakes-42346/ ] Halm, K.C.、ドーラン、A.K.、セガル、J.、カリノフスキー4世。 Caeser, ‘ Two New California Laws Tackle Deepfake 2019/10/14 [ https://www.dwt.com/ insights/2019/10/cal ifornia-deepfakes-la w ] Hwang, T., Emerging Assessment/ ] Katarya, R., and Lal, A. 「ディープフェイクウェポン化の新興脅威に関する研究」 https://www.analytic sinsight.net/landsca pe-deepfake-content- escalating-rapidly/]
0.63
for Security and [https://cset.georget own.edu/research/dee pfakes-a-grounded-th reat- セキュリティと[https://cset.georget own.edu/research/dee pfakes-a-grounded-th reat- 0.37
‘Deepfakes, A Grounded Threat Assessment’, 2020/07, Center Technology 2020/07 センター技術'Deepfakes, a Grounded Threat Assessment' 0.80
impossible’, 2019/12/24 不可能」。 2019/12/24 0.57
2020/09/15 2020/09/15 0.39
2020/11/10 2020/11/10 0.39
Techniques of deepfake 技術 ですから Deepfake 0.67
content escalating so 内容 エスカレート だから 0.61
V., ‘The landscape V。 「The」 風景 0.72
For Deepfake のために ディープフェイク 0.45
AI-Based Tools & AIベース 道具 & 0.71
Detection’, Detection’, 0.85
deepfakes almost Deepfakes ほとんど 0.76
Videos in Law’, ビデオ イン 法律』。 0.64
Politics and Porn’, 政治 そして Porn’, 0.77
英語(論文から抽出)日本語訳スコア
School 2020/10/12 学校 2020/10/12 0.59
‘Researchers From the 「研究者」 来歴 はあ? 0.47
and Engineering Use Facial Quirks 工学的利用は 顔のクイック 0.62
‘Where Are The Deepfakes ディープフェイクはどこ? 0.26
In This Presidential Election?’, [https://www.npr.org/ 2020/10/01/918223033 /where-are-the-deepf akes-in-this- This Presidential Election?’, [https://www.npr.org/ 2020/10/01/918223033 /where-are-the-deepf akes-in-This] 0.37
Lamb, H., ‘Sex, coups, and the liar’s dividend: what are deepfakes doing to us?’, 2020/04/08 [https://eandt.theiet .org/content/article s/2020/04/sex-coups- and-the-liar-s-divid end-whatare-deepfake s-doing-to-us/] Mak, T. and Temple-Raston, T., 2020/10/01 presidential-electio n?t=1609249908361] Manke, K., I to Unmask ‘Deepfakes’’, 2019/06/18 [https://www.ischool. berkeley.edu/news/20 19/researchers-i-sch ooland-engineering-u se-facial-quirks-unm ask-deepfakes] Neus, E., ‘Election Results Remained Secure Under Barrage of Disinformation, Altered Video’, 2020/11/18 [https://fedtechmagaz ine.com/article/2020 /11/election-results -remained-secureunde r-barrage-disinforma tion-altered-video] Panetta, F., Amer, P., and Harrell, D. F., ‘We made a realistic deepfake, and here’s why we’re worried’, [https://www.bostongl obe.com/2020/10/12/o pinion/july-we-relea seddeepfake-mit-with in-weeks-it-reached- nearly-million-peopl e/] Paris, B. and Donovan, J., ‘Deepfakes and Cheap Fakes: The Manipulation of Audio and Visual Evidence’, 2019/09/18 [https://datasociety. net/library/deepfake s-and-cheap-fakes/] Patton, A., ‘Panelist at Information Technology and Innovation Foundation Event Say Deepfakes Are a Double-Edged Sword’, 2020/03/23 [http://broadbandbrea kfast.com/2020/03/pa nelist-atinformation -technology-and-inno vation-foundation-ev ent-say-deepfakes-ar e-a-double-edgedswor d/] Paul, Detectors’, [https://viterbischoo l.usc.edu/news/2020/ 05/fooling-deepfake- detectors/] Pichai, regulate [https://www.ft.com/c ontent/3467659a-386d -11ea-ac3c-f68c10993 b04] Polakovic, G., ‘From deepfakes to fake news, an array of influences aim to shape voter decisions’, 2020/09/23 [https://phys.org/new s/2020-09-deepfakes- fake-news-array-aim. html] Porup, 2019/04/10 risk’, [https://www.csoonlin e.com/article/329300 2/deepfake-videos-ho w-and-why-they-work. html] Puutio, A., Timis, A., ‘Deepfake democracy: Here’s how modern elections could be decided by fake [https://www.weforum. org/agenda/2020/10/d eepfake-democracycou ld-modern-elections- fall-prey-to-fiction /] Raj, Y., [https://www.jurist.o rg/commentary/2020/0 6/yash-raj-deepfakes /] Redick, N., ‘What the Rise of Deepfakes Means for the Future of Internet Policies’, 2020/11/19 [https://www.mironlin e.ca/what-the-rise-o f-deepfakes-means-fo r-the-future-of-inte rnetpolicies/] Roby, K., [https://www.techrepu blic.com/article/the -sinister-timing-of- deepfakes-and-the-20 20election/] Lamb, H., ‘Sex, coups, and the liar’s dividend: what are deepfakes doing to us?’, 2020/04/08 [https://eandt.theiet .org/content/article s/2020/04/sex-coups- and-the-liar-s-divid end-whatare-deepfake s-doing-to-us/] Mak, T. and Temple-Raston, T., 2020/10/01 presidential-electio n?t=1609249908361] Manke, K., I to Unmask ‘Deepfakes’’, 2019/06/18 [https://www.ischool. berkeley.edu/news/20 19/researchers-i-sch ooland-engineering-u se-facial-quirks-unm ask-deepfakes] Neus, E., ‘Election Results Remained Secure Under Barrage of Disinformation, Altered Video’, 2020/11/18 [https://fedtechmagaz ine.com/article/2020 /11/election-results -remained-secureunde r-barrage-disinforma tion-altered-video] Panetta, F., Amer, P., and Harrell, D. F., ‘We made a realistic deepfake, and here’s why we’re worried’, [https://www.bostongl obe.com/2020/10/12/o pinion/july-we-relea seddeepfake-mit-with in-weeks-it-reached- nearly-million-peopl e/] Paris, B. and Donovan, J., ‘Deepfakes and Cheap Fakes: The Manipulation of Audio and Visual Evidence’, 2019/09/18 [https://datasociety. net/library/deepfake s-and-cheap-fakes/] Patton, A., ‘Panelist at Information Technology and Innovation Foundation Event Say Deepfakes Are a Double-Edged Sword’, 2020/03/23 [http://broadbandbrea kfast.com/2020/03/pa nelist-atinformation -technology-and-inno vation-foundation-ev ent-say-deepfakes-ar e-a-double-edgedswor d/] Paul, Detectors’, [https://viterbischoo l.usc.edu/news/2020/ 05/fooling-deepfake- detectors/] Pichai, regulate [https://www.ft.com/c ontent/3467659a-386d -11ea-ac3c-f68c10993 b04] Polakovic, G., ‘From deepfakes to fake news, an array of influences aim to shape voter decisions’, 2020/09/23 [https://phys.org/new s/2020-09-deepfakes- fake-news-array-aim. html] Porup, 2019/04/10 risk’, [https://www.csoonlin e.com/article/329300 2/deepfake-videos-ho w-and-why-they-work. html] Puutio, A., Timis, A., ‘Deepfake democracy: Here’s how modern elections could be decided by fake [https://www.weforum. org/agenda/2020/10/d eepfake-democracycou ld-modern-elections- fall-prey-to-fiction /] Raj, Y., [https://www.jurist.o rg/commentary/2020/0 6/yash-raj-deepfakes /] Redick, N., ‘What the Rise of Deepfakes Means for the Future of Internet Policies’, 2020/11/19 [https://www.mironlin e.ca/what-the-rise-o f-deepfakes-means-fo r-the-future-of-inte rnetpolicies/] Roby, K., [https://www.techrepu blic.com/article/the -sinister-timing-of- deepfakes-and-the-20 20election/] 0.50
‘Obscuring the Lines of Truth: The Alarming 真実の線を吸収する―「アラーム」 0.57
Implications of Deepfakes’, 2020/06/17 Deepfakes', 2020/06/17の意義 0.69
videos work — and why ビデオは機能する。 なぜ 0.42
deepfake and what Deepfake そして何? 0.71
is J. M., ‘How は J.M.。 「どう」 0.69
news’, 2020/10/05 News’, 2020/10/05 0.59
deepfakes and Deepfakes そして 0.74
2020/01/20 2020/01/20 0.39
the 2020 election’, はあ? 2020 選挙」。 0.61
2020/05/04 2020/05/04 0.39
‘The sinister 「The」 sinister 0.80
timing of タイミング ですから 0.62
2019/11/28 2019/11/28 0.39
Deepfake ‘Fooling ディープフェイク 「食」 0.43
AI’, at B., S., AI’。 に B。 S。 0.73
‘Why Google 「なぜ」 Google 0.80
thinks we need 考えろ 私たち 必要 0.68
to 0.63
英語(論文から抽出)日本語訳スコア
the Threat to T., はあ? 脅威 へ T。 0.61
S. H., N., ‘Don’t S.H。 N。 Don't ♪ 0.67
H., and Mansted, H。 そして マンステッド 0.60
K., cheapfake’, K。 cheapfake (複数形 cheapfakes) 0.56
2020/04/29 2020/04/29 0.39
2020/11/16 2020/11/16 0.39
2020/12/22 2020/12/22 0.39
Happened to the 起こった へ はあ? 0.55
Election?’, the Deepfake 選挙? はあ? ディープフェイク 0.37
Edited to Make Him Appear 編集 to be emear―to beear 0.59
‘Lost’’, Lost’, ‘Lost’ 0.92
2020/08/07 2020/08/07 0.39
‘Weaponised 「Weaponized」 0.76
underestimate ‘Biden Video Deceptively 過小評価 Biden Video Deceptively 0.45
Schick, N., Deepfakes and Infocaplypse, 2020a, London: Monoray Schick, [https://www.technolo gyreview.com/2020/12 /22/1015442/cheapfak es-more-politicaldam age-2020-election-th an-deepfakes/] Shead, S., ‘Facebook Claims A.I. Schick, N., Deepfakes and Infocaplypse, 2020a, London: Monoray Schick, [https://www.technolo gyreview.com/2020/12 /22/1015442/cheapfak es-more-politicaldam age-2020-election-th an-deepfakes/] Shead, S., ‘Facebook Claims A.I。 0.58
Now Detects 94.7% of the Hate Speech That Gets Removed From Its Platform’, 2020/11/19 [https://www.nbcdfw.c om/news/business/mon ey-report/facebookcl aims-a-i-now-detects -94-7-of-the-hate-sp eech-that-gets-remov ed-from-itsplatform/ 2484885/] Simonite, ‘What [https://www.wired.co m/story/what-happene d-deepfake-threat-el ection/] Smith, deepfakes’, [https://www.aspi.org .au/report/weaponise d-deep-fakes] Spencer, [https://www.factchec k.org/2020/08/biden- video-deceptively-ed ited-to-make-him-app earlost/] Sprangler, T., ‘What will U.S. do to combat deepfakes? Now Detects 94.7% of the Hate Speech That Gets Removed From Its Platform’, 2020/11/19 [https://www.nbcdfw.c om/news/business/mon ey-report/facebookcl aims-a-i-now-detects -94-7-of-the-hate-sp eech-that-gets-remov ed-from-itsplatform/ 2484885/] Simonite, ‘What [https://www.wired.co m/story/what-happene d-deepfake-threat-el ection/] Smith, deepfakes’, [https://www.aspi.org .au/report/weaponise d-deep-fakes] Spencer, [https://www.factchec k.org/2020/08/biden- video-deceptively-ed ited-to-make-him-app earlost/] Sprangler, T., ‘What will U.S. do to combat deepfakes? 0.41
Michigan members of Congress want to know’2019/12/24 [https://eu.freep.com /story/news/local/mi chigan/2019/12/24/de epfakesmichigan-memb ers-of-congress-addr ess-threat/267922200 1/] Siyech, M. S., ‘From US elections to violence in India, the threat of deepfakes is only growing’, 2020/09/29 [https://www.scmp.com /comment/opinion/art icle/3103331/us-elec tionsviolence-india- threat-deepfakes-onl y-growing] The Sciences Po American Foundation, [https://www.sciences po.fr/us-foundation/ node/805.html] Stacey, Threat [https://www.forbes.c om/sites/edstacey/20 19/10/28/can-startup s-solve-the-threat-o fdeepfakes/?sh=34abcac825c0] Thaw, N., July, T., Wai, A. N., Goh, D. H-L., and Chua, A. Michigan members of Congress want to know’2019/12/24 [https://eu.freep.com /story/news/local/mi chigan/2019/12/24/de epfakesmichigan-memb ers-of-congress-addr ess-threat/267922200 1/] Siyech, M. S., ‘From US elections to violence in India, the threat of deepfakes is only growing’, 2020/09/29 [https://www.scmp.com /comment/opinion/art icle/3103331/us-elec tionsviolence-india- threat-deepfakes-onl y-growing] The Sciences Po American Foundation, [https://www.sciences po.fr/us-foundation/ node/805.html] Stacey, Threat [https://www.forbes.c om/sites/edstacey/20 19/10/28/can-startup s-solve-the-threat-o fdeepfakes/?sh=34abcac825c0] Thaw, N., July, T., Wai, A. N., Goh, D. H-L., and Chua, A. 0.48
Y.K., ‘Is it real? Y.K.、それは本物か? 0.47
A study on detecting deepfake videos’, 2020/10/22, Proceedings of Information Science and Technology [https://doi.org/10.1 002/pra2.366] Toews, R., ‘Deepfakes Are Going To Wreak Havoc On Society. ディープフェイクビデオの検出に関する研究 : 2020/10/22, Proceedings of Information Science and Technology [https://doi.org/10.1 002/pra2.366] Toews, R., ‘Deepfakes Are Going to Wreak Havoc On Society. 0.72
We Are Not Prepared’, 2020, 05/25 [https://www.forbes.c om/sites/robtoews/20 20/05/25/deepfakes-a re-going-to-wreak-ha vocon-society-we-are -not-prepared/?sh=9192fd874940] Waddell, into [https://www.axios.co m/deepfake-laws-fb5d e200-1bfe-4aaf-9c93- 19c0ba16d744.html] Wolfgang, B., ‘Putin developing fake videos to foment 2020 election chaos: ‘It’s going to destroy lives’’, [https://www.washingt ontimes.com/news/201 8/dec/2/vladimir-put insdeep-fakes-threat en-us-elections/] (All hyperlinks used in this work were verified and confirmed as valid to 2020/12/31) We Are Not Prepared’, 2020, 05/25 [https://www.forbes.c om/sites/robtoews/20 20/05/25/deepfakes-a re-going-to-wreak-ha vocon-society-we-are -not-prepared/?sh=9192fd874940] Waddell, into [https://www.axios.co m/deepfake-laws-fb5d e200-1bfe-4aaf-9c93- 19c0ba16d744.html] Wolfgang, B., ‘Putin developing fake videos to foment 2020 election chaos: ‘It’s going to destroy lives’’, [https://www.washingt ontimes.com/news/201 8/dec/2/vladimir-put insdeep-fakes-threat en-us-elections/] (All hyperlinks used in this work were verified and confirmed as valid to 2020/12/31) 0.47
‘The 2020 election and disinformation’, 2020/12/03 2020年の選挙と偽情報」2020/12/03 0.72
the Association for Deepfakes?’, 協会 ですから Deepfakes? 0.50
‘Lawmakers 2108/12/02 「法律家」 2108/12/02 0.44
E., ‘Can Startups E。 「CAN」 スタートアップ 0.68
Solve The ‘deepfake’ 解法 deepfake (複数形 deepfakes) 0.41
war’, 2019/01/31 戦争」。 2019/01/31 0.41
Of 2019,10/28 - 2019,10/28 0.45
K., plunge K。 急降下 0.53
                           ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。