論文の概要、ライセンス

# (参考訳) 議論トポロジーに関する一考察:未解決問題としての円性とシルロジズム [全文訳有]

A Note on Argumentative Topology: Circularity and Syllogisms as Unsolved Problems ( http://arxiv.org/abs/2102.03874v1 )

ライセンス: CC BY 4.0
Wlodek W. Zadrozny(参考訳) ここ数年、トポロジカルなデータ分析をテキスト、特に自然言語の推論に適用しようとする試みがいくつかあった。 Tymochko et al.による最近の作品。 動的システムから派生した手法である「トポロジカル遅延埋め込み」を単語埋め込みに適用し、「テキストにおける論理形状の概念」を捕捉する可能性を示唆する。 本稿では,それらの議論を再構築し,古い例と新しい例を用いて,論理,トポロジー,テキストをつなぐ問題はいまだに未解決であることを示す。 私たちは、この質問に明確な答えがないと結論付けます:「円は円形の引数で見つけることができますか? 我々は探査のいくつかの可能な手段を指摘します。 実験で使われたコードも示しています。

In the last couple of years there were a few attempts to apply topological data analysis to text, and in particular to natural language inference. A recent work by Tymochko et al. suggests the possibility of capturing `the notion of logical shape in text,' using `topological delay embeddings,' a technique derived from dynamical systems, applied to word embeddings. In this note we reconstruct their argument and show, using several old and new examples, that the problem of connecting logic, topology and text is still very much unsolved. We conclude that there is no clear answer to the question: ``Can we find a circle in a circular argument?'' We point out some possible avenues of exploration. The code used in our experiment is also shown.
公開日: Sun, 7 Feb 2021 18:30:37 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
1 2 0 2 b e F 7 1 2 0 2 b e F 7 0.85
] I A . s c [ 【私】 A! sc [ 0.59
1 v 4 7 8 3 0 1 v 4 7 8 3 0 0.85
. 2 0 1 2 : v i X r a . 2 0 1 2 : v i X r a 0.85
A Note on Argumentative Topology: Circularity and Syllogisms as 議論的トポロジーに関する一考察:循環性とサイロジズム 0.65
Unsolved Problems Wlodek W. Zadrozny1,2, 未解決問題 Wlodek W. Zadrozny1,2 0.72
wzadrozn@uncc.edu wzadrozn@uncc.edu 0.78
1 College of Computing, University of North Carolina at Charlotte 2 School of Data Science, University of North Carolina at Charlotte 1 college of computing, university of north carolina at charlotte 2 school of data science, university of north carolina at charlotte (英語) 0.88
January 05-25, 2021 2021年1月05日-25日 0.49
Abstract In the last couple of years there were a few attempts to apply topological data analysis to text, and in particular to natural language inference. 概要 ここ数年、トポロジカルなデータ分析をテキスト、特に自然言語の推論に適用しようとする試みがいくつかあった。 0.54
A recent work by Tymochko et al. Tymochko et al.による最近の作品。 0.82
suggests the possibility of capturing ‘the notion of logical shape in text,’ using ‘topological delay embeddings,’ a technique derived from dynamical systems, applied to word embeddings. 動的システムから派生した手法である「トポロジカル遅延埋め込み」を単語埋め込みに適用し、「テキストにおける論理形状の概念」を捉える可能性を示唆しています。 0.82
In this note we reconstruct their argument and show, using several old and new examples, that the problem of connecting logic, topology and text is still very much unsolved. 本稿では,それらの議論を再構築し,古い例と新しい例を用いて,論理,トポロジー,テキストをつなぐ問題はいまだに未解決であることを示す。 0.81
We conclude that there is no clear answer to the question: “Can we find a circle in a circular argument?” We point out some possible avenues of exploration. 我々は、この疑問に対する明確な答えがないと結論づけた:「円の議論の中で円を見つけることはできるのか? 0.61
The code used in our experiment is also shown. 実験で使われたコードも示しています。 0.81
1 Introduction This note describes our attempt to reconstruct the recent work by Tymochko et al. はじめに 本稿では,Tymochkoらによる最近の作品の再構築の試みについて述べる。 0.59
[12], suggesting the possibility of capturing ‘the notion of logical shape in text,’ using ‘topological delay embeddings,’ a technique derived from dynamical systems, and applied to word embeddings. [12] 動的システムから派生した手法である「トポロジカル遅延埋め込み」を用いて「テキストにおける論理的形状の概念」を捉える可能性を示唆し, 単語埋め込みに適用した。 0.88
The authors argue that using topological techniques it might be possible to “find a circle in a circular argument?” 著者らは、トポロジカル手法を用いることで「円形の議論で円を固定することは可能か?」と論じている。 0.64
The authors say [12]: 著者は [12] と言います 0.66
We were originally motivated by the question “Why do we call a circular argument ‘circular’ ?” A circular argument is one that logically loops back on itself. 私たちはもともと、「なぜ循環引数を「循環」と呼ぶのか?」という質問に動機づけられていました。循環引数は、論理的に自分自身をループバックするものです。
訳抜け防止モード: 私たちはもともと、「なぜ円形の議論を「円形」と呼ぶのですか? 円形の引数は、論理的に自分自身をループバックするものです。
0.77
This intuitive definition of why the argument is circular actually has an analogous and mathematically precise definition from a topological perspective. この議論が円である理由の直感的な定義は、位相的観点からの類似的かつ数学的に正確な定義を持つ。 0.64
Topology is the mathematical notion of shape and a topological circle can be abstractly defined as any shape which starts and loops back on itself (i.e. トポロジーは形状の数学的概念であり、位相円は抽象的に自身で始まり、ループする形として定義することができる。 0.74
a circle, a square, and a triangle are all topologically a circle). 円、正方形、三角形はすべて位相的に円である) 0.65
This an interesting problem, and to address it, the cited work uses a new technique of Topological Word Embeddings (TWE). これは興味深い問題であり、それに対処するために、引用された作品はトポロジカルワード埋め込み(TWE)の新しい技術を使用しています。 0.59
The method combines topological data analysis (TDA) with mathematical techniques in dynamical systems, namely time-delayed embeddings. この手法は、トポロジカルデータ分析(TDA)と力学系の数学的手法、すなわち時間遅延埋め込みを組み合わせる。 0.71
The cited article suggests a positive answer to the motivating question. 引用された記事は動機づけの質問への肯定的な答えを示唆している。 0.51
However, in this note, we argue, using similar examples, that the process of finding circularity using TDA might be more complicated. しかし,本論文では,同様の例を用いて,TDAを用いた円度発見のプロセスがより複雑である可能性について論じる。 0.73
We describe our attempt, after reconstructing the TWE method, in applying it to circular and non-circular examples. 本稿では,twe法を再構成した後,円形および非円形の例に適用する試みについて述べる。 0.63
We observe that the method often fails to distinguish the two cases. この方法はしばしば2つの事例を区別できないことが観察された。 0.61
Thus, while in the cited work [12] and elsewhere [8] , we have some したがって、引用された作品[12]と他の作品[8]では、いくつかがあります。 0.56
1 1 0.85
英語(論文から抽出)日本語訳スコア
interesting examples connecting topological data analysis and inference, the problem of connecting reasoning with topological data analysis is, in our opinion, still open. トポロジカルデータ解析と推論を結びつける興味深い例は、推論とトポロジカルデータ解析を結びつける問題は、我々の意見では、まだオープンである。 0.69
This note is organized as follows. このメモは以下のように整理されます。 0.54
We dispense with the preliminaries, and instead we refer the reader who is not familiar with topological data analysis to the original article [12] for the TDA background and the description of the experiment which motivated this reconstruction and extension. そこで,本論文では,tdaの背景としてトポロジカルデータ解析に精通していない読者について,tdaの背景について [12] と,この再構築と拡張の動機となった実験について述べる。 0.73
Similarly, since word embeddings are a standard natural language representation technique, we only need to mention that it consists in replacing words (or terms) by 50 to 1000 dimensional vectors, which have been proven to capture e.g. 同様に、単語埋め込みは標準的な自然言語表現技法であるので、単語(または用語)を50から1000次元のベクトルに置き換えることから成り立っていることにのみ言及する必要がある。 0.78
words similarities. Again we refer the reader to the standard sources e.g. 言葉の類似性です 読者は、例えば標準ソースを参照してください。 0.61
[5, 6]. Finally, we make no attempt to put this note into a broader context of TDA-based research, and we provide only a bare minimum of references. [5, 6]. 最後に、我々はこのメモをtdaベースの研究のより広い文脈に組み込もうとはせず、最小限の参照しか提供しません。 0.72
In Section 2 we briefly describe the method, as well as the software and settings used in our experiment. 第2節では、本手法と、本実験で使用したソフトウェアと設定を簡潔に記述する。 0.69
Section 3 is all about examples showing the instability of the TWE method; that is a slight change in parameters results in markedly different persistence diagram. セクション3は、TWEメソッドの不安定性を示す例に関するものです。これは、パラメータのわずかな変更であり、著しく異なる永続化ダイアグラムになります。 0.58
We finish, in Section 4, with a discussion and propose some avenues of research on connecting TDA and inference. 第4節では議論を行い、TDAと推論の接続に関するいくつかの研究方法を提案する。 0.75
The Appendix has the code we used for these experiments. Appendixには、これらの実験に使用したコードがあります。 0.66
2 Method and software used in the experiment 実験に用いる2つの方法とソフトウェア 0.85
The purpose of out experiment was to see whether circularity of arguments corresponds to the presence of loops in a representation of the sentences in the arguments as reported in [12]. 実験の目的は、引数の円環性が[12]に報告されているように、引数の文の表現におけるループの存在に対応するかどうかを確認することでした。 0.72
Briefly, the representation to which TDA is applied is created by the following steps: 簡単に言えば、TDAが適用される表現は以下のステップによって作成されます。 0.60
1. The words in the sentences are replaced by their embedding vectors 1. 文中の単語は埋め込みベクトルに置き換えられます。 0.76
2. Since the words occur in a sequence, the embedding vectors can be viewed as a 2. 単語は連続して起こるので、埋め込みベクトルはaとして見ることができる 0.80
series of vectors. 3. 一連のベクトル。 3. 0.74
To get a one-dimensional time series we compute the dot product of each vector 1次元の時系列を得るために、各ベクトルの点積を計算する 0.77
with a random vector of the same dimension. 同じ次元のランダムなベクトルを使っています 0.76
4. This time series is then processed using a time delay embedding method 4. この時系列は、時間遅延埋め込み法を用いて処理される 0.86
5. Finally, the TDA is applied and the persistence computed and displayed. 5. 最後に、TDAを適用し、永続化を計算して表示する。 0.74
These are exactly the steps in Fig. これらはまさに図のステップです。 0.71
1 in [12]. 1 in [12]。 0.65
However, we need to clarify some aspects of our experiment, since the original paper does not mention certain details. しかし,本論文では詳細について言及していないため,実験のいくつかの側面を明らかにする必要がある。 0.61
The following list refers to the steps above: 以下の一覧は、以下のステップを示す。 0.79
1. We used 50, 100, 200 and 300 dimensional Glove embedding vectors [6]. 1. 我々は50,100,200,300次元グローブ埋め込みベクトル [6] を用いた。 0.84
Glove vectors were also used in [12]. 手袋 ベクターは[12]にも使われました 0.68
2. (nothing to add here) 2. (ここでは加えない) 0.82
3. We used the numpy dot product, and random seed of 42 in most experiments, but we also used the seeds of 1, 2 and 3 (to show that changing the seed changes the persistence diagrams. 3. 実験はほとんどの場合, マンピードット生成物と42個のランダムシードを用いたが, 1, 2, 3 の種子も使用した(種子の変化が持続図を変えることを示すため)。 0.83
4. We used the function takensEmbedding from the public repository available on 4. 私たちは、公開リポジトリから takesEmbedding という関数を使いました。 0.73
Kaggle (https://www.kaggle. com/tigurius/introdu ction-to-taken-s-emb edding) It implements the Takens time delay embedding method [10]. Kaggle (https://www.kaggle. com/tigurius/introdu ction-to-taken-s-emb edding) Takens time delay embedding method [10]を実装している。 0.51
However, we did not investigate the optimal parameters, and instead we used the time delay of 2, and dimension 2, as in the original paper. しかし、我々は最適なパラメータを調査せず、代わりに元の論文のように2と2の時間の遅延を使用しました。 0.74
The cited Kaggle code allows us to search for optimal parameters, and we intend to use it in further experiments. 引用したKaggleコードは最適なパラメータを探索することができ、さらなる実験に使用するつもりです。 0.70
In this note, we also looked into into (2,3) 本稿では(2,3)についても考察する。 0.68
2 2 0.85
英語(論文から抽出)日本語訳スコア
and (3,2) as time delay and dimension of Takens embeddings, and observed such changes can significantly impact the patterns shown in persistence diagrams. そして、Takenの埋め込みの時間遅延と寸法として(3,2)、そのような変化は永続性図に示すパターンに大きく影響する。
訳抜け防止モード: そして(3,2)はTakens埋め込みの時間遅延と寸法である。 このような変化は永続性図に示すパターンに大きく影響します。
0.71
5. For TDA and persistence we used the Python version (0.6) https://ripser.sciki t-tda. 5. TDAと永続性のために、Pythonバージョン(0.6) https://ripser.sciki t-tdaを使用しました。 0.70
org/en/latest/ of Ripser [11]. org/en/latest/ of Ripser [11] 0.72
3 Examples of circular and not circular reasoning 循環的・非循環的推論の3例 0.62
In this section we first look at persistence diagram for circular reasoning. この節では、まず円形推論の永続化図を考察します。 0.62
We compare them with examples with very similar words and structures which are not circular. 非常に類似した単語や構造が円形ではない例と比較する。 0.76
Then we perform the same exercise for syllogisms. それから私達はsyllogismsのための同じ練習を行います。 0.60
We use two examples are from the cited paper. 引用した論文から2つの例を挙げる。 0.74
The other ones are ours, and are intended to test the influence of changes in vocabulary, paraphrase, and patterns of reasoning. 他のものは我々のもので、語彙、言い換え、推論のパターンの変化の影響をテストすることを意図している。 0.74
• Circular ([12]): “There is no way they can win because they do not have enough support. •円([12]): 「十分な支持がないので勝てるわけがない。 0.52
They do not have enough support because there is no way they can win.” 彼らには十分な支持がないのは、彼らが勝つ方法がないからです。 0.71
• Circular (ours, word substitution to the previous one): “There is no way for the crew to win because the crew does not have good rowers. • 円(前者の言葉に代わる):「乗組員が良い手rowぎ手を持っていないので、乗組員が勝つ方法はない。 0.60
The crew does not have good rowers because there is no way for the crew to win.” 乗組員が勝つ方法がないので、乗組員は良い手rownerを持っていません。 0.48
• Circular (ours, modified paraphrase of the above ): “The Russian crew must lose because the coach did not hire Siberian rowers. ロシアの乗組員は、コーチがシベリアのローダーを雇わなかったので、負けなければなりません。 0.42
The team did not enlist the good Siberian rowers because there is no way for the Russian crew to win.” チームは、ロシア人乗組員が勝つ方法がないため、優れたシベリア人ロウワーズに入隊しなかった。 0.74
• Non-circular ([12]): “There is no way they can win if they do not have enough support. •non-circular ([12]): “十分なサポートがなければ勝てるわけがない。 0.57
They do not have enough support, so there is no way they can win.” 彼ら 十分な支持がないので、勝てるわけがない」と述べた。 0.69
• Non-circular (ours): ”No way the anarchists can lose the primary elections if they have enough support. ・非円形(船): 十分な支持があれば、無政府主義者は予備選挙に負けることはできない。 0.65
The anarchists have strong support, so there is no way they can lose the primaries.” アナーキストは強い支持を持っているので、予備選挙を失うわけにはいかない」と述べた。 0.52
• Inductive reasoning (ours): “Gold is going up. 帰納的推論(ours):「金は上昇している。 0.57
Platinum is also going up. プラチナも上がっています。 0.60
We should buy all metals, including copper and silver.” すべてを買うべきだ 銅と銀を含む金属」。 0.77
• Syllogism (ours): “Every animal is created by evolution. •Syllogism(私たち):「すべての動物は進化によって作成されます。 0.69
The lion is an animal. ライオンは動物です。 0.62
The lion is created by evolution.” ライオンは 進化によって創造される。 0.56
• Absurd (random text, [12]): “The body may perhaps compensates for the loss of a true metaphysics. ・Absurd(ランダムテキスト、[12]):「身体はおそらく、真のメタ物理の喪失を補うかもしれない。 0.63
Yeah, I think it’s a good environment for learning English. ええ、それは英語を学ぶのに良い環境だと思います。 0.85
Wednesday is hump day, but has anyone asked the camel...” 水曜日はハンプの日だが、だれかがラクダに尋ねたことがある。 0.46
Not only do we fail to detect any particular correlation between circularity and persistence, but we also see that persistence, for the same sentences, looks very differently for 50, 100, 200 and 300–dimensional Glove vectors. 円と持続性の間の特定の相関を検出できないだけでなく、同じ文に対して50, 100, 200, 300次元のグローブベクトルに対して、永続性は極めて異なるように見える。 0.73
In addition, we see the same the patterns for valid reasoning (e.g. さらに、正当な推論のパターン(例えば、同じパターン)も見られます。 0.76
syllogism) and for inductive reasoning. syllogism)と帰納的推論(inductive reasoning)。 0.68
Inductive reasoning usually is not logically valid, although depending on the context might be plausible. 帰納的推論は通常論理的には有効ではないが、文脈によっては妥当である。 0.59
We might have seen some influence of less frequent words on the persistence diagrams, but we are not sure. パーシステンスダイアグラムにあまり頻繁でない単語の影響はあったかも知れませんが、定かではありません。 0.53
And contrary to [12], we see that the absurd, random text cited above can exhibit pretty much そして[12]とは対照的に、上述のばかばかでランダムなテキストは、かなりよく表れる。 0.66
any pattern of persistence, depending on the parameters used to find the persistent homology. 永続性パターンは、永続性ホモロジーを見つけるために使われるパラメータに依存する。 0.68
3 3 0.85
英語(論文から抽出)日本語訳スコア
The conclusion we will draw from this exercise is that circular, non-circular and absurd modes of argument might exhibit the same visual properties derived from persistence homology, and therefore cannot be distinguished by looking for “a circle in a circular argument.” この実験から引用する結論は、円状、非円状、不条理な議論のモードは、永続性ホモロジーに由来するのと同じ視覚特性を示し、従って「円状議論の円」を求めることで区別できないということである。 0.67
3.1 Circular reasoning (a) (g:50; seed:1) 3.1 循環推論 (a)(g:50;種子:1) 0.73
(b) (g:50, seed:2) (b) (g:50, 種:2) 0.73
(c) (g:50; seed:3) (c) (g:50;種子:3) 0.78
Figure 1: Persistence diagrams for the circular text from [12]: “There is no way they can win because they do not have enough support. 図1: [12]の丸いテキストの永続化図 [12]: “十分なサポートがないため、彼らが勝つ方法はありません。 0.77
They do not have enough support because there is no way they can win.”. 彼らは勝つことができる方法がないので、十分なサポートがありません。 0.76
With different seeds (1,2,3) we get different patterns, even for the same embedding dimension. 異なる種 (1,2,3) では、同じ埋め込み次元でも異なるパターンが得られる。 0.74
Here, the dimension of embeddings is 50 (g:50), but the same phenomenon occurs for other dimensions. ここで、埋め込みの次元は 50 (g:50) であるが、他の次元でも同じ現象が起こる。 0.76
(a) (g:200; seed:42) (a)(g:200、シード:42) 0.70
(b) (g:100, seed:42) (b)(g:100、シード:42) 0.69
(c) (g:300; seed:42) (c)(g:300;種子:42) 0.75
Figure 2: Persistence diagrams for two circular text examples. 図2: 2つの円形テキスト例の永続化図。 0.78
Panel (a) “There is no way for the crew to win because the crew does not have good rowers. パネル(a)「クルーが良い手rownerを持っていないので、乗組員が勝つ方法はありません。 0.58
The crew does not have good rowers because there is no way for the crew to win.” makes simple vocabulary substitutions to the circular sentences from [12]. 乗組員は、乗組員が勝つ方法がないので、良い手rowersを持っていません」は、[12]から円形の文に単純な語彙を置き換えます。 0.63
Panels (b) and (c) show the patterns obtained with additional changes: “The Russian crew must lose because the coach did not hire Siberian rowers. パネル(b)と(c)は、追加の変更で得られたパターンを示しています。「ロシアの乗組員は、コーチがシベリアのローダーを雇わなかったので失わなければなりません。 0.51
The team did not enlist the good Siberian rowers because there is no way for the Russian crew to win.” チームは、ロシア人乗組員が勝つ方法がないため、優れたシベリア人ロウワーズに入隊しなかった。 0.74
Figure 1 represents persistence diagrams for the circular text example from [12]: “There is no way they can win because they do not have enough support. 図1は、[12]から引用した円形テキスト例の永続化図を表しています。
訳抜け防止モード: 図1は、[12]からの円形テキスト例の永続化図を表します。 「十分な支援がないので勝てるわけがない。」
0.73
They do not have enough support because there is no way they can win.”. 彼らは勝つことができる方法がないので、十分なサポートがありません。 0.76
It shows that with different seeds (1,2,3) we get different patterns, even for the same embedding dimension. 異なる種 (1,2,3) では、同じ埋め込み次元でも異なるパターンが得られる。 0.72
In the pictured examples the dimension of embeddings is 50 (g:50), but the same phenomenon occurs for other dimensions. 図の例では埋め込みの次元は 50 (g:50) であるが、他の次元では同じ現象が起こる。 0.80
As in [12], we use 12]のように使用します。 0.74
4 4 0.85
英語(論文から抽出)日本語訳スコア
the Takens embedding dimension = 2, and the Takens embedding delay = 2. Takens 埋め込み次元 = 2 および Takens 埋め込み遅延 = 2 である。 0.67
Figure 2 represents persistence diagrams for two circular text examples. 図2は2つの円形テキスト例の永続化図を表します。 0.65
Panel (a) makes simple vocabulary substitutions to the circular sentences from [12]: “There is no way for the crew to win because the crew does not have good rowers. パネル(a)は、[12]から円文に単純な語彙を置き換えます:「乗組員が良い手rownerを持っていないので、乗組員が勝つ方法はありません。 0.61
The crew does not have good rowers because there is no way for the crew to win.”. 乗組員が勝つ方法がないので、乗組員は良い手rownerを持っていません。 0.48
Panels (b) and (c) show the patterns obtained with a few more changes: “The Russian crew must lose because the coach did not hire Siberian rowers. パネル (b) と (c) は、いくつかの変更を加えて得られたパターンを示している。
訳抜け防止モード: パネル(b)と(c)は、いくつかの変更で得られたパターンを示しています。 コーチがシベリアン・ロウワーズを雇わなかったため、ロシアの乗組員は負けなければならない。
0.53
The team did not enlist the good Siberian rowers because there is no way for the Russian crew to win.” These examples show that it is possible to get a ‘random’ pattern by changing vocabulary of the sentences, and such patterns can be ‘random’ or not, depending on the dimension of embeddings. これらの例は、文章の語彙を変更することによって「ランダム」パターンを得ることが可能であり、そのようなパターンは埋め込みの寸法に応じて「ランダム」になる可能性があることを示しています。
訳抜け防止モード: チームは良いシベリアのローワーに加入しなかった ロシアの乗組員が勝つ方法はない」と述べた。 これらの例は 文の語彙を変えることで「ランダム」なパターンを得ることができる。 このようなパターンは、埋め込みの次元によっては、‘ランダム’かどうかだ。
0.78
As before, we use the Takens embedding dimension = 2, and the Takens embedding delay = 2. 以前と同様に、Takens 埋め込み寸法 = 2 を使用し、Takens 埋め込み遅延 = 2 を使用します。 0.69
Based on the examples shown in Figures 1 and 2, we observe that contrary to the hypothesis proposed in [12], circular reasoning pattern can produce persistent homology patterns associated with random text. 図1と2に示す例に基づいて、[12]で提案された仮説とは対照的に、円形推論パターンはランダムテキストに関連付けられた永続的ホモロジーパターンを生成する。 0.81
In Section 3.3 we will see that the opposite is true as well. 3.3節では、逆も同様に真であることがわかります。 0.68
3.2 Non-circular and syllogistic reasoning 3.2 非循環・シルロジカル推論 0.56
(a) Non-circular: (g:200; seed:42) (a)非円形:(g:200;種子:42) 0.70
(b) Induction: (g:50, seed:42) (b)誘導:(g:50,シード:42) 0.76
(c) Syllogism: (g:50; seed:42) (c)シルロジズム:(g:50;シード:42) 0.69
Figure 3: Persistence diagrams for three non-circular text examples. 図3: 3つの非円形テキスト例の永続化図。 0.72
Panel (a) represents ”No way the anarchists can lose the primary elections if they have enough support. パネル(a)は、“無政府主義者が十分な支持があれば予備選挙に負けることはできない”。 0.60
The anarchists have strong support, so there is no way they can lose the primaries.” modeled after [12] non-circular example, but with changed vocabulary and less repetitive pattern. アナキストは強い支持を持っているので、プライマリを失うことはできない」と[12]非円形の例をモデルにしたが、語彙が変化し、反復パターンが減少した。 0.61
It shows that a valid argument can result in a ‘random pattern.’ Panels (b) shows an example of inductive reasoning. これは、有効な引数が'ランダムパターン'をもたらすことを示している。
訳抜け防止モード: これは、有効な引数が‘ランダムパターン’をもたらすことを示している。 パネル ( b ) は帰納的推論の例を示している。
0.67
’Gold is going up. ゴールドは上昇している。 0.75
Platinum is also going up. プラチナも上がっています。 0.60
We should buy all metals, including copper and silver.’ Panel (c) show the patterns obtained from a syllogism. 銅や銀を含む全ての金属を購入するべきだ」と、パネル(c)はシロジズムから得られたパターンを示している。 0.68
’Every animal is created by evolution. すべての動物は進化によって生まれます。 0.65
The lion is an animal. ライオンは動物です。 0.62
The lion is created by evolution.’ Even though we see some similarities between (b) and (c), in other dimensions such similarities might not appear. b) と (c) の間にはいくつかの類似点が見られるが、他の次元ではそのような類似性は現れないかもしれない。 0.65
As before, we use the Takens embedding dimension = 2, and the Takens embedding delay = 2. 以前と同様に、Takens 埋め込み寸法 = 2 を使用し、Takens 埋め込み遅延 = 2 を使用します。 0.69
Again, despite repeated experiments with different parameters we cannot see any persistent patterns of homological persistence (pun intended). 繰り返し異なるパラメータで実験を繰り返しても、ホモロジー持続性(pun)の永続的なパターンは見られません。 0.78
The examples show that it is possible to get a ‘random’ pattern by changing vocabulary of non-circular sentences, and such patterns can look ‘random’ or not, depending on the dimension of embeddings. これらの例は、非円形文の語彙を変えて「ランダム」パターンを得ることができ、そのようなパターンは埋め込みの寸法に応じて「ランダム」に見えうることを示している。 0.82
5 5 0.85
英語(論文から抽出)日本語訳スコア
(a) (g:100, tdim:2, tdel:2) (a) (g:100, tdim:2, tdel:2) 0.76
(b) (g:200, tdim:2, tdel:2) (b) (g:200, tdim:2, tdel:2) 0.76
(c) (g:300, tdim:2, tdel:2) (c) (g:300, tdim:2, tdel:2) 0.76
(d) (g:100, tdim:3, tdel:2) (d) (g:100, tdim:3, tdel:2) 0.76
(e) (g:200, tdim:3, tdel:2) (e) (g:200, tdim:3, tdel:2) 0.76
(f) (g:300, tdim:3, tdel:2) (f) (g:300, tdim:3, tdel:2) 0.76
(g) (g:100, tdim:2, tdel:3) (g) (g:100, tdim:2, tdel:3) 0.76
(h) (g:200, tdim:2, tdel:3) (h) (g:200, tdim:2, tdel:3) 0.76
(i) (g:300, tdim:2, tdel:3) (i) (g:300, tdim:2, tdel:3) 0.76
Figure 4: This figure represents persistence diagrams for the random text example from [12]: “The body may perhaps compensates for the loss of a true metaphysics. 図4: この図は、[12]からのランダムテキスト例の永続化図を表しています。 0.32
Yeah, I think it’s a good environment for learning English. ええ、それは英語を学ぶのに良い環境だと思います。 0.85
Wednesday is hump day, but has anyone asked the camel...” The first parameter is the dimension of the (Glove) word embedding vectors; the second parameter is the dimension of Takens embedding; and the third parameter is the delay of Takens embedding. 第一のパラメータは(グロブの)単語埋め込みベクトルの次元であり、第二のパラメータはテイクの次元であり、第三のパラメータはテイクの埋め込みの遅延である。
訳抜け防止モード: 水曜日はふわふわの日です。 でも ラクダに頼まれた人は...」 最初のパラメータは (Glove ) ワード埋め込みベクトルの次元である 第2のパラメータは Takens 埋め込みの次元である。 そして第3のパラメータは、Takensの埋め込みの遅延である。
0.70
6 6 0.85
英語(論文から抽出)日本語訳スコア
3.3 Random text 3.3 ランダムテキスト 0.73
The cited work uses the following example to argue that random text produces chaotic display of persistence: The body may perhaps compensates for the loss of a true metaphysics. 引用された研究は以下の例を用いて、ランダムテキストは永続性のカオス的な表示を生み出していると主張している。
訳抜け防止モード: 引用された著作は以下の例を用いて、ランダムテキストは永続性のカオス表示を生成すると主張する。 身体はおそらく、真のメタ物理の喪失を補うかもしれない。
0.53
Yeah, I think it’s a good environment for learning English. ええ、それは英語を学ぶのに良い環境だと思います。 0.85
Wednesday is hump day, but has anyone asked the camel... 水曜日はふさふさした日だが ラクダに頼まれた人は... 0.51
As shown in Figure 4, there seem to be no discernible pattern in persistence diagrams for this text. 図4に示すように、このテキストの永続化図には識別可能なパターンはありません。 0.82
Depending on the choice of parameters we see that the same random text can produce virtually no signal, as in panel (b); produce ‘random’ signal, as in panel (d), produce relatively strong signal in panels (c) and (g); and some patterns in between in the remaining panels. パラメータの選択によっては、同じランダムテキストがパネル(b)のように事実上シグナルを生成でき、パネル(d)のように「ランダム」信号を生成し、パネル(c)と(g)で比較的強い信号を生成し、残りのパネルでいくつかのパターンを生成できる。
訳抜け防止モード: パラメータの選択によっては、同じランダムテキストが事実上シグナルを生成できないことが分かる。 パネル ( b ) のように; 'ランダム' 信号を生成します。 パネル(d)のように、パネル(c)において比較的強い信号を生成する and (g ) ; and some pattern in between the rest panels.
0.84
4 Discussion/Conclusio n The first point we want to make is that the examples shown in the previous section show that there seem to be no clear relationship between persistence and circularity of a textual argument, contrary to the hypothesis proposed in [12]. 4 討論・結論 最初のポイントは、[12]で提案された仮説とは対照的に、前節で示した例は、文的議論の持続性と円度の間に明確な関係がないことを示していることです。 0.66
Neither, there seem to be such a relationship with respect to random text. どちらも、ランダムテキストに関してそのような関係はないようです。 0.70
The second point is that our counter-examples do not prove that there are no significant relations between topological features and circularity. 第2のポイントは、我々の反例では位相的特徴と円状性の間に有意な関係がないことが証明されないことである。 0.55
An even stronger point we want to make is that our intuitions agree with [12], and that such relationships are plausible. さらに強固な点として、私たちの直観が[12]と一致し、そのような関係が妥当であるということです。 0.65
We hope and expect them to be discovered eventually, but we feel that the methods will likely to be more subtle. 最終的に発見されることを期待していますが、その方法はもっと微妙なものになるだろうと感じています。 0.62
Our mathematical intuition points to the fact that topology and logic are connected through Heyting/Brouwer algebras (see e.g. 我々の数学的直観は、トポロジーと論理がハイティング/ブリューワー代数を通して連結であるという事実を指摘する(例えば、参照)。 0.52
[7, 9]). On the TDA side, our earlier and current research [3, 8, 4, 2] suggests that the contribution of topology to classification and/or inference may lie in augmenting other methods (and not necessarily being the center of the show as in [1]). [7, 9]). tda側では、以前の研究(3, 8, 4, 2]は、分類や推論へのトポロジーの貢献は、他の方法の強化([1]のようにショーの中心であるとは限らない)にあることを示唆している。 0.66
In particular, it is possible we could see some statistical dependencies between persistence and circularity, if we ever run proper testing on a dataset of circular and non-circular arguments. 特に、円の引数と非円の引数のデータセット上で適切なテストを行う場合、永続性と円の統計的依存関係を見ることができる。 0.67
Alas, we do not think such a dataset exists. 残念ながら、そのようなデータセットは存在しないと思います。 0.59
Thus, we end this short note by pointing to these two avenues of exploration, one mathematical and one experimental. したがって、我々はこれらの2つの探索の道を指して、この短いメモを終了します。 0.60
Note: The references below are very incomplete, and we suggest the readers consult the list of 注: 以下の参照は非常に不完全であり、読者はリストを参考にすべきである。 0.72
references in [12] for a more appropriate introduction to topological data analysis. トポロジカルデータ分析へのより適切な導入のための[12]の参照。 0.81
References [1] Pratik Doshi and Wlodek Zadrozny. 参考文献 [1]Pratik DoshiとWlodek Zadrozny。 0.69
Movie genre detection using topological data analysis. トポロジカルデータ解析を用いた映画ジャンル検出 0.81
In International Conference on Statistical Language and Speech Processing, pages 117–128. 統計言語と音声処理に関する国際会議で、117-128ページ。 0.84
Springer, 2018. 2018年、スプリンガー。 0.51
[2] Shafie Gholizadeh, Ketki Savle, Armin Seyeditabari, and Wlodek Zadrozny. [2]Shafie Gholizadeh、Ketki Savle、Armin Seyeditabari、Wlodek Zadrozny。 0.55
Topological data analysis in text classification: Extracting features with additive information. テキスト分類におけるトポロジカルデータ解析:付加情報を用いた特徴抽出 0.84
arXiv preprint arXiv:2003.13138, 2020. arXiv preprint arXiv:2003.13138, 2020 0.81
[3] Shafie Gholizadeh, Armin Seyeditabari, and Wlodek Zadrozny. Shafie Gholizadeh, Armin Seyeditabari, Wlodek Zadrozny. 0.54
Topological signature of 19th century novelists: Persistent homology in text mining. 19世紀の小説家のトポロジカルサイン:テキストマイニングにおける永続的ホモロジー。 0.55
Big Data and Cognitive Computing, 2(4):33, 2018. Big Data and Cognitive Computing, 2(4):33, 2018。 0.84
[4] Shafie Gholizadeh, Armin Seyeditabari, and Wlodek Zadrozny. 4] Shafie Gholizadeh、Armin Seyeditabari、Wlodek Zadrozny。 0.52
A novel method of extracting topological features from word embeddings. 新規抽出法 単語埋め込みのトポロジカルな特徴。 0.57
arXiv preprint arXiv:2003.13074, 2020. arXiv preprint arXiv:2003.13074, 2020 0.81
7 7 0.85
英語(論文から抽出)日本語訳スコア
[5] Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg S Corrado, and Jeff Dean. 5] Tomas Mikolov氏、Ilya Sutskever氏、Kai Chen氏、Greg S Corrado氏、Jeff Dean氏。 0.81
Distributed representations of words and phrases and their compositionality. 単語とフレーズの分散表現とその構成性。 0.70
In Advances in neural information processing systems, pages 3111–3119, 2013. 神経情報処理システムの進歩、ページ3111-3119、2013。 0.72
[6] Jeffrey Pennington, Richard Socher, and Christopher D Manning. 6] Jeffrey Pennington、Richard Socher、Christopher D Manning。 0.67
Glove: Global vectors for word representation. glove: 単語表現のためのグローバルベクトル。 0.83
In Proceedings of the 2014 conference on empirical methods in natural language processing (EMNLP), pages 1532–1543, 2014. 2014年のProceedings of the 2014 Conference on empirical methods in natural language processing (EMNLP)において、1532–1543, 2014。 0.82
[7] Helena Rasiowa and Roman Sikorski. 7] Helena RasiowaとRoman Sikorski。 0.71
The mathematics of metamathematics. PWN. メタ数学の数学。 PWN。 0.74
Polish Scientific Publishers, Warsaw, 1963. ポーランド en:Scientific Publishers, Warsaw, 1963。 0.72
[8] Ketki Savle, Wlodek Zadrozny, and Minwoo Lee. 8] Ketki Savle、Wlodek Zadrozny、Minwoo Lee。 0.60
Topological data analysis for discourse semantics? 談話意味論のためのトポロジカルデータ分析 0.64
In Proceedings of the 13th International Conference on Computational SemanticsStudent Papers, pages 34–43, 2019. The 13th International Conference on Computational SemanticsStudent Papers, page 34–43, 2019 0.74
[9] R Sikorski. Sikorski (複数形 Sikorskis) 0.41
Applications of topology to foundations of mathematics. トポロジーの数学の基礎への適用。 0.76
General Topology and its 一般トポロジーとその応用 0.67
Relations to Modern Analysis and Algebra, pages 322–330, 1962. The Relations to Modern Analysis and Algebra, pages 322–330, 1962. 0.95
[10] Florius Takens. 10] florius takes. 0.54
Detecting strange attractors in turbulence. 乱流中の奇妙なアトラクタの検出。 0.52
In D.A. Rand and L.-S Young, editors, Dynamical Systems and Turbulence, volume 898 of Lecture Notes in Mathematics, pages 366–81. D.A. Rand and L.-S Young, editors, Dynamical Systems and Turbulence, Volume 898 of Lecture Notes in Mathematics, pages 366–81。 0.89
Springer-Verlag, New York, 1981. 1981年 - ニューヨーク州スプリングス・ヴァーラグ出身。 0.59
[11] Christopher Tralie, Nathaniel Saul, and Rann Bar-On. 11] Christopher Tralie、Nathaniel Saul、Rann Bar-On。 0.70
Ripser.py: A lean persistent homology Ripser.py: リーン永続ホモロジー 0.72
library for python. python用のライブラリ。 0.87
Journal of Open Source Software, 3(29):925, 2018. journal of open source software, 3(29):925, 2018を参照。 0.81
[12] Sarah Tymochko, Zachary New, Lucius Bynum, Emilie Purvine, Timothy Doster, Julien Chaput, and Tegan Emerson. Sarah Tymochko氏、Zachary New氏、Lucius Bynum氏、Emilie Purvine氏、Timothy Doster氏、Julien Chaput氏、Tegan Emerson氏。
訳抜け防止モード: 12 ] Sarah Tymochko, Zachary New, Lucius Bynum, Emilie Purvine、Timothy Doster、Julien Chaput、およびTegan Emerson。
0.74
Argumentative topology: Finding loop (holes) in logic. 議論的トポロジー: 論理におけるループ(ホール)の発見。 0.66
arXiv preprint arXiv:2011.08952, 2020. arXiv preprint arXiv:2011.08952, 2020 0.81
8 8 0.85
英語(論文から抽出)日本語訳スコア
Code Appendix Code Appendix 0.85
This code runs on Google Colab under the assumption that Glove vectors are installed in a particular directory. このコードは、Gloveベクトルが特定のディレクトリにインストールされているという仮定のもと、Google Colab上で実行される。 0.63
Therefore, to run it, the paths to word embeddings should be appropriately changed. そのため、実行には、単語埋め込みへのパスを適切に変更する必要がある。 0.66
The next four figures have all the commands required to replicate or extend our results. 次の4つの数字には、結果を複製または拡張するために必要なすべてのコマンドがあります。 0.55
However, the code for entities with a 200 in their names should be replicated (and adjusted) for different size embedding vectors. しかし、名前に200のエンティティのコードは、異なるサイズの埋め込みベクトルに対して複製(および調整)されるべきである。 0.80
For dimension 200 the code runs in exactly in its current form. 200次元の場合、コードは現在の形式で実行される。 0.75
Figure 5: Step 1. First, we install the preliminaries, and then the code which will be used to produce Takens embeddings. 図5:ステップ1。 まず、プリリミナリをインストールし、その後、takes組み込みを生成するために使用されるコードを作成します。 0.65
The source of this function is given in the comment. この関数のソースはコメントで示されています。 0.82
9 9 0.85
英語(論文から抽出)日本語訳スコア
Figure 6: Step 2. 図6: ステップ2。 0.78
Data preparation. Getting the embedding vectors, creating a map between words and vectors. データ準備。 埋め込みベクトルを取得し、単語とベクトルの間のマップを作成する。 0.73
(Models for other dimensions are created in exactly the same way). (他の寸法のモデルはまったく同じ方法で作成されます)。 0.83
The method glove function maps tokens into embedding vectors. メソッド glove 関数はトークンを埋め込みベクトルにマップします。 0.76
10 10 0.85
英語(論文から抽出)日本語訳スコア
Figure 7: Step 3. 図7: ステップ3。 0.76
The times series are obtained by projections on a random vector (as in [12]). 時系列は([12]のように)ランダムベクトル上の投影によって得られる。 0.78
The next panel allows an interactive exploration of persistence diagrams for different arguments, and the saving of the images. 次のパネルでは、異なる引数に対する永続化ダイアグラムのインタラクティブな探索と、イメージの保存が可能になる。 0.70
An example of using it is shown (without the output). 使用例を(出力なしで)示します。 0.57
11 11 0.85
英語(論文から抽出)日本語訳スコア
Figure 8: Optional: The method display argument3 enables the user to interactively explore persistence diagrams with arbitrary parameters of Takens embeddings. 図8: オプション: メソッド表示引数3により、ユーザーはTakens埋め込みの任意のパラメータで永続化ダイアグラムをインタラクティブに探索できます。
訳抜け防止モード: 図8:オプショナル メソッド表示引数3により、ユーザは takes 埋め込みの任意のパラメータで永続ダイアグラムをインタラクティブに探索できる。
0.81
12 12 0.85
                         ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。