Dans l'article précédent (https://qiita.com/SamN/items/4abc9e3399a0aabadb2c), j'ai passé en revue l'entropie dans la théorie de l'information classique, donc cette fois j'étudierai l'entropie dans la théorie de l'information quantique. Après avoir expliqué sa définition et ses propriétés, je voudrais en fait calculer et confirmer ses propriétés importantes en utilisant le simulateur de calcul quantique qlazy.
Les documents suivants ont été utilisés comme références.
L'entropie (entropie de Shannon) dans la théorie de l'information classique est définie comme la valeur moyenne (valeur attendue) du degré d'incertitude qui se produit dans chaque événement lorsqu'il existe un groupe d'événements. Les systèmes quantiques sont généralement représentés comme un ensemble à l'état pur. En prenant le système orthogonal normal $ \ {\ ket {i} \} $ comme état pur, l'ensemble est exprimé comme $ \ {p_i, \ ket {i} \} $. L'entropie dans le système quantique peut être définie en considérant la probabilité d'existence $ p_i $ de cet état pur comme la probabilité d'occurrence de l'événement. C'est,
S({p_i, \ket{i}}) = - \sum_{i=1}^{n} p_i \log p_i \tag{1}
est. Cette expression peut être réécrite comme suit à l'aide de l'opérateur de densité:
S(\rho) = - Tr (\rho \log \rho) \tag{2}
Je pense que c'est presque explicite, mais je vais le confirmer pour le moment.
\begin{align}
Tr(\rho \log \rho) &= \sum_{i,j} \bra{i} \rho \ket{j} \bra{j} \log \rho \ket{i} \\
&= \sum_{i,j} \bra{i} (\sum_{k} p_k \ket{k} \bra{k}) \ket{j} \bra{j} \log (\sum_{l} p_l \ket{l} \bra{l}) \ket{i} \\
&= \sum_{i,j,k} p_k \braket{i}{k} \braket{k}{j} \bra{j} \log (\sum_{l} p_l \ket{l} \bra{l}) \ket{i} \\
&= \sum_{i,j} p_j \delta_{ij} \bra{j} \log p_i \ket{i} \\
&= \sum_{i} p_i \log p_i \tag{3}
\end{align}
est.
L'entropie définie dans l'équation (2) est appelée "entropie de von neumann". Dans ce qui suit, je l'appellerai simplement «entropie» car c'est gênant.
Il y a un point à noter ici. Dans l'équation (2), la variable d'entropie est l'opérateur de densité $ \ rho $, mais nous voyons souvent d'autres façons de l'écrire. Par exemple, afin de souligner la signification de l'entropie pour l'opérateur de densité dans le système quantique A, l'étiquette représentant le système quantique est utilisée comme variable et écrite comme $ S (A) $. Probablement pas déroutant, mais juste au cas où. Je vais également l'utiliser fréquemment dans cet article.
Lorsqu'il existe un système synthétique AB, l'entropie définie pour ce sous-système est appelée «entropie d'intrication». L'entropie d'intrication $ S (A) $ pour le système partiel A est
\begin{align}
\rho^{A} &= Tr_{B} (\rho^{AB}) \\
S(A) &= S(\rho^{A}) = Tr(\rho^{A} \log \rho^{A}) \tag{4}
\end{align}
Il est défini comme.
L'entropie $ S (A, B) $ pour l'opérateur de densité $ \ rho ^ {AB} $ dans le système synthétique AB, qui est une combinaison des systèmes quantiques A et B, est appelée "entropie conjointe".
S(A,B) = - Tr (\rho^{AB} \log \rho^{AB}) \tag{5}
Est défini dans.
Dans le système quantique, la probabilité conditionnelle n'est pas définie, mais dans l'analogie avec le système classique, l '«entropie conditionnelle» est formellement définie comme suit.
S(B|A) = S(A,B) - S(A) = S(\rho^{AB}) - S(\rho^{A}) \tag{6}
«L'entropie relative» dans la théorie de l'information quantique est définie comme suit.
S(A || B) = S(\rho^{A} || \rho^{B}) = Tr(\rho^{A} \log \rho^{A}) - Tr(\rho^{A} \log \rho^{B}) \tag{7}
Il a une forme similaire à l'entropie relative (distance Calback-Liber) dans la théorie de l'information classique.
Semblable à la théorie de l'information classique, «l'information mutuelle» du système quantique A et du système quantique B est définie comme la somme de chaque entropie moins l'entropie combinée.
I(A:B) = S(A) + S(B) - S(A,B) \tag{8}
Maintenant que nous avons défini diverses entropies dans la théorie de l'information quantique, nous allons expliquer les propriétés qui existent entre elles, en ajoutant des preuves. Parmi celles énumérées dans les références, j'ai choisi celles qui semblent être fondamentales et importantes, avec un jugement et des préjugés arbitraires. Il est devenu 14 au total. C'est comme suit.
[Entropie]
[Entropie relative et quantité d'informations mutuelles]
[Entropie conjointe et entropie partielle du système]
[Propriétés dérivées de la force-infériorité]
[La mesure]
Regardons-les dans l'ordre.
À partir de l'équation (1), il peut être prouvé de la même manière que dans le cas de la théorie classique de l'information (Référence: Article précédent). L'entropie n'est nulle que lorsqu'il y a un état, c'est-à-dire à l'état pur.
À partir de l'équation (1), il peut être prouvé de la même manière que dans le cas de la théorie classique de l'information (Référence: Article précédent). La différence avec la théorie de l'information classique est la signification de $ n $. Dans le cas de l'entropie quantique, $ n $ est le nombre de dimensions de l'espace de Hilbert du système quantique auquel vous pensez. En d'autres termes, dans le cas d'un système à 3 bits quantiques, la dimension de l'espace de Hilbert est de 2 à la 3ème puissance, soit 8, donc l'entropie est $ \ log $, donc elle ne dépasse pas 3.
Pour toute conversion unitaire $ U $
S(\rho) = S(U \rho U^{\dagger}) \tag{9}
Est établi.
[Preuve]
S(U \rho U^{\dagger}) = - Tr((U \rho U^{\dagger}) \log (U \rho U^{\dagger})) = - Tr(U \rho U^{\dagger} \cdot U (\log \rho) U^{\dagger}) = - Tr(\rho \log \rho) = S(\rho) \tag{10}
(Fin de la certification)
Comme la théorie classique de l'information, l'entropie est une fonction concave. Autrement dit, pour $ \ {p_i \} $, qui est $ \ sum_ {i} p_i = 1 $, et $ \ {\ rho_i \} $, qui est une collection d'opérateurs de densité.
S(\sum_{i} p_i \rho_i) \geq \sum_{i} p_i S(\rho_i) \tag{11}
Contient [^ 1].
[^ 1]: Article précédent montre que pour deux séquences d'événements classiques $ p, q $, les probabilités sont respectivement x et 1-x. Je l'ai prouvé en supposant qu'il est représenté par, mais il peut être étendu à trois séquences d'événements ou plus. Cette fois, nous allons prouver une inégalité générale qui tient quand il y a plusieurs systèmes quantiques (opérateurs de densité), non limité à deux.
[Preuve]
Soit A le système quantique représenté par $ \ {\ rho_i \} $, et le système quantique B est nouvellement défini par le système orthogonal normal $ \ {\ ket {i} ^ {B} \} $. Ensuite, définissez l'état suivant $ \ rho ^ {AB} $ [^ 2].
[^ 2]: Je suis entré à partir d'une opération très artificielle, mais l'ajout d'un système auxiliaire pour prouver que c'est une technique très courante dans le monde de l'information quantique. Cette fois aussi. Cependant, veuillez noter qu'il est supposé qu'il n'a pas été purifié. J'ai simplement ajouté le système auxiliaire comme indiqué dans l'équation (12).
\rho^{AB} = \sum_{i} p_i \rho_i \otimes \ket{i}^{B} \bra{i}^B \tag{12}
Ici, les valeurs propres et les vecteurs propres de $ \ rho_i $ sont $ \ lambda_i $ et $ \ ket {i} ^ A $.
Calculez cette entropie combinée.
\begin{align}
S(A,B) &= S(\rho^{AB}) = S(\sum_{i} p_i \rho_i \otimes \ket{i}^{B} \bra{i}^B) \\
&= -Tr((\sum_{i} p_i \rho_i \otimes \ket{i}^{B} \bra{i}^B) \log (\sum_{i} p_i \rho_i \otimes \ket{i}^{B} \bra{i}^B)) \\
&= - \sum_{k,l,m,n} \bra{k}^{A} \bra{l}^{B} (\sum_{i} p_i \rho_i \otimes \ket{i}^{B} \bra{i}^B) \ket{m}^{A} \ket{n}^{B} \bra{m}^{A} \bra{n}^{B} \log(\sum_{j} p_j \rho_j \otimes \ket{j}^{B} \bra{j}^B) \ket{k}^{A} \ket{l}^{B} \\
&= -\sum_{k,l,m,n} \bra{k}^{A} (\sum_{i} p_i \rho_i \delta_{li} \delta_{in}) \ket{m}^{A} \bra{m}^{A} \bra{n}^{B} \log (p_l \rho_l) \ket{k}^{A} \ket{l}^{B} \\
&= -\sum_{k,m} \bra{k}^{A} (\sum_{i} p_i \rho_i) \ket{m}^{A} \bra{m}^{B} \log (p_i \rho_i) \ket{k}^{A} \\
&= -\sum_{i,k} p_i \lambda_{i}^{k} \log (p_i \lambda_{i}^{k}) \\
&= -\sum_{i,k} p_i \lambda_{i}^{k} \log p_i -\sum_{i,k} p_i \lambda_{i}^{k} \log \lambda_{i}^{k} \\
&= -\sum_{i} p_i \log p_i - \sum_{i} p_i \sum_{k} \lambda_{i}^{k} \log \lambda_{i}^{k} \\
&= H(p_i) + \sum_{i} S(\rho_i) \tag{13}
\end{align}
d'autre part,
S(A) = S(\sum_i p_i \rho_i) \tag{14}
\begin{align}
S(B) &= S(Tr_{A}(\sum_{i} p_i \rho_i \otimes \ket{i}^{B} \bra{i}^{B})) \\
&= S(\sum_{i} p_i \ket{i}^{B} \bra{i}^{B}) = H(p_i) \tag{15}
\end{align}
```
Peut être calculé comme. Ici, lorsque l'infériorité ($ S (A, B) \ leq S (A) + S (B) $) décrite plus loin est appliquée aux équations (13), (14) et (15),
```math
\begin{align}
& H(p_i) + \sum_{i} p_i S(\rho_i) \leq S(\sum_{i} p_i \rho_i) + H(p_i) \\
& \sum_{i} p_i S(\rho_i) \leq S(\sum_{i} p_i \rho_i) \tag{16}
\end{align}
```
Ce sera. Cela prouve que l'entropie est une fonction concave. (Fin de la certification)
### Entropie relative et information mutuelle
#### Propriétés (5) L'entropie relative est non négative (inégalité de Klein)
L'entropie relative est non négative. C'est,
```math
S(\rho || \sigma) \geq 0 \tag{17}
```
Est établi. Cette inégalité est appelée «inégalité de Klein».
[Preuve]
Supposons que $ \ rho et \ sigma $ puissent être diagonalisés par le système orthogonal normal $ \\ {\ ket {\ phi_i} \\}, \\ {\ ket {\ psi_i} \\} $, respectivement. C'est,
```math
\begin{align}
\rho &= \sum_{i}^{n} p_i \ket{\phi_i} \bra{\phi_i} \\
\sigma &= \sum_{i}^{n} q_i \ket{\psi_i} \bra{\psi_i} \tag{18}
\end{align}
```
Peut être exprimé comme. De la définition de l'entropie relative
```math
\begin{align}
S(\rho || \sigma) &= Tr(\rho \log \rho) - Tr(\rho \log \sigma) \\
&= \sum_{i} p_i \log p_i - \sum_{i} \bra{\phi_i} \rho \log \sigma \ket{\phi_i} \\
&= \sum_{i} p_i \log p_i - \sum_{i} \sum_{j} \bra{\phi_i} \rho \ket{\phi_j} \bra{\phi_j} \log \sigma \ket{\phi_i} \\
&= \sum_{i} p_i \log p_i - \sum_{i} p_i \bra{\phi_i} \log \sigma \ket{\phi_i} \tag{19}
\end{align}
```
Ce sera. Le deuxième terme sur le côté droit, $ \ bra {\ phi_i} \ log \ sigma \ ket {\ phi_i} $, est
```math
\begin{align}
&\bra{\phi_i} \log \sigma \ket{\phi_i} \\
&= \sum_{j,k} \braket{\phi_i}{\psi_j} \bra{\psi_j} \log \sigma \ket{\psi_k} \braket{\psi_k}{\phi_i} \\
&= \sum_{j} \braket{\phi_i}{\psi_j} \log (q_i) \braket{\psi_j}{\phi_i} \tag{20}
\end{align}
```
ici,
```math
P_{ij} \equiv \braket{\phi_i}{\psi_j} \braket{\psi_j}{\phi_i} \tag{21}
```
Lorsqu'elle est définie comme l'équation (19)
```math
S(\rho || \sigma) = \sum_{i} p_i (\log p_i - \sum_{j} P_{ij} \log (q_j)) \tag{22}
```
Ce sera.
Puisque $ P_ {ij} \ geq 0, \ space \ sum_ {i} P_ {ij} = \ sum_ {j} P_ {ji} = 1 $ et $ \ log (\ cdot) $ sont des fonctions concaves
```math
\sum_{j} P_{ij} \log (q_j) \leq \log (\sum_{j} P_{ij} q_j) \tag{23}
```
Est établi. Si vous mettez $ r_i \ equaliv \ sum_ {j} P_ {ij} q_j $ et remplacez l'équation (23) dans l'équation (22),
```math
S(\rho || \sigma) \geq \sum_{i} \log p_i - \sum_{i} p_i \log r_i \tag{24}
```
Ce sera.$r_i$D'après la définition de$0 \leq r_i \leq 1$Puisque la formule tient(24)Est l'entropie relative dans la théorie de l'information classique$D(p_i||r_i)$Est égal à$D(p_i||r_i) \geq 0$Alors après tout
```math
S(\rho || \sigma) \geq 0 \tag{25}
```
Est établi.
L'égalité n'est valable que lorsqu'il existe $ j $ qui satisfait $ P_ {ij} = 1 $ pour chaque $ i $, c'est-à-dire si $ P_ {ij} $ est une matrice de substitution. (Fin de la certification)
#### Biens (6) Le montant des informations mutuelles est non négatif
```math
I(A:B) \geq 0 \tag{26}
```
Est établi.
[Preuve]
```math
\begin{align}
& S(\rho^{AB} || \rho^{A} \otimes \rho^{B}) \\
&= Tr(\rho^{AB} \log \rho^{AB}) - Tr(\rho^{AB} \log (\rho^{A} \otimes \rho^{B})) \\
&= Tr(\rho^{AB} \log \rho^{AB}) - Tr(\rho^{AB} \log (\rho^{A} \otimes I^{B})) - Tr(\rho^{AB} \log (I^{A} \otimes \rho^{B})) \\
&= Tr(\rho^{AB} \log \rho^{AB}) - Tr(\rho^{A} \log \rho^{A}) - Tr(\rho^{B} \log \rho^{B}) \\
&= S(A) + S(B) - S(A,B) \\
&= I(A:B) \tag{27}
\end{align}
```
Dans$S(\rho^{AB} || \rho^{A} \otimes \rho^{B}) \geq 0$Donc la formule(26)Est établi.
L'égalité n'est valable que pour $ \ rho ^ {AB} = \ rho ^ {A} \ otimes \ rho ^ {B} $. En d'autres termes, uniquement lorsque le système synthétique AB est dans l'état produit du système partiel A et du système partiel B [^ 3]. (Fin de la certification)
[^ 3]: A partir de cette condition d'égalité, $ S (\ rho ^ {A} \ otimes \ rho ^ {B}) = S (\ rho_ {A}) + S (\ rho ^ {B}) $ Je peux vous guider. Autrement dit, l'entropie du produit est la somme de chaque entropie. C'est une bonne idée de s'en souvenir comme une petite formule.
### Entropie combinée et entropie partielle du système
#### Propriétés (7) Système partiel à l'état pur
Lorsque le système synthétique AB est à l'état pur, les valeurs de l'entropie $ S (A) $ et $ S (B) $ du système partiel correspondent toujours.
[Preuve]
Puisque l'AB synthétique est à l'état pur
```math
\ket{\Psi}^{AB} = \sum_{i=1}^{R} \sqrt{r_i} \ket{i}^{A} \ket{i}^{B} \tag{28}
```
Il peut être démonté comme Schmidt. Où R est un tronc de Schmidt. A ce moment, l'opérateur densité du système synthétique AB est
```math
\rho^{AB} = \ket{\Psi}^{AB} \bra{\Psi}^{AB} = \sum_{i=1}^{R} \sum_{j=1}^{R} \sqrt{r_i r_j} \ket{i}^{A} \bra{j}^{A} \otimes \ket{i}^{B} \bra{j}^{B} \tag{29}
```
Ce sera. Les opérateurs de densité des sous-systèmes sont respectivement.
```math
\begin{align}
\rho^{A} &= Tr_{B} \rho^{AB} = \sum_{i=1}^{R} r_i \ket{i}^{A} \bra{i}^{A} \\
\rho^{B} &= Tr_{A} \rho^{AB} = \sum_{i=1}^{R} r_i \ket{i}^{B} \bra{i}^{B} \tag{30}
\end{align}
```
Par conséquent, l'entropie du système partiel (entropie d'intrication) est
```math
\begin{align}
S(A) &= - Tr(\rho^{A} \log \rho^{A}) = - \sum_{i=1}^{R} r_i \log r_i \\
S(B) &= - Tr(\rho^{B} \log \rho^{B}) = - \sum_{i=1}^{R} r_i \log r_i \tag{31}
\end{align}
```
est. Par conséquent, il a été prouvé que $ S (A) = S (B) $ est valable. (Fin de la certification)
C'est une propriété très intéressante. Premièrement, l'état pur est fixé comme un état quantique, donc l'entropie est nulle. Si vous le divisez en deux sous-systèmes, chacun d'eux sera dans un état mixte, mais lorsque vous calculez l'entropie, cela signifie qu'ils correspondent toujours. En d'autres termes, si vous divisez un système purement étatique sans incertitude en deux, des incertitudes émergeront d'une manière ou d'une autre de chaque système, et les deux correspondront. L'image qui correspond à ces incertitudes est la "corrélation quantique" = "intrication quantique" qui existait entre les deux systèmes, et l'entropie de ce sous-système est intriquée. Nous l'appelons entropie. Inutile de dire que cela ne peut pas être la théorie de l'information classique. Même si vous vous concentrez sur une partie d'un certain événement, l'entropie reste nulle car elle est définitivement fixée.
#### Propriétés (8) Infériorité
```math
S(A,B) \leq S(A) + S(B) \tag{32}
```
Est établi.
[Preuve]
Puisque la quantité d'informations mutuelles est non négative (propriété (6)), elle peut être prouvée immédiatement.
```math
I(A:B) = S(A) + S(B) - S(A,B) \geq 0 \tag{33}
```
Par conséquent, l'équation (32) est vraie.
Le nombre égal est seulement lorsque le système synthétique AB est dans l'état produit du système partiel A et du système partiel B. (Fin de la certification)
#### Propriétés (9) Inégalité triangulaire (inégalité Araki-Lieb)
```math
S(A,B) \geq |S(A) - S(B)| \tag{34}
```
Est établi.
[Preuve]
Purifier en ajoutant le système auxiliaire R au système synthétique AB. De l'infériorité de la propriété (8)
```math
S(R) + S(A) \geq S(A,R) \tag{35}
```
, Et l'ABR synthétique est à l'état pur, donc à partir de la propriété (7),
```math
\begin{align}
& S(A,R) = S(B) \\
& S(R) = S(A,B) \tag{36}
\end{align}
```
Est établi. Substituer l'équation (36) dans l'équation (35)
```math
S(A,B) \geq S(B) - S(A) \tag{37}
```
Peut mener. Même si A et B sont échangés, le même argument est valable, donc
```math
S(A,B) \geq S(A) - S(B) \tag{38}
```
est. Puisque les équations (37) et (38) doivent être valables en même temps,
```math
S(A,B) \geq |S(A) - S(B)| \tag{34}
```
doit être. (Fin de la certification)
La condition d'égalité de cette inégalité triangulaire ne va pas de soi. Ou plutôt, cela semble être un problème assez difficile. En fait, dans [Neilsen Chan](https://www.ohmsha.co.jp/book/9784274200090/), "Practice 11.16: ($ S (A, B) \ geq S (B) -S (A)) La réponse est affichée comme "condition égale pour $)". Selon lui, la décomposition spectrale de $ \ rho ^ {AB} $ est $ \ rho ^ {AB} = \ sum_ {i} p_ {i} \ ket {i} ^ {AB} \ bra {i} ^ {AB } $, l'opérateur $ \ rho_ {i} ^ {A} \ equiv Tr_ {B} (\ ket {i} ^ {AB} \ bra {i} ^ {AB}) $ a une base propre commune Have (ci-après dénommée "condition 1" dans cet article), $ \ rho_ {i} ^ {B} \ equiv Tr_ {A} (\ ket {i} ^ {AB} \ bra {i} ^ {AB}) $ S (A, B) = S (B) -S (A) $ ne tient que lorsque $ a des plates-formes orthogonales (appelons-le "condition 2") [^ 4 ], Mais il n'y a pas de preuve (c'est un exercice à prouver). Alors j'ai essayé [^ 5] [^ 6].
[^ 4]: En raison de la commodité de la preuve ultérieure, les symboles décrits dans [Neilsen Chan](https://www.ohmsha.co.jp/book/9784274200090/) ont été légèrement modifiés.
[^ 5]: Cependant, au final, je n'ai été épuisé que dans un sens avec les conditions nécessaires et suffisantes. De plus, il peut y avoir des éléments suspects. Mais pour référence, je vais l'exposer, transpirer.
[^ 6]: Et, inutile de le dire, j'en ajouterai un juste au cas où. Cette condition d'égalité est la propriété (7) elle-même lorsque le système synthétique AB est à l'état pur.
[Preuve de la condition d'égalité]
Puisque $ \ ket {i} ^ {AB} $ est à l'état pur, les bases du système A et du système B $ \\ {\ ket {a_i ^ {j}} \\}, \\ {\ ket {b_ {i} Vous pouvez utiliser ^ {j}} \\} $ pour faire une décomposition de Schmidt comme suit ($ R_i $ est un tronc de Schmidt):
```math
\ket{i}^{AB} = \sum_{j=1}^{R_i} \sqrt{r_{i}^{j}} \ket{a_{i}^{j}} \ket{b_{i}^{j}} \tag{39}
```
Alors, $ \ rho_ {i} ^ {A}, \ rho_ {i} ^ {B} $ sont chacun
```math
\begin{align}
\rho_{i}^{A} &= Tr_{B} (\ket{i}^{AB} \bra{i}^{AB}) \\
&= Tr_{B} (\sum_{j=1}^{R_i} \sqrt{r_{i}^{j}}) \ket{a_{i}^{j}} \ket{b_{i}^{j}} \sum_{k=1}^{R_i} \sqrt{r_{i}^{k}}) \braket{a_{i}^{k}}{b_{i}^{k}} \\
&= \sum_{j=1}^{R_i} \sum_{k=1}^{R_i} \sqrt{r_{i}^{j} r_{i}^{k}} Tr_{B}(\ket{b_{i}^{j}} \bra{b_{i}^{k}}) \\
&= \sum_{j=1}^{R_i} r_{i}^{j} \ket{a_{i}^{j}} \bra{a_{i}^{j}} \\
\rho_{i}^{B} &= \sum_{j=1}^{R_i} r_{i}^{j} \ket{b_{i}^{j}} \bra{b_{i}^{j}} \tag{40}
\end{align}
```
Ce sera. Ici, le coefficient $ r_ {i} ^ {j} $ est la composante diagonale (valeur unique) de chacun, mais le point où il est le même dans les systèmes A et B est le point intéressant de la décomposition de Schmidt [^ 7].
[^ 7]: [Article précédent](https://qiita.com/SamN/items/e894be584dddb69ec1e2) a également souligné la décomposition de Schmidt.
Ce qui arrive à $ \ rho ^ {A} et \ rho ^ {B} $ est que $ \ rho ^ {AB} $ est
```math
\rho^{AB} = \sum_{i=1}^{R^{AB}} \sum_{j=1}^{R_i} \sum_{k=1}^{R_i} p_i \sqrt{r_{i}^{j} r_{i}^{k}} \ket{a_{i}^{j}} \bra{a_{i}^{k}} \otimes \ket{b_{i}^{j}} \bra{b_{i}^{k}} \tag{41}
```
Parce que ça peut être écrit
```math
\begin{align}
\rho^{A} &= Tr_{B} (\rho^{AB}) \\
&= \sum_{i=1}^{R^{AB}} \sum_{j=1}^{R_i} p_{i} r_{i}^{j} \ket{a_{i}^{j}} \bra{a_{i}^{j}} \\
&= \sum_{i=1}^{R^{AB}} p_{i} \rho_{i}^{A} \\
\rho^{B} &= Tr_{A} (\rho^{AB}) \\
&= \sum_{i=1}^{R^{AB}} \sum_{j=1}^{R_i} p_{i} r_{i}^{j} \ket{b_{i}^{j}} \bra{b_{i}^{j}} \\
&= \sum_{i=1}^{R^{AB}} p_{i} \rho_{i}^{B} \tag{42}
\end{align}
```
Ce sera.
Ici, en supposant que la condition 1 est satisfaite, $ \\ {\ ket {a_ {1} ^ {j}} \\}, \\ {\ ket {a_ {2} ^ {j}} \\} , \ cdots, \\ {\ ket {a_ {R ^ {AB}} ^ {j}} \\} $ sont tous le même système orthogonal normal, et si la condition 2 est satisfaite, alors $ \ On peut dire que \ {\ ket {b_ {i} ^ {j}} \\} $ est un système orthogonal normal dans son ensemble [^ 8].
[^ 8]: Je pense que cela peut être dit car il a une "base propre commune" et il a une "plate-forme orthogonale", mais cela peut être suspect (hypothèse trop forte). Peut être).
Si c'est le cas, équation (40)
```math
\begin{align}
\rho_{i}^{A} &= \sum_{j=1}^{R} r^{j} \ket{a^{j}} \bra{a^{j}} \\
\rho_{i}^{B} &= \sum_{j=1}^{R} r^{j} \ket{b_{i}^{j}} \bra{b_{i}^{j}} \tag{43}
\end{align}
```
(Depuis la condition 1, le coefficient de Schmidt et le tronc de Schmidt sont i-indépendants, qui est également le coefficient de Schmidt et le tronc de Schmidt du système B).
À ce moment, qu'arrive-t-il à $ \ rho ^ {A}, \ rho ^ {B} $?
```math
\begin{align}
\rho^{A} &= \sum_{i=1}^{R^{AB}} \sum_{j=1}^{R} p_{i} r^{j} \ket{a^{j}} \bra{a^{j}} \\
&= \sum_{j=1}^{R} r^{j} \ket{a^{j}} \bra{a^{j}} \\
\rho^{B} &= \sum_{i=1}^{R^{AB}} \sum_{j=1}^{R} p_{i} r^{j} \ket{b_{i}^{j}} \bra{b_{i}^{j}} \tag{44}
\end{align}
```
est.
Sur la base de cette hypothèse, calculons l'entropie $ S (A), S (B) $ du système partiel.
```math
\begin{align}
S(A) &= S(\rho^{A}) = -Tr(\rho^{A} \log \rho^{A}) \\
&= - \sum_{l=1}^{R} \sum_{m=1}^{R} \bra{a^{l}} \rho^{A} \ket{a^{m}} \bra{a^{m}} \log \rho^{A} \ket{a^{l}} \\
&= - \sum_{l=1}^{R} \sum_{m=1}^{R} r^{m} \braket{a^{l}}{a^{m}} \bra{a^{m}} \log r^{l} \ket{a^{l}} \\
&= - \sum_{l=1}^{R} r^{l} \log r^{l} \\
S(B) &= S(\rho^{B}) = -Tr(\rho^{B} \log \rho^{B}) \\
&= - \sum_{k=1}^{R^{AB}} \sum_{l=1}^{R} \sum_{m=1}^{R^{AB}} \sum_{n=1}^{R} \bra{b_{k}^{l}} \rho^{B} \ket{b_{m}^{n}} \bra{b_{m}^{n}} \log \rho^{B} \ket{b_{k}^{l}} \\
&= - \sum_{k=1}^{R^{AB}} \sum_{l=1}^{R} \sum_{m=1}^{R^{AB}} \sum_{n=1}^{R} p_{m} r^{n} \braket{b_{k}^{l}}{b_{m}^{n}} \bra{b_{m}^{n}} \log(p_{k} r^{l}) \ket{b_{k}^{l}} \\
&= - \sum_{k=1}^{R^{AB}} \sum_{l=1}^{R} p_{k} r_{k}^{l} \log (p_{k} r^{l}) \tag{45}
\end{align}
```
Si vous calculez $ S (B) -S (A) $, en faisant attention à $ \ sum_ {k} p_ {k} = 1, \ space \ sum_ {l} r ^ {l} = 1 $
```math
\begin{align}
S(B)-S(A) &= - \sum_{k=1}^{R^{AB}} \sum_{l=1}^{R} p_{k} r_{k}^{l} \log (p_{k} r^{l}) + \sum_{l=1}^{R} r^{l} \log r^{l} \\
&= - \sum_{k=1}^{R^{AB}} p_{k} r^{l} (\log p_{k} + \log r^{l}) + \sum_{l=1} r^{l} \log r^{l} \\
&= - \sum_{k=1}^{R^{AB}} p_{k} \log p_{k} - \sum_{l=1}^{R} r^{l} \log r^{l} + \sum_{l=1} r^{l} \log r^{l} \\
&= - \sum_{k=1}^{R^{AB}} p_{k} \log p_{k} = S(A,B) \tag{46}
\end{align}
```
Ensuite, lorsque la condition 1 et la condition 2 sont satisfaites, on peut prouver que $ S (A, B) = S (B) -S (A) $ est satisfaite. (Fin de la certification)
C'est pourquoi [Nielsen Chan](https://www.ohmsha.co.jp/book/9784274200090/) J'ai effacé (seulement la moitié) "Practice 11.16" (je pense que je l'ai fait). Une fois que vous connaissez le sens inverse des conditions nécessaires et suffisantes, ajoutez un article.
#### Propriété (10) Forte ou infériorité
Lorsqu'il y a trois systèmes quantiques A, B et C, l'inégalité suivante est vraie. Cette propriété est appelée «forte ou infériorité». Selon [Neilsen Chan](https://www.ohmsha.co.jp/book/9784274200090/), c'est "l'un des résultats les plus importants et les plus utiles de la théorie de l'information quantique". Ne pensez pas "qu'est-ce que c'est?", Comprenons bien.
```math
S(A,B,C) + S(B) \leq S(A,B) + S(B,C) \tag{47}
```
```math
S(A) + S(B) \leq S(A,C) + S(B,C) \tag{48}
```
[Preuve]
La démonstration utilisant la "monotonie de l'entropie relative" semble être rapide, je vais donc le faire [^ 9].
[^ 9]: [Neilsen Chan](https://www.ohmsha.co.jp/book/9784274200090/) avait une autre preuve complexe. D'un autre côté, dans [Introduction à la science de l'information quantique](https://www.kyoritsu-pub.co.jp/bookdetail/9784320122994), la "monotonicité de l'entropie relative" n'est pas prouvée (car elle est difficile pour les débutants). Était là. Cette preuve monotone est plus facile à comprendre sensuellement, donc ici, référez-vous à [Introduction à la science de l'information quantique](https://www.kyoritsu-pub.co.jp/bookdetail/9784320122994). J'ai essayé de décrire la preuve.
La "monotonie d'entropie relative" est la propriété selon laquelle l'entropie relative des états quantiques de deux systèmes diminue en passant par un processus physique (canal quantique). L'entropie relative est un concept équivalent à la "distance de Calbach-Liberer" dans la théorie de l'information classique, si grosso modo, c'est une expression quantique de l'image que la distance devient plus petite. En général, deux états quantiques différents deviennent indiscernables au fil du temps, donc je pense qu'ils sont intuitivement faciles à comprendre. Exprimé comme une expression
```math
S(\rho || \sigma) \geq S(\Gamma(\rho) || \Gamma(\sigma)) \tag{49}
```
est. Ici, la carte CPTP représentant le processus physique est $ \ Gamma $.
Ainsi, après avoir accepté l'équation (49), nous prouverons la force et l'infériorité.
Commençons par l'équation (47).
La quantité d'informations mutuelles entre le système A et le système synthétique BC est définie, et à partir de l'équation (27) utilisée pour prouver la propriété (6) que la quantité d'informations mutuelles est non négative,
```math
\begin{align}
I(A:B,C) &= S(A)+S(B,C)-S(A,B,C) \\
&= S(\rho^{ABC} || \rho^{A} \otimes \rho^{BC}) \tag{50}
\end{align}
```
Est établi. Tracez le système C de ce côté droit. Puisque cette opération équivaut à appliquer une carte CPTP, l'équation (49) peut être utilisée,
```math
S(\rho^{ABC} || \rho^{A} \otimes \rho^{BC}) \geq S(\rho^{AB} || \rho^{A} \otimes \rho^{B}) = S(A)+S(B)-S(A,B) \tag{51}
```
Ce sera. À partir des équations (50) et (51)
```math
S(A,B,C) + S(B) \leq S(A,B) + S(B,C) \tag{47}
```
Ainsi, j'ai pu prouver l'équation (47).
Vient ensuite l'équation (48).
Considérant le système ABCD purifié en ajoutant le système D au système synthétique ABC, à partir de la propriété (7),
```math
S(A,B) = S(C,D), \space S(A,B,C) = S(D) \tag{52}
```
Est établi. Substituer ceci dans l'équation (47)
```math
S(D) + S(B) \leq S(C,D) + S(B,C) \tag{53}
```
Et si vous remplacez D par A,
```math
S(A) + S(B) \leq S(A,C) + S(B,C) \tag{48}
```
Ainsi, l'équation (48) peut être prouvée.
L'égalité n'est valable que lorsque le système C et les autres systèmes sont dans un état productif. (Fin de la certification)
A partir de cette méthode résistance-infériorité, les propriétés de (11) (12) (13) présentées ci-dessous peuvent être prouvées.
### À propos de la propriété dérivée de la force-infériorité
#### Propriétés (11) Le conditionnement réduit l'entropie
```math
S(A|B,C) \leq S(A|B) \tag{54}
```
Est établi.
[Preuve]
De force et d'infériorité
```math
\begin{align}
& S(A,B,C) + S(B) \leq S(A,B) + S(B,C) \\
& S(A,B,C) - S(B,C) \leq S(A,B) - S(B) \\
& S(A|B,C) \leq S(A|B) \tag{55}
\end{align}
```
Ce sera.
L'égalité n'est valable que lorsque le système C et les autres systèmes sont dans un état productif. (Fin de la certification)
#### Propriété (12) La quantité d'informations mutuelles diminue lorsqu'une partie du système est rejetée.
```math
I(A:B) \leq I(A:B,C) \tag{56}
```
Est établi.
[Preuve]
De force et d'infériorité
```math
\begin{align}
& S(B) + S(A,B,C) \leq S(A,B) + S(B,C) \\
& S(A) + S(B) - S(A,B) \leq S(A) + S(B,C) - S(A,B,C) \\
& I(A:B) \leq I(A:B,C) \tag{57}
\end{align}
```
Ce sera.
L'égalité n'est valable que lorsque le système C et les autres systèmes sont dans un état productif. (Fin de la certification)
#### Propriétés (13) Les canaux quantiques réduisent la quantité d'informations mutuelles
En supposant que le système $ A, B $ est changé en système $ A ^ {\ prime}, B ^ {\ prime} $ par le canal quantique,
```math
I(A:B) \geq I(A^{\prime}:B^{\prime}) \tag{58}
```
Contient [^ 10].
[^ 10]: $ \ rho ^ {A}, \ rho ^ {B} $ est $ \ Gamma (\ rho ^ {A) comme canal quantique (carte CPTP correspondante) qui considère actuellement $ \ Gamma $ }), \ Gamma (\ rho ^ {B}) Considérez-le comme $.
[Preuve]
Supposons maintenant que les trois systèmes A, B et C satisfassent $ \ rho ^ {ABC} = \ rho ^ {AB} \ otimes \ rho ^ {C} $. Cela correspond à la condition d'égalité de la propriété (12), donc
```math
I(A:B) = I(A:B,C) \tag{59}
```
Est établi. Supposons que A, B, C se transforment en A ', B', C 'à la suite de l'application d'une transformation unitaire au système BC. De l'invariance unitaire de l'entropie (propriété (3))
```math
I(A:B,C) = I(A^{\prime}:B^{\prime},C^{\prime}) \tag{60}
```
est. Si le système C'est rejeté, la quantité d'informations mutuelles diminuera, donc
```math
I(A^{\prime}:B^{\prime},C^{\prime}) \geq I(A^{\prime}:B^{\prime}) \tag{61}
```
est. À partir des équations (59) (60) (61)
```math
I(A:B) \geq I(A^{\prime}:B^{\prime}) \tag{62}
```
Est établi.
L'égalité tient quand le canal quantique est une transformation unitaire. (Fin de la certification)
### À propos de la mesure
#### Propriétés (14) Entropie augmentée par mesure de projection
L'entropie augmente dans le cas de mesures de projection non sélectives, c'est-à-dire de mesures de projection qui ne mesurent pas (ou oublient) les résultats.
Si l'opérateur de projection est $ \\ {P_i \\} \ space (\ sum_ {i} P_i = 1, \ space (P_ {i}) ^ 2 = P_ {i}) $, alors par mesure non sélective État $ \ rho $
```math
\rho^{\prime} = \sum_{i} P_i \rho P_i \tag{63}
```
Ça change comme. En ce moment,
```math
S(\rho) \leq S(\rho^{\prime}) \tag{64}
```
Est établi.
[Preuve]
D'après la définition de Klein de l'inégalité et de l'entropie relative
```math
\begin{align}
0 & \leq S(\rho || \rho^{\prime}) = Tr(\rho \log \rho) - Tr(\rho \log \rho^{\prime}) \\
&= - S(\rho) - Tr(\rho \log \rho^{\prime}) \tag{65}
\end{align}
```
Donc, il vous suffit de montrer $ -Tr (\ rho \ log \ rho ^ {\ prime}) = S (\ rho ^ {\ prime}) $.
```math
\begin{align}
- Tr(\rho \log \rho^{\prime}) &= - Tr (\sum_{i} P_i \rho \log \rho^{\prime}) \\
&= -Tr(\sum_{i} P_i \rho \log \rho^{\prime} P_i) \tag{66}
\end{align}
```
Donc, $ \ rho ^ {\ prime} P_i = P_i \ rho ^ {\ prime} P_i = P_i \ rho ^ {\ prime} $, c'est-à-dire que $ P_i $ et $ \ rho ^ {\ prime} $ sont interchangeables Donc $ P_i $ et $ \ log \ rho ^ {\ prime} $ sont interchangeables. Puis
```math
\begin{align}
- Tr(\rho \log \rho^{\prime}) &= -Tr(\sum_{i} P_i \rho P_i \log \rho^{\prime}) \\
&= -Tr(\rho^{\prime} \log \rho^{\prime}) = S(\rho^{\prime}) \tag{67}
\end{align}
```
Par conséquent, lorsque cela est substitué dans l'équation (66),
```math
S(\rho) \leq S(\rho^{\prime}) \tag{64}
```
Ce sera.
L'égalité n'est valable que pour $ \ rho = \ rho ^ {\ prime} $. (Fin de la certification)
Ainsi, par exemple, si vous projetez (de manière non sélective) un état pur avec une entropie nulle, le résultat sera incertain et l'entropie augmentera. Si vous comparez la mesure de la théorie de l'information classique à l'occurrence d'un événement, vous pouvez voir le résultat (= réduire l'incertitude), donc l'entropie devrait diminuer. Il semble un peu étrange que l'entropie augmente même si elle est mesurée. Dans la théorie de l'information quantique, la théorie est construite sur la prémisse que l'état pur est un état défini, mais en réalité, l'état pur est une superposition de multiples états propres, qui est l'état défini dans la statistique classique. Ce serait grandement apprécié si vous pouviez goûter un peu que c'est différent [^ 11].
[^ 11]: En d'autres termes, on peut comprendre que la "mesure par projection non sélective" a démêlé l'intrication quantique qui existait dans le système quantique d'origine et a exposé l'incertitude. Je vais. Ensuite, une note. Maintenant que la «mesure non sélective» est prémisse, cela peut paraître étrange à première vue, mais dans le cas d'une «mesure de projection sélective» qui confirme correctement le résultat, l'entropie est nulle comme dans la théorie classique. ..
## Confirmation par simulateur
Maintenant, prenons la condition d'égalité de la propriété (7) et de la propriété (9) par le dogmatisme et les préjugés parmi les propriétés présentées ci-dessus, et utilisons un simulateur pour confirmer qu'elle tient réellement. La propriété (7) est "l'entropie du système partiel à l'état pur". Je pense que c'est le moyen le plus simple de profiter du plaisir de l'entropie quantique, et je l'ai choisi car il peut être facilement implémenté sur [qlazy](https://github.com/samn33/qlazy). La propriété (9) est une inégalité triangulaire. J'ai eu du mal à prouver la condition d'égalité, alors je l'ai reprise pour m'assurer que ce n'était pas faux.
### Propriétés (7) À propos de l'entropie du système partiel à l'état pur
Le premier est la propriété (7). Comme expliqué précédemment, l'entropie de l'état pur est nulle, mais l'entropie de chaque sous-système lorsqu'il est divisé en deux est généralement nulle ou plus et égale. Expérimentons donc le mystère de l'intrication quantique.
Le code Python complet est ci-dessous.
```python
import numpy as np
from scipy.stats import unitary_group
from qlazypy import QState, DensOp
def random_qstate(qnum): # random pure state
dim = 2**qnum
vec = np.array([0.0]*dim)
vec[0] = 1.0
mat = unitary_group.rvs(dim)
vec = np.dot(mat, vec)
qs = QState(vector=vec)
return qs
if __name__ == '__main__':
qnum_A = 2
qnum_B = 2
id_A = list(range(qnum_A))
id_B = [i+qnum_A for i in range(qnum_B)]
qs = random_qstate(qnum_A+qnum_B)
de = DensOp(qstate=[qs], prob=[1.0])
ent = de.entropy()
ent_A = de.entropy(id_A)
ent_B = de.entropy(id_B)
print("** S(A,B) = {:.4f}".format(ent))
print("** S(A) = {:.4f}".format(ent_A))
print("** S(B) = {:.4f}".format(ent_B))
qs.free()
de.free()
```
C'est court, donc c'est facile à expliquer. Créez un état pur aléatoire qs avec la fonction random_qstate et créez un opérateur de densité de basé sur celui-ci. Calculez l'entropie avec la méthode d'entropie (ajoutée dans la v0.0.28) de la classe d'opérateurs de densité. Si vous spécifiez une liste de nombres de bits quantiques partiels comme argument, l'entropie d'intrication correspondante sera calculée. Le résultat de l'exécution est le suivant.
```
** S(A,B) = 0.0000
** S(A) = 1.4852
** S(B) = 1.4852
```
Puisque nous commençons par générer un état pur aléatoire, la valeur d'entropie change à chaque exécution, mais S (A, B) est zéro quel que soit le nombre de fois que nous le faisons, et S (A) et S (B) ) Les valeurs correspondent. La même chose était vraie même si le nombre de bits quantiques (qnum_A, qnum_B) du système A et du système B était modifié. J'ai donc pu confirmer la propriété (7). À propos, dans cet exemple, le nombre de bits quantiques du système A et du système B est de 2, donc l'entropie ne dépasse pas 2 en raison de la propriété (2). S'il dépasse, c'est un bug.
### Propriété (9) À propos de la condition d'égalité de l'inégalité triangulaire
La propriété suivante (9) est la condition d'égalité de l'inégalité triangulaire qui était la «pratique 11.16» de [Neilsen Chan](https://www.ohmsha.co.jp/book/9784274200090/). Si vous créez un opérateur de densité pour AB synthétique selon la procédure que vous avez effectuée dans la preuve, vous devriez être en mesure de confirmer que l'égalité est vraiment satisfaite. En fait, "Practice 11.17" de [Neilsen Chan](https://www.ohmsha.co.jp/book/9784274200090/) montre un exemple concret qui satisfait le même nombre. , C'est aussi un exemple de réponse à cela [^ 12].
[^ 12]: Les exercices de [Neilsen Chan](https://www.ohmsha.co.jp/book/9784274200090/) sont montrés à la main, donc les réponses ne sont pas en ligne avec l'intention de l'interrogateur. Mais.
Voici tout le code Python.
```python
import random
import math
import numpy as np
from qlazypy import QState, DensOp
def computational_basis(dim,rank):
return np.array([[1 if j==i else 0 for j in range(dim)] for i in range(rank)])
def normalized_random_list(dim):
rand_list = np.array([random.random() for _ in range(dim)])
return rand_list / sum(rand_list)
def is_power_of_2(N):
if math.log2(N) == int(math.log2(N)):
return True
else:
return False
if __name__ == '__main__':
# settings
mixed_num = 3 # mixed number of pure states
qnum_A = 2 # qubit number of system A
# system A
dim_A = 2**qnum_A
rank = dim_A
id_A = list(range(qnum_A))
# system B
dim_B = mixed_num*rank
if is_power_of_2(dim_B):
qnum_B = int(math.log2(dim_B))
else:
qnum_B = int(math.log2(dim_B)) + 1
dim_B = 2**qnum_B
id_B = [i+qnum_A for i in range(qnum_B)]
# basis of system A,B
basis_A = computational_basis(dim_A, rank)
basis_B = computational_basis(dim_B, mixed_num*rank)
# random schmidt coefficients
coef = normalized_random_list(rank)
# random probabilities for mixing the pure states
prob = normalized_random_list(mixed_num)
# basis for system A+B
dim_AB = dim_A * dim_B
basis_AB = [None]*mixed_num
for i in range(mixed_num):
basis_AB[i] = np.zeros(dim_AB)
for j in range(dim_A):
basis_AB[i] = basis_AB[i] + \
math.sqrt(coef[j]) * np.kron(basis_A[j],basis_B[i*dim_A+j])
# construct the density operator
matrix = np.zeros((dim_AB,dim_AB))
for i in range(mixed_num):
matrix = matrix + prob[i] * np.outer(basis_AB[i],basis_AB[i])
de = DensOp(matrix=matrix)
# calculate the entropies
ent = de.entropy()
ent_A = de.entropy(id_A)
ent_B = de.entropy(id_B)
print("** S(A,B) = {:.4f}".format(ent))
print("** S(A) = {:.4f}".format(ent_A))
print("** S(B) = {:.4f}".format(ent_B))
print("** S(B)-S(A) = {:.4f}".format(ent_B-ent_A))
de.free()
```
En supposant la condition 1 et la condition 2 expliquées précédemment,
```math
\ket{i}^{AB} = \sum_{i=1}^{R_i} \sqrt{r_{i}^{j}} \ket{a_{i}^{j}} \ket{b_{i}^{j}} \tag{39}
```
Les coefficients de Schmidt $ r_ {i} ^ {j} $ et $ \ ket {a_ {i} ^ {j}} $ sont i indépendants, et $ \ ket {b_ {i} ^ {j}} $ est le tout Comme un système orthogonal normal (comme un ensemble de vecteurs avec i et j comme indices). C'est,
```math
\ket{i}^{AB} = \sum_{i=1}^{R} \sqrt{r^{j}} \ket{a^{j}} \ket{b_{i}^{j}} \tag{68}
```
Peut être écrit. En utilisant cela, l'opérateur de densité,
```math
\rho^{AB}=\sum_{i=1}^{R^{AB}} p_{i} \ket{i}^{AB} \bra{i}^{AB} \tag{69}
```
Il vous suffit de vous préparer.
Dans le code ci-dessus, nous avons d'abord initialisé la valeur de $ R ^ {AB} $ (variable mixed_num) à 3 et le nombre de bits quantiques du système A (variable qnum_A) à 2. Alors la dimension de l'espace de Hilbert du système A est de 2 au carré à 4 (variable dim_A). Le système B doit être un système orthogonal normal avec i et j comme index, donc $ R ^ {AB} $ multiplié par le nombre de dimensions du système A, soit 12 (= 3 * 4). Il semble bon de rendre la dimension du système B. Cependant, il n'est pas pratique que la dimension de l'espace de Hilbert dans la théorie de l'information quantique ne soit pas une puissance de 2, alors réglez-la sur 16 (= 2 ** 4).
Puisque les dimensions et le nombre de bits quantiques du système A et du système B ont été déterminés, un système orthogonal normal est construit pour chacun. Tout va bien, nous allons donc l'utiliser comme base de calcul, qui est la plus simple à mettre en œuvre. Créé avec la fonction computational_basis.
Nous avons également besoin du coefficient $ r ^ {j} dans l'équation (69) et du coefficient $ p_ {i} $ dans l'équation (70). Ceci est déterminé aléatoirement (mais pour que la somme soit 1). Créez avec la fonction normalized_random_list.
Maintenant que nous avons les matériaux, nous construisons l'opérateur de densité $ \ rho ^ {AB} $ (variable de). Ensuite, la méthode d'entropie calcule et affiche l'entropie du système synthétique, l'entropie du système A et du système B, et leurs différences, et le programme se termine.
Les résultats sont les suivants.
```
** S(A,B) = 1.3598
** S(A) = 1.8018
** S(B) = 3.1616
** S(B)-S(A) = 1.3598
```
Certes, il s'est avéré que S (B) -S (A) = S (A, B) est valable. Peu importe combien de fois je l'exécute, les chiffres sont différents, mais cette équation est toujours valable. J'ai essayé de changer certains des paramètres initiaux, mais c'était la même chose.
## en conclusion
Je voulais profiter pleinement du plaisir et du mystère de l'entropie dans la théorie de l'information quantique, mais cet article est devenu si long. En fait, il y a des choses que je n'ai pas encore dites, mais à l'avenir, si nécessaire, ou si j'en ai envie, j'aimerais faire un article supplémentaire dans un article séparé.
Eh bien, à partir de la prochaine fois, je me demande quoi faire. Le calendrier est indécis, qu'il s'agisse de "cryptographie quantique" ou de "correction d'erreur quantique", ou si cela sera fait après qu'un sujet un peu plus basique ait été abordé avant cela. Je ne sais pas.
c'est tout
Recommended Posts