Bases de la théorie de l'information quantique: compression de données (2)

\def\bra#1{\mathinner{\left\langle{#1}\right|}} \def\ket#1{\mathinner{\left|{#1}\right\rangle}} \def\braket#1#2{\mathinner{\left\langle{#1}\middle|#2\right\rangle}}

introduction

La dernière fois, j'ai compris "le théorème de codage de Shannon dans les canaux sans bruit" dans la théorie de l'information classique, donc cette fois c'est la version quantique de "Noise". Nous étudierons "le théorème de codage de Schumacher dans les canaux quantiques sans". Le théorème de Shannon pourrait être prouvé en utilisant le concept de «série typique», mais le théorème de Schumacher peut également être prouvé en utilisant un concept similaire avec presque la même expansion logique. Après cette explication, simulons le codage en utilisant le simulateur de calcul quantique qlazy.

Les documents suivants ont été utilisés comme références.

  1. Neilsen, Chan "Quantum Computer and Quantum Communication (3)" Ohm (2005)
  2. Ishizaka, Ogawa, Kawachi, Kimura, Hayashi "Introduction à la science de l'information quantique" Kyoritsu Publishing (2012)
  3. Tomita "Quantum Information Engineering" Morikita Publishing (2017)

Fidélité d'enchevêtrement

Avant cela, je voudrais parler de "fidélité à l'intrication" qui sera utilisée dans une discussion ultérieure. Je ne l'ai pas abordé dans les articles précédents, alors jetons un coup d'œil à sa définition et à sa nature.

La fidélité de divertissement est une mesure de la façon dont une carte CPTP conserve l'état du système. Supposons que l'opérateur de densité $ \ rho ^ {A} $ dans un système quantique A devienne $ \ Gamma (\ rho ^ {A}) $ par la carte CPTP. A ce moment, si la purification de $ \ rho ^ {A} $ est $ \ rho ^ {AR} = \ ket {\ Psi} ^ {AR} \ bra {\ Psi} ^ {AR} $, fidélité d'intrication Degré $ F_ {e} ^ {2} $ utilise la fidélité $ F $ entre deux opérateurs de densité,

F_{e}^{2}(\rho^{A}, \Gamma) = F(\rho^{AR}, (\Gamma \otimes I^{R})(\rho^{AR}))^{2} = \bra{\Psi}^{AR} (\Gamma \otimes I^{R})(\rho^{AR}) \ket{\Psi}^{AR}  \tag{1}

Il est défini comme [^ 1]. Puisque ce n'est rien d'autre que le produit interne des états purifiés, la limite supérieure est 1.

[^ 1]: $ F_ {e} ^ {2} dans Introduction to Quantum Information Science avec une explication détaillée de la fidélité de l'intrication. Le symbole $ a été utilisé. Il semble être une coutume de mettre 2 sur l'épaule de $ F_ {e} $ pour signifier que c'est le carré de la fidélité.

De plus, les cartes CPTP utilisent l'opérateur Claus $ \ {M_k \} $ to $ \ Gamma (\ rho) = \ sum_ {k} M_ {k} \ rho M_ {k} ^ {\ dagger} $ J'ai pu l'exprimer. Ensuite, la fidélité à l'intrication est

F_{e}^{2}(\rho^{A}, \Gamma) = \sum_{k} |Tr(\rho^{A} M_k)|^{2}  \tag{2}

Vous pouvez également écrire comme ça. c'est,

\begin{align}
F_{e}^{2}(\rho^{A}, \Gamma) &= \bra{\Psi}^{AR} \sum_{k} (M_k \otimes I_k) \rho^{AR} (M_{k}^{\dagger} \otimes I_k) \ket{\Psi}^{AR} \\
&= \sum_{k} \bra{\Psi}^{AR} (M_k \otimes I_k) \ket{\Psi}^{AR} \bra{\Psi}^{AR} (M_{k}^{\dagger} \otimes I_k) \ket{\Psi}^{AR}  \\
&= \sum_{k} Tr(\rho^{AR} (M_k \otimes I_k)) Tr(\rho^{AR} (M_{k}^{\dagger} \otimes I_k)) \\
&= \sum_{k} Tr(\rho^{A} M_k) Tr(\rho^{A} M_{k}^{\dagger}) \\
&= \sum_{k} |Tr(\rho^{A} M_k)|^{2}  \tag{3}
\end{align}

Vous pouvez le voir.

Problème de réglage

Eh bien, le sujet principal.

Cette fois, la cible n'est pas "l'information classique" mais "l'information quantique". En d'autres termes, «l'information classique» est transmise sur «l'état quantique» (= codé), et l'état quantique lui-même est transmis au lieu d'obtenir «l'information classique» mesurée (= décodée) côté réception. .. A ce moment, nous examinerons comment compresser "l'état quantique". Cela peut sembler facile à dire, mais tout d'abord, vérifions ce que vous essayez réellement de faire physiquement.

Dans la théorie de l'information quantique, l'état quantique est l'opérateur de densité $ \ rho $. Ce qui est décrit par l'opérateur densité est généralement un état mixte. L'état mixte s'est manifesté comme un ensemble probabiliste d'états purs ou comme un grand sous-ensemble d'états purs. Par exemple, le premier est un état qui apparaît quand Alice a un lanceur de photons qui peut arbitrairement définir l'état pur et le commute de manière probabiliste pour se déclencher, et le dernier fait partie du bit quantique de l'ordinateur quantique C'est un état qui apparaît en sortant (par exemple,).

Envisagez de transmettre les uns après les autres avec l'état décrit par cet opérateur de densité comme une unité. Dans le cas de la théorie de l'information classique, la transmission des alphabets anglais par ordre chronologique a été modélisée par la séquence de variables stochastiques $ X_1, X_2, \ cdots $, mais de même, les états quantiques à transmettre sont denses. Modélisez comme une série d'opérateurs $ \ rho_1, \ rho_2, \ cdots $. Dans l'exemple d'Alice, Alice effectue d'abord une action de déclenchement de photons équivalente à $ \ rho_1 $, puis prend une pause, puis effectue une action de déclenchement de photons équivalente à $ \ rho_2 $, et ainsi de suite. Ou, en fait, il peut y avoir plusieurs Alice (!), Alice 1 est en charge de $ \ rho_1 $, Alice 2 est en charge de $ \ rho_2 $, et toutes Alice tire des photons en même temps. Peut être. Dans l'exemple d'un ordinateur quantique, nous prenons un bit quantique partiel spécifique de l'état quantique obtenu par un certain circuit quantique, le considérons comme $ \ rho_1 $, nous l'émettons vers le chemin de communication quantique, faisons une pause et faisons la même chose. C'est une image qui génère une série d'opérateurs de densité en libérant à plusieurs reprises $ \ rho_2 $ et ainsi de suite. Alternativement, vous pouvez utiliser un grand circuit quantique pour créer une série de $ \ rho_1, \ rho_2, \ cdots $ en parallèle, comme dans le cas de plusieurs Alices plus tôt [^ 2]. ].

[^ 2]: Maintenant, j'ai illustré deux images, l'une est de libérer les états décrits par l'opérateur de densité l'un après l'autre dans l'ordre chronologique, et l'autre est de libérer plusieurs états à la fois. Est une conversion unitaire qui s'étend sur plusieurs états, c'est-à-dire qu'elle s'emmêle les unes avec les autres (décrite plus loin), il est donc préférable d'avoir plusieurs images émises en même temps dans votre esprit. Cela peut être facile. Techniquement, je pense que peu importe lequel vous pouvez enchevêtrer.

Ici, l'état quantique généré est transmis via un chemin de transmission. Les photons d'Alice peuvent être livrés à Bob via une fibre optique, et les états quantiques émis par un ordinateur quantique peuvent être transmis à un autre ordinateur quantique via l'Internet quantique [^ 3]. Dans tous les cas, c'est une histoire qui implique un système physique, il vaut donc mieux ne pas penser qu'un état quantique de dimension infinie peut être transmis instantanément. Chaque $ \ rho_i $ est un opérateur de densité défini dans l'espace de Hilbert de dimension $ d $ (d'où le nombre de bits quantiques est $ \ log d $). Si vous voulez envoyer $ n $ en masse, le nombre de bits quantiques requis pour générer des informations est naturellement $ n \ log d $. Puisqu'il doit y avoir des restrictions physiques sur le chemin de transmission, une certaine conversion d'état est appliquée pour transmettre sous une forme qui réduit le nombre de bits quantiques autant que possible, et le côté réception effectue une certaine conversion de l'état quantique reçu à l'état quantique d'origine. Je veux restaurer le moins d'erreur possible.

[^ 3]: Je pense que la réalisation de l'internet quantique se fera plusieurs décennies plus tard, mais c'est amusant d'imaginer (illusion?) Le futur dans lequel les ordinateurs quantiques du monde entier sont connectés comme ça!

À ce stade, y a-t-il une limite au nombre de bits quantiques pouvant être compressés? Si oui, comment est-il quantifié? La réponse à cela est le "théorème de codage de Schumacher" que nous étudierons cette fois.

Sous-espace typique

Tout d'abord, comme dans le cas du théorème de Shannon, modélisez simplement la source. On suppose que chaque $ \ rho_i $ a la même distribution de probabilité (= a les mêmes éléments lorsqu'il est exprimé dans une matrice), et que les $ \ rho_i $ appartenant à des $ i $ différents sont indépendants les uns des autres (= non corrélés). Une telle source d'informations quantiques est appelée "source d'informations quantiques i.i.d". Les discussions ultérieures le supposent.

Considérons maintenant la série d'opérateurs de densité $ \ {\ rho_i \} $ comme un système composite $ \ sigma $. C'est,

\sigma = \rho_1 \otimes \rho_2 \cdots  \tag{4}

est. Ce $ \ rho_1, \ rho_2, \ cdots $ a un indice pour la distinction, mais la substance a la même forme. Si vous le représentez avec le symbole $ \ rho $ et décomposez le spectre,

\rho = \sum_{x} p(x) \ket{x} \bra{x}  \tag{5}

Peut être écrit. Étant donné que $ \ rho $ est un seul état quantique, sa décomposition spectrale est linéaire pour deux états orthogonaux, par exemple $ \ ket {up} \ bra {up} $ et $ \ ket {down} \ bra {down} $. Il devient une somme et son coefficient p (x) peut être interprété comme la probabilité que l'état $ \ ket {x} $ se produise. En d'autres termes, la probabilité que l'état soit $ \ ket {up} $ soit p (up), la probabilité que l'état soit $ \ ket {down} $ soit p (down) et la somme des deux soit 1. De plus, l'entropie quantique $ S (\ rho) $ à ce moment est égale à l'entropie classique $ H (p (x)) $ pour p (x) = {p (haut), p (bas)}. Ensuite, la probabilité que $ n $ pièces soient retirées du nombre infini de séries $ \ rho $ et que l'état soit $ \ ket {x_1} \ ket {x_2} \ cdots \ ket {x_n} $ est Vous pouvez y penser exactement comme dans le cas de la théorie classique [^ 4]. Autrement dit, il existe un modèle typique qui est très susceptible de se produire, et la probabilité est $ p (x_1, x_2, \ cdots, x_n) = p (x_1) p (x_2) \ cdots p (x_n) \ approx 2 Il peut être approximé par ^ {-nS (p)} $.

[^ 4]: Par exemple, si vous pensez à $ \ ket {up} $ comme "avant" et $ \ ket {down} $ comme "arrière", vous pouvez lancer des pièces plusieurs fois. Vous pouvez penser de la même manière.

Et la probabilité que le motif typique se produise peut être caractérisée quantitativement comme ayant une largeur de $ \ epsilon $ comme suit.

2^{-n(S(\rho)+\epsilon)} \leq p(x_1)p(x_2) \cdots p(x_n) \leq 2^{-n(S(\rho)-\epsilon)}  \tag{6}

C'est aussi

|\frac{1}{n} \log \frac{1}{p(x_1) \cdots p(x_n)} - S(\rho) | \leq \epsilon  \tag{7}

Peut être réécrit comme [^ 5].

[^ 5]: Veuillez vous référer aux équations (3) (8) (9) dans Article précédent.

Ici, l'ensemble des états $ \ ket {x_i} \ ket {x_2} \ cdots \ ket {x_n} $ correspondant au modèle de série typique qui se produit avec la probabilité caractérisée par ce $ \ epsilon $ est "$ ". Nous l'appelons "epsilon $ subspace typique ($ \ epsilon $ -typical subspace)" et l'écrivons comme $ T (n, \ epsilon) $.

Ensuite, vous pouvez également définir un opérateur de projection $ P (n, \ epsilon) $ sur le sous-espace typique de $ \ epsilon $.

P(n,\epsilon) = \sum_{x \in T(n,\epsilon)} \ket{x_1}\bra{x_1} \otimes \ket{x_2}\bra{x_2} \otimes \cdots \otimes \ket{x_n}\bra{x_n}  \tag{8}

(C'est un concept qui ne se trouve pas dans la théorie classique).

Maintenant que nous sommes prêts, examinons trois théorèmes qui s'appliquent aux sous-espaces typiques.

Théorème de sous-espace typique (1)

La description de Neilsen, Chan est citée telle quelle.

"Correction de $ \ epsilon> 0 $. Pour tout $ \ delta> 0 $ et $ n $ assez grand

Tr(P(n,\epsilon)\rho^{\otimes n}) \geq 1-\delta  \tag{9}

Le contenu est presque le même que celui du "Théorème des séries typiques (1)" de la théorie classique de l'information. Dans l'article précédent (https://qiita.com/SamN/items/12cc4f3057b36381e474), j'ai expliqué ce que signifie le libellé unique de $ \ epsilon- \ delta $, donc je ne le répéterai pas ici. La différence est que la probabilité d'être un sous-espace typique $ \ epsilon $ est représentée par $ Tr $. Est-ce correct? Puisque nous avons mappé l'opérateur de densité d'origine sur le sous-espace typique $ \ epsilon $ par une opération de projection et l'avons tracé, il s'agit de la probabilité qu'il s'agisse du sous-espace typique $ \ epsilon $.

Prouvons-le.

[Preuve]

\begin{align}
Tr(P(n,\epsilon) \rho^{\otimes n}) &= Tr(\sum_{x \in T(n,\epsilon)} p(x_1) \ket{x_1}\bra{x_1} \otimes p(x_2) \ket{x_2}\bra{x_2} \otimes \cdots \otimes p(x_n) \ket{x_n}\bra{x_n}) \\
&= \sum_{x \in T(n,\epsilon)} p(x_1) \cdots p(x_n) Tr(\ket{x_1}\bra{x_1} \otimes \cdots \otimes \ket{x_n}\bra{x_n}) \\
&= \sum_{x \in T(n,\epsilon)} p(x_1) \cdots p(x_n)  \tag{10}
\end{align}

Par conséquent, le côté gauche de l'équation (9) est égal à la «probabilité d'être une série typique» dans la théorie de l'information classique. Par conséquent, il peut être prouvé immédiatement à partir du théorème de série typique (1) prouvé dans Article précédent. (Fin de la certification)

Théorème de sous-espace typique (2)

La description de Neilsen, Chan est citée.

"Tout fixe\epsilon>0Quand\delta>0ContreT(n,\epsilon)Dimension|T(n,\epsilon)|=Tr(P(n,\epsilon))Répond à l'équation suivante.

(1-\delta) 2^{n(S(\rho)-\epsilon)} \leq |T(n,\epsilon)| \leq 2^{n(S(\rho)+\epsilon)}  \tag{11}

ici,T(n,\epsilon)Veuillez noter que nous parlons de "dimensions" plutôt que de "nombres". Dans l'information classique|T(n,\epsilon)|Est\epsilon典型系列の「数」を表していましたが、量子情報でEst、T(n,\epsilon)Est、\epsilon典型部分空間、すなわち全体のヒルベルト空間に対する部分空間なので、数でEstなく次元と呼ぶのが適切です。この部分空間へEst射影演算子P(n,\epsilon)Il peut être atteint en postulant. Et l'opérateur de projectionP(n,\epsilon)Est、式(8)A été défini dans. Cette\sumの中身Est各々が直交する軸への射影であり、それを典型的になっているxの分だけ足し合わせる格好になっています。従って、古典情報の典型系列の数に相当するものEst、量子情報においてEst、状態xのバリエーションの数、つまり、典型部分空間の次元|T(n,\epsilon)|ということになります。また、典型部分空間の次元Est、式(8)Comme vous pouvez le voir en prenant les traces des deux côtés deTr(P(n,\epsilon))Est égal à Ce théorème(2)の記述に関する注意ポイントEst以上です。それでEst、証明します。

[Preuve]

En remplaçant $ H (X) $ dans le théorème de série typique (2) prouvé dans Article précédent par $ S (\ rho) $ Vous pouvez le prouver immédiatement. (Fin de la certification)

Théorème de sous-espace typique (3)

La description de Neilsen, Chan est citée.

"$ S (n) $ est au plus un opérateur de projection $ 2 ^ {nR} $ dimension $ H ^ {\ otimes n} $ dans n'importe quel sous-espace, où $ R \ <S (\ rho) $ Est corrigé. À ce stade, pour tout $ \ delta > 0 $ et $ n $ suffisamment grand

Tr(S(n)\rho^{\otimes n}) \leq \delta  \tag{12}

Article précédent Semblable au théorème de série typique (3), l'affirmation de ce théorème est suffisante quelle que soit la taille de $ \ delta $. Si nous prenons un grand $ n $, nous pouvons faire tenir l'équation (12). En bref, il dit que la limite de $ n \ à \ infty $ est $ Tr (S (n) \ rho ^ {\ otimes n}) \ à 0 $. Prouvons-le.

[Preuve]

Divisez la trace de projection en utilisant $ S (n) $ (c'est-à-dire la somme des probabilités) en une trace pour les sous-espaces typiques et atypiques.

Tr(S(n)\rho^{\otimes n}) = Tr(S(n) \rho^{\otimes n} P(n,\epsilon)) + Tr(S(n) \rho^{\otimes n} (I-P(n,\epsilon)))  \tag{13}

Où $ P (n, \ epsilon) $ et $ \ rho ^ {\ otimes n} $ sont interchangeables, c'est-à-dire

\begin{align}
\rho^{\otimes n} P(n,\epsilon) &= \sum_{x \in T(n,\epsilon)} p(x_1) \cdots p(x_n) \ket{x_1}\bra{x_1} \cdots \ket{x_n}\bra{x_n} \\
&= P(n,\epsilon) \rho^{\otimes n}  \tag{14}
\end{align}

Et puisque $ (P (n, \ epsilon)) ^ 2 = P (n, \ epsilon) $ (car c'est une projection), le premier terme sur le côté droit de l'équation (13) est

Tr(S(n) P(n,\epsilon) \rho^{\otimes n} P(n,\epsilon))  \tag{15}

Ce sera. Ici, la valeur unique de $ P (n, \ epsilon) \ rho ^ {\ otimes n} P (n, \ epsilon) $ est $ p (x_1) p (x_2) \ cdots p (x_n) $, et l'expression À partir de (6), la limite supérieure est $ 2 ^ {-n (S (\ rho) - \ epsilon)} $. $ S (n) $ dans la trace de l'équation (15) équivaut à l'opération d'extraction de $ 2 ^ {nR} $ valeurs uniques [^ 6], et elles sont additionnées dans la trace, donc à la fin,

[^ 6]: $ P (n, \ epsilon) \ rho ^ {\ otimes n} P (n, \ epsilon) $ est la base d'un sous-espace typique $ \ ket {x_1} \ cdots \ ket {x_n} $ Lorsqu'elles sont diagonalisées avec, les valeurs uniques $ p (x_1) \ cdots p (x_n) $ sont alignées sur une ligne sur les composantes diagonales. Vous pouvez considérer $ S (n) $ comme une projection qui en prend $ 2 ^ {nR} $ et met à zéro le reste.

Tr(S(n) P(n,\epsilon) \rho^{\otimes n} P(n,\epsilon)) \leq 2^{nR} 2^{-n(S(\rho)-\epsilon)} \approx 2^{-n(S(\rho)-R)}  \tag{16}

Puisque l'inégalité a été établie et que l'on a supposé que $ R <S (\ rho) $, le premier terme du côté droit de l'équation (13) converge vers 0 à la limite de $ n \ vers \ infty $.

Ensuite, considérons le deuxième terme du côté droit de l'équation (13). Puisque $ S (n) \ leq I $ et $ S (n) $ et $ \ rho ^ {\ otimes n} (I-P (n, \ epsilon)) $ sont tous deux des valeurs positives,

0 \leq Tr(S(n)\rho^{\otimes n} (I-P(n,\epsilon))) \leq Tr(\rho^{\otimes n} (I-P(n,\epsilon)))  \tag{17}

Contient [^ 7]. $ IP (n, \ epsilon) \ à 0 $ à la limite de $ n \ à \ infty $, donc $ Tr (S (n) \ rho ^ {\ otimes n} (IP (n, \ epsilon))) \ vers \ infty 0 $, c'est-à-dire que le deuxième terme du côté droit de l'équation (13) converge également vers 0.

Par conséquent, l'équation (13) converge vers 0 à la limite de $ n \ vers \ infty $. (Fin de la certification)

[^ 7]: L'opérateur Hermeet $ A $ est positif pour tout $ \ ket {\ psi} $, $ \ bra {\ psi} A \ ket {\ psi} \ geq 0 Il dit que $ tient. Aussi, quand $ \ bra {\ psi} (AB) \ ket {\ psi} \ geq 0 $ vaut pour les opérateurs Elmeet $ A, B $ et tout $ \ ket {\ psi} $, $ Écrivez A \ geq B $. En partant du principe que, pour les opérateurs Elmeat positifs $ A et B $, $ AB $ devient également une valeur positive, et $ Tr (AB) \ geq 0 $ est valable. , $ Tr (A) \ geq 0 $. L'égalité n'est valable que lorsque $ A = 0 $, c'est-à-dire $ A = 0 \ Leftrightarrow Tr (A) = 0 $. Ensuite, $ A \ geq B \ Rightarrow Tr (A) \ geq Tr (B) $ tient, et $ A \ geq B, C \ geq 0 \ Rightarrow Tr (AC) \ geq Tr (BC) $ peut être prouvé. Je vais. Et ainsi de suite sont utilisés dans les coulisses.

Théorème de codage de Schumacher dans les canaux sans bruit

Nous sommes maintenant prêts à prouver le théorème de Schumacher, qui est l'événement principal d'aujourd'hui. Encore une fois, je citerai la description de Neilsen, Chan.

"$ \ {H, \ rho \} $ est une source quantique iid. Si $ R> S (\ rho) $, alors source $ \ {H, \ rho \} $ D'un autre côté, il existe une méthode de compression fiable avec un taux de $ R $. Si $ R <S (\ rho) $, toute méthode de compression avec un taux de $ R $ n'est pas fiable. "

$ \ {H, \ rho \} $ est une série d'états (opérateur de densité) $ \ rho $ définis sur un certain espace de Hilbert $ H $, et il est utilisé comme source d'information quantique iid. Le principe est que vous devez d'abord l'imaginer. A ce moment, si le débit de transmission $ R $ est fixé à une valeur légèrement supérieure à l'entropie quantique $ S (\ rho) $, on prétend qu'il existe une méthode de compression fiable. Prouvons-le.

[Preuve]

Premièrement, quand $ R> S (\ rho) $.

Considérons $ \ epsilon> 0 $ qui satisfait $ S (\ rho) + \ epsilon \ leq R $. À partir du théorème de sous-espace typique (2)

|T(n,\epsilon)| \leq 2^{n(S(\rho)+\epsilon)} \leq 2^{nR}  \tag{18}

Est établi. Ici, $ H_ {c} ^ {n} $ est un espace de Hilbert de dimension arbitraire $ 2 ^ {nR} $ et contient $ T (n, \ epsilon) $ [^ 8].

[^ 8]: L'espace de Hilbert qui décrit la source d'information quantique originale $ \ rho_1 \ otimes \ cdots \ rho_n $ est $ H ^ {\ otimes n} $, et l'espace de Hilbert qui décrit la source d'information quantique codée. Le sous-espace de s'écrit $ H_ {c} ^ {n} (\ subset H ^ {\ otimes n}) $. Ensuite, $ H_ {c} ^ {n} $ est déterminé à contenir $ \ epsilon $ sous-espace typique $ T (n, \ epsilon) $. Puisque l'équation (18) est vraie, il est possible de le décider.

Le codage se fait comme suit. Mesurez les informations quantiques $ \ sigma \ equiv \ rho_1 \ otimes \ cdots \ rho_n $ générées à partir de la source d'informations quantiques avec les opérateurs de projection mutuellement orthogonaux $ P (n, \ epsilon), IP (n, \ epsilon) $. Je vais. Si le résultat obtenu est exprimé par "0", "1", si "0" est obtenu, cela signifie qu'il est dans un état de sous-espace typique, et s'il est "1", cela signifie qu'il est dans un état sur un sous-espace typique. Au lieu de cela, il est interprété comme un état sur un sous-espace atypique. S'il vaut "0", l'état quantique est envoyé tel quel, et s'il est "1", il est remplacé par un état approprié et envoyé (par exemple, $ \ ket {00 \ cdots 0} $).

En conséquence, l'état quantique d'origine est transformé comme suit.

C^{n}(\sigma) \equiv P(n,\epsilon) \sigma P(n,\epsilon) + \sum_{i} A_i \sigma A_i^{\dagger} \tag{19}

Où $ C ^ {n} $ est

C^{n}: H^{\otimes n} \rightarrow H_{c}^{n}  \tag{20}

C'est une opération à cartographier. De plus, le deuxième terme du côté droit décrit l'effet du remplacement du sous-espace atypique par un état approprié, par exemple.

A_i \equiv \ket{0}\bra{i}  \tag{21}

Vous pouvez le considérer comme quelque chose comme ($ \ ket {i} $ est la base de l'espace complémentaire orthogonal du sous-espace typique).

L'opération de déchiffrement $ D ^ {n} $ est une opération égale [^ 9].

D^{n}(\sigma) = \sigma  \tag{22}

[^ 9]: Lors de l'encodage, je l'ai envoyé tel quel sans rien faire pour l'état du sous-espace typique, il est donc correct de ne rien faire lors du décodage. S'il est dans un état sur un sous-espace atypique, j'ai abandonné car je suis prêt pour une erreur, je vais donc le laisser tel quel sans rien faire de particulier lors du décodage.

Évaluez à quel point l'état d'origine a changé pendant le processus de codage et de décodage avec la fidélité d'intrication $ F_ {e} ^ {2} $. Du fait que la valeur maximale de la fidélité d'intrication est 1, en utilisant l'équation (2) de l'opérateur Klaus, et du théorème (1) des sous-espaces typiques,

\begin{align}
1 &\geq F_{e}^{2}(\rho^{\otimes n}, D^{n} \circ C^{n}) \\
&\geq |Tr(\rho^{\otimes n} P(n,\epsilon))|^{2} \\
&\geq |1-\delta|^{2} \geq 1-2\delta  \tag{23}
\end{align}

Est établi. Par conséquent, quelle que soit la taille de $ \ delta> 0 $, si vous apportez un $ n $ suffisamment grand, l'équation ci-dessus peut être établie. Autrement dit, à la limite de $ n \ à \ infty $, la fidélité d'intrication converge vers 1. En d'autres termes, il existe une méthode de compression fiable avec un taux de $ R $.

Vient ensuite le cas de $ R <S (\ rho) $.

L'opération de codage peut être considérée comme un mappage de $ H ^ {\ otimes n} $ à un sous-espace de la dimension $ 2 ^ {nR} $ par l'opérateur de projection $ S (n) $.

L'opérateur Claus pour l'opération de codage $ C ^ {n} $ est $ \ {C_j \} $, et l'opérateur Claus pour l'opération de décodage $ D ^ {n} $ est $ \ {D_k \} $. Mettre. Autrement dit, le codage est

\begin{align}
&\rho_1 \otimes \cdots \otimes \rho_n \\
&\rightarrow \rho_{1}^{\prime} \otimes \cdots \otimes \rho_{n}^{\prime} \\
&= C_{1} \rho_1 C_{1}^{\dagger} \otimes \cdots \otimes C_{n} \rho_n C_{n}^{\dagger} = \sum_{j} C_{j} \rho^{\otimes n} C_{j}^{\dagger}  \tag{24}
\end{align}

Donc, le décryptage est

\begin{align}
&\rho_{1}^{\prime} \otimes \cdots \otimes \rho_{n}^{\prime} \\
&\rightarrow \rho_{1}^{\prime\prime} \otimes \cdots \otimes \rho_{n}^{\prime\prime} \\
&= D_{1} \rho_{1}^{\prime} D_{1}^{\dagger} \otimes \cdots \otimes D_{n} \rho_{n}^{\prime} D_{n}^{\dagger} = \sum_{k} D_{k} \rho^{\prime \otimes n} D_{k}^{\dagger}  \tag{25}
\end{align}

est. Ensuite, la fidélité d'intrication par encodage / décodage est

F_{e}^{2}(\rho^{\otimes n}, D^{n} \circ C^{n}) = \sum_{j,k} |Tr(D_{k} C_{j} \rho^{\otimes n})|^{2}  \tag{26}

Ce sera. Puisque $ C_j $ est une opération de projection sur le même sous-espace que le sous-espace de dimension $ 2 ^ {nR} $ projeté par $ S (n) $,

C_j = S(n) C_j  \tag{27}

est. De plus, l'espace de Hilbert de dimension $ 2 ^ {nR} $ mappé par $ S (n) $ définit l'opérateur de projection sur le sous-espace mappé par $ D_k $ comme $ S ^ {k} (n) $. Puis

S^{k}(n) D_{k} S(n) = D_{k} S(n)  \tag{28}

Est établi. À partir des équations (27) et (28)

D_{k} C_{j} = D_{k} S(n) C_{j} = S^{k}(n) D_{k} S(n) C_{j} = S^{k}(n) D_{k} C_{j} \tag{29}

Substituer ceci dans l'équation (26)

F_{e}^{2}(\rho^{\otimes n}, D^{n} \circ C^{n}) = \sum_{j,k} |Tr(D_{k} C_{j} \rho^{\otimes n} S^{k}(n))|^{2}  \tag{30}

Ce sera. De plus, à partir de l'inégalité de Cauchy Schwartz,

F_{e}^{2}(\rho^{\otimes n}, D^{n} \circ C^{n}) \leq \sum_{j,k} Tr(D_{k} C_{j} \rho^{\otimes n} C_{j}^{\dagger} D_{k}^{\dagger}) Tr(S^{k}(n) \rho^{\otimes n}) \tag{31}

Contient [^ 10].

[^ 10]: Cependant, la façon dont cette transformation de formule est effectuée reste un mystère. Je voudrais le compléter quand je le comprends.

D'après le théorème de sous-espace typique (3), la seconde trace sur le côté droit est pour tout $ \ delta> 0 $.

Tr(S^{k}(n) \rho^{\otimes n}) \leq \delta  \tag{32}

Peut être fait. Par conséquent, l'équation (31)

F_{e}^{2}(\rho^{\otimes n}, D^{n} \circ C^{n}) \leq \delta \sum_{j,k} Tr(D_{k} C_{j} \rho^{\otimes n} C_{j}^{\dagger} D_{k}^{\dagger}) = \delta \tag{33}

Ce sera. Ici, la dernière égalité consiste à sauvegarder la trace de l'opérateur de densité par $ C ^ {n}, D ^ {n} $. À partir de l'équation (33), à la limite de $ n \ à \ infty $, la fidélité d'intrication converge vers 0, donc après tout, si $ R <S (\ rho) $, toute méthode de compression n'est pas fiable. Cela a été prouvé. (Fin de la certification)

Simulation de codage

Un exemple de codage Schumacher est donné dans la "Colonne 12.4" de Neilsen, Chan, je voudrais donc l'implémenter. Comme un état de bit quantique

\rho = \frac{1}{4}
\begin{pmatrix}
3 & 1 \\
1 & 1
\end{pmatrix}  \tag{34}

Considérez l'opérateur de densité. Quatre d'entre eux sont transmis ensemble. En d'autres termes, $ \ rho ^ {\ otimes 4} $ est transmis comme une série. D'après le théorème de codage de Schumacher, nous aurions dû considérer que la vitesse de transmission est légèrement supérieure à l'entropie quantique $ S (\ rho) $. Dans le cas de l'équation (34), $ S (\ rho) $ est d'environ 0,6 lorsqu'il est calculé, donc on suppose que le débit de transmission est $ R = 0,75 $ et 4 bits quantiques sont compressés à 3 bits quantiques. Donc, je voudrais essayer de restaurer à nouveau l'état de 4 bits quantiques du côté du décodage.

Lors de l'encodage de Schumacher, il est projeté sur un sous-espace typique, mais avant cela, nous devons penser à la base qui diagonale $ \ rho $. Autrement dit, le $ \ rho $ est décomposé spectralement (comme dans l'équation (5)).

\rho = p \ket{\bar{0}} \bra{\bar{0}} +(1-p) \ket{\bar{1}} \bra{\bar{1}}  \tag{35}

Ce sera. ici,

\begin{align}
\ket{\bar{0}} &= \cos \frac{\pi}{8} \ket{0} + \sin \frac{\pi}{8} \ket{1}  \\
\ket{\bar{1}} &= -\sin \frac{\pi}{8} \ket{0} + \cos \frac{\pi}{8} \ket{1}  \tag{36}
\end{align}
p = \frac{1}{4} (3 + \tan \frac{\pi}{8}) = 0.85..  \tag{37}

Est [^ 11].

[^ 11]: L'équation (34) peut être facilement dérivée en substituant les équations (36) et (37) dans l'équation (35). De plus, si l'équation (34) est diagonalisée (résolution du problème des valeurs propres), l'équation (35) (36) (37) peut être dérivée. C'est un exercice simple d'algèbre linéaire.

Sur cette base, $ \ rho $ a une probabilité d'être dans l'état $ \ ket {\ bar {0}} $ $ p \ environ 0,85 $, $ \ ket {\ bar {1}} $. C'est un mélange d'états purs avec une probabilité de $ 1-p \ approchant 0,15 $. L'équation $ \ rho $ originale (34) est représentée par la base $ \ ket {0}, \ ket {1} $, donc la première chose à faire lors de l'encodage de Schumacher est la suivante. C'est une conversion unitaire équivalente à une telle conversion de base.

Comme vous pouvez facilement le voir à partir de l'équation (36), la transformation unitaire est une porte rotative qui tourne autour de l'axe Y de $ - \ pi / 4 $. Vous pouvez l'appliquer séparément pour chacun des 4 bits quantiques.

Ensuite, la probabilité que $ \ ket {\ bar {0}} $ se produise est $ p \ environ 0,85 $, donc l'état du résultat de l'application de cette porte tournante

\sum_{x_1=\bar{0}}^{\bar{1}} \sum_{x_2=\bar{0}}^{\bar{1}} \sum_{x_3=\bar{0}}^{\bar{1}} \sum_{x_4=\bar{0}}^{\bar{1}} C(x_1,x_2,x_3,x_4) \ket{x_1 x_2 x_3 x_4}  \tag{38}

Dans, plus le nombre de $ \ bar {0} $ apparaissant dans $ \ ket {x_1 x_2 x_3 x_4} $ est élevé, plus la probabilité [^ 12] est élevée.

[^ 12]: Pour être exact, 4 $ \ fois 0,85 = 3,4 $, donc la probabilité combinée que le nombre de $ \ bar {0} $ soit d'environ 3,4 $ est très élevée par rapport aux autres. Il devrait grandir. Je dis ça.

Cet état avec un grand nombre de $ \ bar {0} $ est un état qui constitue un sous-espace typique, il suffit donc de le déterminer et d'attribuer un état quantique approprié pour la transmission, mais cette opération est unitaire. La difficulté de la théorie de l'information quantique est qu'elle doit être exécutée comme une transformation. L'idée est de les ranger par ordre croissant du nombre de $ \ bar {1} $ et de les convertir dans un ordre lexical. La liste spécifique est la suivante (je l'ai omis ici car il est difficile de mettre une barre au-dessus de chaque nombre).

\begin{align}
& \ket{0000} \rightarrow \ket{0000} \\
& \ket{0001} \rightarrow \ket{0001} \\
& \ket{0010} \rightarrow \ket{0010} \\
& \ket{0100} \rightarrow \ket{0011} \\
& \ket{1000} \rightarrow \ket{0100} \\
& \ket{0011} \rightarrow \ket{0101} \\
& \ket{0101} \rightarrow \ket{0110} \\
& \ket{0110} \rightarrow \ket{0111} \\ 
& \ket{1001} \rightarrow \ket{1000} \\
& \ket{1010} \rightarrow \ket{1001} \\
& \ket{1100} \rightarrow \ket{1010} \\
& \ket{0111} \rightarrow \ket{1011} \\
& \ket{1011} \rightarrow \ket{1100} \\
& \ket{1101} \rightarrow \ket{1101} \\
& \ket{1110} \rightarrow \ket{1110} \\
& \ket{1111} \rightarrow \ket{1111} \tag{39}
\end{align}

Il vous suffit d'effectuer la conversion. Et ça. Plus le nombre de $ \ bar {1} $ est petit, plus l'ordre est élevé, c'est-à-dire que les états probabilistes sont regroupés en haut, et un bit quantique spécifique (le côté droit des quatre). La conversion est effectuée de manière à ce que de nombreux états puissent être exprimés avec seulement 3 bits quantiques). C'est une opération unitaire car c'est une opération de remplacement dans son ensemble. En d'autres termes, après avoir appliqué la transformation de base à chaque bit quantique, la transformation unitaire correspondant à cette substitution doit être effectuée.

Puisque la vitesse de transmission est fixée à 3 bits quantiques, le bit quantique le plus à gauche est ignoré et seuls les 3 bits quantiques droits sont laissés pour la transmission.

Lors du décodage, ajoutez d'abord les bits quantiques rejetés avec $ \ ket {0} $ pour en faire un état à 4 bits quantiques et exécutez la conversion inverse du remplacement dans l'équation (39). Enfin, la transformation inverse de la transformation de base est effectuée pour chacun des 4 bits quantiques. Cela devrait presque restaurer l'état d'origine.

la mise en oeuvre

J'ai en fait essayé le flux ci-dessus. Voici l'intégralité du code Python.

import numpy as np
from qlazypy import QState,DensOp

PERM = {'0000':'0000', '0001':'0001', '0010':'0010', '0100':'0011',
        '1000':'0100', '0011':'0101', '0101':'0110', '0110':'0111', 
        '1001':'1000', '1010':'1001', '1100':'1010', '0111':'1011',
        '1011':'1100', '1101':'1101', '1110':'1110', '1111':'1111'}

def perm_matrix(PERM):

    dim = len(PERM)
    perm_mat = np.zeros((dim,dim))
    iperm_mat = np.zeros((dim,dim))

    for k,v in PERM.items():
        col = int(k,2)
        row = int(v,2)
        perm_mat[row][col] = 1
        iperm_mat[col][row] = 1

    return (perm_mat, iperm_mat)

def create_densop():

    mat_1 = np.array([[0.75,0.25],[0.25,0.25]])
    de_1 = DensOp(matrix=mat_1)
    de_ini = de_1.composite(num=4)
    de_1.free()

    return de_ini

def coder(de_ini, id_all, id_comp, theta, perm_mat):

    de_tmp = de_ini.clone()
    [de_tmp.ry(i, phase=-theta) for i in id_all]
    de_tmp.apply(perm_mat)
    de_comp = de_tmp.partial(id_comp)  # 4-qubit -> 3-qubit state
    de_tmp.free()

    return de_comp

def decoder(de_comp, id_all, theta, iperm_mat):

    qs_0 = QState(1)
    de_0 = DensOp(qstate=[qs_0])
    de_fin = de_0.tenspro(de_comp)  # add 1-qubit (|0>)
    de_fin.apply(iperm_mat)
    [de_fin.ry(i, phase=theta) for i in id_all]

    qs_0.free()
    de_0.free()

    return de_fin
    
if __name__ == '__main__':

    # settings
    id_all = [0,1,2,3]
    id_comp = [1,2,3]
    theta = 0.25
    (perm_mat,iperm_mat) = perm_matrix(PERM)

    # initial state (4-qubit state)
    de_ini = create_densop()

    # coding (4-qubit -> 3-qubit state)
    de_comp = coder(de_ini, id_all, id_comp, theta, perm_mat)

    # decoding (3-qubit -> 4-qubit state)
    de_fin = decoder(de_comp, id_all, theta, iperm_mat)

    # fidelity
    print("fidelity = {:.6f}".format(de_fin.fidelity(de_ini)))

    de_ini.free()
    de_comp.free()
    de_fin.free()

Je vais expliquer brièvement ce que vous faites. Regardez la section de traitement principale.

# settings
id_all = [0,1,2,3]
id_comp = [1,2,3]
theta = 0.25
(perm_mat,iperm_mat) = perm_matrix(PERM)

Ensuite, définissez la liste de tous les nombres de bits quantiques (id_all) et la liste des nombres de bits quantiques à compresser (id_comp), et définissez l'angle (thêta) pour la conversion de base sur $ 0.25 \ pi $ [^ 13]. .. De plus, la fonction perm_matrix crée une matrice de transformation pour l'opération de substitution et sa matrice de transformation inverse. A ce moment, il fait référence aux données de dictionnaire PERM définies en haut (c'est un dictionnaire correspondant à l'équation (39)). Voir la définition de la fonction pour le contenu de traitement. Vous utiliserez cette matrice de substitution plus tard pour créer une transformation unitaire que vous appliquerez à l'état.

[^ 13]: qlazy utilise $ \ pi $ radian comme unité de tous les angles de rotation, donc si vous spécifiez $ 0,25 $, ce sera 0,25 $ \ pi. Représente $. Je pensais qu'il serait gênant d'écrire $ \ pi $ sur le programme un par un, j'ai donc fait cette spécification, mais c'était la bonne réponse. C'est assez confortable.

# initial state (4-qubit state)
de_ini = create_densop()

Créez l'état initial (opérateur de densité) avec. Dans la fonction create_densop, le processus de création de l'état du produit en collectant quatre opérateurs de densité à 1 quantité correspondant à l'équation (34) est exécuté.

de_ini = de_1.composite(num=4)

Cette ligne est le processus. En donnant l'argument 4 avec la méthode composite (ajoutée dans la v0.0.31), il renvoie l'état du produit de 4 quantum.

# coding (4-qubit -> 3-qubit state)
de_comp = coder(de_ini, id_all, id_comp, theta, perm_mat)

Et encodez-le. Compresse l'état de 4 bits quantiques en 3 bits quantiques. Regardez le contenu du codeur de fonction.

def coder(de_ini, id_all, id_comp, theta, perm_mat):

    de_tmp = de_ini.clone()
    [de_tmp.ry(i, phase=-theta) for i in id_all]
    de_tmp.apply(perm_mat)
    de_comp = de_tmp.partial(id_comp)  # 4-qubit -> 3-qubit state
    de_tmp.free()

    return de_comp

Dans la première ligne, copiez l'état initial (de_ini) dans temporaire (de_tmp) avec la méthode clone, et exécutez le processus pour cela. Dans la deuxième ligne, la base est convertie par la porte rotative (dans la v0.0.30, le traitement de l'opération de porte pour l'opérateur de densité a été ajouté. Pour la porte quantique $ U $, $ U \ rho U ^ {\ dagger} $ Exécuter). Si vous utilisez la notation d'inclusion, vous n'avez besoin que d'une seule ligne. La troisième ligne effectue la conversion unitaire équivalente au remplacement. Si vous spécifiez la matrice de substitution avec la méthode apply, cela ne nécessite également qu'une seule ligne. J'aimerais vraiment le faire avec une combinaison de portes quantiques, mais je l'ai cassée, en sueur [^ 14]. Enfin, sur la 4ème ligne, supprimez le bit quantique le plus à gauche (0ème bit quantique dans le programme) (prenez une trace partielle) et mettez-le dans un état de 3 bits quantiques (de_comp). Je reviendrai ceci.

[^ 14]: En fait, c'est "Exercice pratique 12.6" de Neilsen, Chan. Il est actuellement à l'étude, je vais donc le compléter si je le comprends.

Revenez à la section de traitement principale.

# decoding (3-qubit -> 4-qubit state)
de_fin = decoder(de_comp, id_all, theta, iperm_mat)

Ensuite, entrez l'état à 3 bits quantiques et sortez l'état à 4 bits quantiques décodés. Regardez le contenu du décodeur de fonction.

def decoder(de_comp, id_all, theta, iperm_mat):

    qs_0 = QState(1)
    de_0 = DensOp(qstate=[qs_0])
    de_fin = de_0.tenspro(de_comp)  # add 1-qubit (|0>)
    de_fin.apply(iperm_mat)
    [de_fin.ry(i, phase=theta) for i in id_all]

    qs_0.free()
    de_0.free()

    return de_fin

Préparez l'opérateur de densité pour l'état quantique $ \ ket {0} $ à ajouter dans les première et deuxième lignes (de_0). Dans la troisième ligne, l'état produit de l'état quantique (de_0) et de l'état quantique compressé (de_comp) est créé (de_fin). Sur la ligne 4, l'opération inverse de remplacement est effectuée. La ligne 5 inverse la transformation de base pour chaque bit quantique. Enfin, il renvoie le résultat (de_fin).

Revenez à la section de traitement principale.

# fidelity
print("fidelity = {:.6f}".format(de_fin.fidelity(de_ini)))

Calcule et affiche la fidélité de l'état d'origine (de_ini) et de l'état déchiffré (de_fin). c'est tout.

Contrôle de fonctionnement

Le résultat de l'exécution est affiché. C'est très simple car cela ne montre que la fidélité. Si la fidélité est de 1.0, cela signifie que la compression est obtenue sans erreur.

fidelity = 0.970213

Et il y a eu une légère erreur.

Comme vous pouvez le voir dans l'équation (39), plus vous allez bas, moins il y a de chances que cela se produise. Cependant, il doit avoir une valeur de probabilité finie. Puisque la compression est effectuée de manière à supprimer la moitié inférieure, il est naturel qu'une erreur se produise. Le théorème de codage de Schumacher soutient que cette erreur est suffisamment petite à la limite de $ n \ à \ infty $. Donc, si vous changez la valeur de $ n $ en 40 400 400 $, \ cdots $, vous pouvez voir comment l'erreur devient infiniment petite. Cependant, je ne peux pas essayer un aussi grand nombre de bits quantiques dans le simulateur, alors disons que la simulation de codage Schumacher était possible avec le résultat lorsque $ n = 4 $.

en conclusion

Depuis que j'ai étudié "quand il n'y a pas de bruit" cette fois, j'aimerais aller à "quand il n'y a pas de bruit" la prochaine fois, mais avant cela, il vaut probablement mieux comprendre "correction d'erreur quantique", donc la prochaine fois , Je voudrais attaquer cette direction. Il semble y avoir beaucoup de sujets à couvrir, donc je pense que je vais passer un peu de temps. Après cela, je prévois de dire "quand il y a du bruit" ou "cryptographie quantique" en plus de cela.

c'est tout

Recommended Posts

Bases de la théorie de l'information quantique: compression de données (1)
Bases de la théorie de l'information quantique: compression de données (2)
Bases de la théorie de l'information quantique: Entropie (2)
Bases de la théorie de l'information quantique: limites d'Horebaud
Bases de la théorie de l'information quantique: tomographie d'état quantique
Bases de la théorie de l'information quantique: calcul quantique tolérant aux pannes
Bases de la théorie de l'information quantique: correction d'erreur quantique (code Shor)
Bases de la théorie de l'information quantique: correction d'erreur quantique (code CSS)
Bases de la théorie de l'information quantique: correction d'erreur quantique (code du stabilisateur: 4)
Bases de la théorie de l'information quantique: calcul quantique universel par code de surface (1)
Bases de la théorie de l'information quantique: opération logique par code de surface (Brading)
Lire "Principes de base du recuit quantique" Jour 5
Lire "Les bases du recuit quantique" Jour 6
Principes de base de Tableau (visualisation à l'aide d'informations géographiques)
[Introduction au Data Scientist] Bases de Python ♬
[Pandas] Principes de base du traitement des données de date à l'aide de dt
Les bases de Python ①
Bases de python ①
Principes de base de Pandas pour les débutants ② Présentation des données de saisie
[Bases de la science des données] Collecte de données depuis RSS avec python
Principes de base du grattage Python
# 4 [python] Bases des fonctions
Bases des programmes réseau?
La fondation de la fondation Perceptron
Pré-traitement des données préfectorales
Bases de l'analyse de régression
Sélection des données de mesure
Bases de python: sortie
Compression / décompression du fichier zip
Utilisons les données ferroviaires des informations numériques foncières nationales
Traitement des données qui élimine les effets des facteurs d'intrication (théorie)
[Introduction to Data Scientists] Bases de Python ♬ Fonctions et classes