Квантовая магия - Доронин Сергей Иванович (читать книги онлайн без сокращений .TXT) 📗
I=
Tr
(
ρ 2). (3.7)Это определение легко объясняется с физической точки зрения. Согласно обычным правилам квантовой механики, любой физической величине, которую мы хотим использовать в качестве количественной характеристики системы, ставится в соответствие линейный самосопряженный оператор Q. И численное значение этой физической величины получается из выражения:
< Q> =
Tr
(ρ
Q). (3.8)Сравнивая с предыдущим выражением, мы видим, что меру информации можно рассматривать как количественную характеристику системы, когда физической величиной является сама система, точнее, матрица плотности, выступающая в данном случае в качестве оператора физической величины, то есть
I= <
ρ
> =
Tr
(
ρ
ρ
).Из этого следует, что квантовая информация является самой фундаментальной количественной характеристикой системы, поскольку для ее определения нет необходимости вводить дополнительные соображения о том, какие еще физические величины (операторы) характерны для данной системы. Квантовая информация как мера существует всегда, если есть система, независимо от того, в каком состоянии она находится. Информация сама по себе является физической сущностью и существует даже тогда, когда система находится в нелокальном состоянии, поэтому ее можно считать «первичной субстанцией», из которой в процессе декогеренции могут «проявляться» локальные объекты. «Информация
физична
» в прямом смысле — она является источником всех других физических процессов и материальных проявлений, которые могут иметь место в системе.Отсюда и более высокий статус квантовой информации относительно других физических величин, которые мы могли бы дополнительно привлечь для описания системы. А поэтому выше и значимость закона сохранения квантовой информации по сравнению с другими законами сохранения (массы, энергии, импульса и т. д.), о чем уже говорилось в первой главе (заключительная часть раздела 1.2).
Мы рассмотрели, каким образом вводится мера информации, исходя из основополагающих принципов квантовой теории. При таком определении для любого чистого состояния (замкнутой системы) мера информации равна 1 (следствие нормировки амплитуд вектора состояния). Это максимальное значение — то есть для любой изолированной системы информация максимальна и равна единице. Для смешанных состояний (открытых систем) информация меньше единицы, и минимальное ее значение достигается для максимально смешанных состояний и равно 1/ d, где d= 2 N — размерность гильбертова пространства ( N— число двухуровневых подсистем). Таким образом, количество информации, содержащейся в системе, изменяется от 1/2 N для максимально смешанных состояний до 1 для чистых состояний (изолированных систем). С физической точки зрения это легко объяснить. В замкнутой системе вся информация содержится в ней самой, и нормированная ее величина равна 1. Для смешанных состояний, то есть для систем, взаимодействующих со своим окружением, часть информации о системе теряется в ее окружении. И минимум информации, который может остаться в самой системе (случай максимально смешанного состояния), определяется числом локализованных структур в системе в процессе декогеренции (напомню, что взаимодействие с окружением сопровождается декогеренцией, то есть локализацией системы и ее составных частей из изначально нелокального информационного состояния).
Однако определение (3.7) не совсем удобно в практическом плане. Для нас привычнее иметь дело с аддитивными величинами, когда информация составной системы равняется сумме частичных информаций. А согласно определению (3.7), информация не суммируется, а перемножается. Так, для двусоставной системы (в случае некоррелированного, то есть
сепарабельного
состояния):I AB=
Tr
(ρ АВ
) 2=Tr
(ρ А
) 2Tr
(ρ В
) 2= I A I B.Поэтому
удобнее
оказалось перейти к логарифму от этой величины. Поскольку логарифм произведения равен сумме логарифмов сомножителей, получаласьаддитивность
. При этомln
[Tr
( ρ 2)] изменяется в пределах от —ln d
до 0.Из статистической механики известно, что на больших временах энтропия системы соответствует среднему значению — k
ln ρ
, где k— постоянная Больцмана, так что согласно (3.8) имеем:<— k
ln ρ
> = — k
Tr
(
ρ
ln ρ
)Отсюда связь между количеством информации в системе и энтропией
Tr
(ρ
ln ρ
) = <ln ρ
>, которая называется энтропией фон Нейманаи чаще всего используется сейчас в качестве меры квантовой информации. Она и была введена в качестве первой меры квантовой запутанности, которая определяется выражением (3.6). Различие между натуральным логарифмом и логарифмом по основанию 2 в данном случае не принципиально.Заметим, что
Tr
(ρ
ln ρ
) иln
[Tr
( ρ 2)] изменяются в одних и тех же пределах и никогда сильно не отличаются друг от друга. Однако при использовании этой меры, чтобы получить положительное число, приходится в выражениях ставить знак минус, как в (3.6). При этом иногда забывается, что при переходе к логарифму с информацией произошел своеобразный «перевертыш»: там, где был минимум информации, — теперь стал максимум, а максимум информации (единица для чистого состояния) обратился в нуль. Хотя и эту ситуацию можно трактовать так, что, с точки зрения внешнего наблюдателя, о чистом состоянии он ничего не может сказать, поскольку это замкнутая система, которую наблюдатель еще не «потревожил» своим измерением.Квантовая теория
информации
таким образом непосредственно связывает информацию с энергией через энтропию фон Неймана, которую можно считать основной физической характеристикой энергоинформационного процесса. Изменение информации сопровождается изменением энергии, а обмен информацией напрямую связан с обменом энергией (справедливо и обратное) — это еще один важный вывод, который сделан в физике квантовой информации.Есть и отдельные строгие результаты, связывающие информацию, энергию и энтропию. В частности, теорема
Марголюса-Левитина [91]
утверждает, что число элементарных логических операций, которые физическая система может выполнить в единицу времени, ограничено энергией системы, а количество информации, которую система может зарегистрировать (воспринять), ограничено ее собственной максимальной энтропией [92].Прямая связь между энергией и выполняемыми логическими операциями (информационными процессами) позволяет перекинуть мостик к физическим процессам, сопровождающим работу сознания, поскольку она непосредственно связана с логическими операциями.
Информация в терминах энтропии фон Неймана позволяет описывать запутанные состояния. Одна из основных особенностей этого понятия состоит в том, что об объекте, находящемся в чистом запутанном состоянии (
ρ
= ρ 2), невозможно получить никакой информации, поскольку в этом случае из (3.6) следует E( ρ) = 0. Энтропия фон Неймана и квантовая запутанность может быть отлична от нуля только для подсистем, которые взаимодействуют со своим окружением, и поэтому находятся внесепарабельном
состоянии.