Идея квантовых компьютеров была предложена Ричардом Фейнманом относительно недавно, около 40 лет назад, и тогда она производила впечатление чего-то невероятного, несмотря на то, что персональные компьютеры уже стали обычным явлением. Однако воплощение смелых идей Фейнмана и Юрия Манина оказалось значительно более сложной задачей, чем предполагалось. Более двух десятилетий ученые и инженеры во всем мире работали над изучением различных способов реализации квантовых битов в физической форме».
Если первая квантовая революция начала ХХ века была, по сути, революцией человеческих представлений об устройстве микромира, то стоящая сейчас на пороге вторая квантовая революция — результат синтеза квантовых парадоксов и высоких технологий. Синтез этот, кстати сказать, произошел относительно недавно, каких-нибудь 20-30 лет назад. Правда, первые мысленные эксперименты, демонстрирующие во всей красе парадоксальность квантового мира (то, что действующие в нем законы неприменимы к привычному нам миру «больших» вещей), зародились в результате жарких споров между отцами-основателями квантовой механики еще в 1930-х. Интересно, что споры эти касались не математического аппарата квантовой механики, который к тому времени был практически закончен, а ее попыток истолковать странные законы микромира на привычном нам языке объектов макромира.
Необходимость интерпретации квантовой механики возникает лишь при ее взаимодействии с привычным нам макромиром. Проще говоря, трудности проявляются, когда квантовые объекты начинают взаимодействовать с классическими системами, такими как измерительное оборудование в лаборатории, что вызывает переход квантовой волновой функции в одно из возможных классических состояний. Эта известная как проблема измерения ситуация вызвала раскол среди физиков, уже принявших квантовую теорию.
Нильс Бор, возглавлявший группу ученых Института теоретической физики в Копенгагене, сформулировал так называемую «копенгагенскую» интерпретацию квантовой механики. Ключевым аспектом этой теории являлось вероятностное описание явлений в микромасштабе: свойства любой квантовой системы остаются неопределенными до момента ее измерения (наблюдения). До измерения квантовая система существует в состоянии «суперпозиции» всех возможных состояний, а при каждом новом измерении могут получаться различные значения этих свойств, определяемые вероятностями их распределения. Например, электрон в атоме может находиться в суперпозиции двух энергетических уровней и при измерении половину времени испускать фотон с большей энергией, а другую половину — с меньшей (о состояниях суперпозиции мы поговорим подробнее позже).
Альберт Эйнштейн, вместе с Эрвином Шрёдингером, возглавлял группу физиков, которые не были согласны с вероятностным подходом, лежащим в основе «копенгагенской интерпретации». Эйнштейн и его соратники протестовали, разрабатывая сложные примеры, призванные показать ограничения квантовой механики. Так, знаменит вопрос Эйнштейна к Бору: «А существует ли Луна, когда на нее никто не смотрит?». Несмотря на то, что Луна является классическим объектом, не управляемым вероятностными законами квантовой механики, в претензиях ученого была определенная логика.
Действительно ли Луна продолжает существовать, если на нее никто не обращает внимания?
Обсуждая свои взгляды в переписке со Шрёдингером, Эйнштейн непреднамеренно побудил его к разработке известного мысленного эксперимента с котом. Этот знаменитый «кот Шрёдингера» был создан, чтобы продемонстрировать нелогичность существования макроскопического объекта — кота — в состоянии квантовой суперпозиции («кот жив» и «кот мертв») до момента открытия коробки. Кроме того, Шрёдингер не просто экстраполировал законы микромира на вполне обыденный, макроскопический кот, но и связал его с квантовым объектом — радиоактивным атомом, состояние которого, определяемое случайным распадом, и определяет исход эксперимента. В современной науке подобное состояние описывается как «связанное» или «запутанное» (entangled).
Не очевидно, как эти интерпретации и мысленные эксперименты связаны со второй квантовой революцией. Однако, они сформировали прочную теоретическую основу для экспериментов, которые физики смогли реализовать лишь через полвека, благодаря развитию микроэлектроники, информационных технологий и научно-инструментальной базы. Именно этот прогресс обеспечил возможность манипулировать отдельными квантовыми объектами. Таким образом, к концу 1980-х формирующаяся область нанотехнологий подготовила научный мир к воплощению в жизнь самых смелых квантовых экспериментов, о которых когда-то мечтали Бор, Эйнштейн и Шрёдингер.
Как представить себе квантовое состояние?
Отойдем ненадолго от основного повествования и попробуем визуализировать суперпозицию состояний одного кубита. Для этого удобно использовать сферическую модель, названную в честь нобелевского лауреата Феликса Блоха. Базисные состояния кубита — классические значения 0 и 1, которые можно получить при его измерении — располагаются на вертикальной оси, проходящей через центр сферы. Квантовое состояние суперпозиции определяется вектором, проведенным от центра сферы до любой точки на ее поверхности.
Чем ближе точка к вертикальной оси, тем больше ее квантовое состояние соответствует одному из классических состояний, а чем ближе к экватору — тем более непредсказуемым будет результат измерения. По сути, измерение квантового состояния кубита представляет собой проекцию вектора состояния на вертикальную ось или, что является тем же самым, определение коэффициентов, характеризующих вклад базисных состояний в суперпозицию. В связи с вероятностной природой квантовой механики для получения статистически значимого результата такие измерения необходимо повторять многократно. К тому же, в реальных экспериментах под воздействием различных помех обычно наблюдается не полный, а усеченный вектор, указывающий на одну из точек внутри сферы Блоха, но не достигает ее поверхности.
Визуализация квантового состояния для систем, состоящих из нескольких кубитов, представляет собой значительно более сложная задача. Если кубиты не связаны между собой, каждый из них можно описать с помощью сферы Блоха, однако общее состояние суперпозиции запутанных кубитов таким образом изобразить невозможно. В этом случае используют так называемую матрицу плотности, визуализация элементов которой не вызывает затруднений. Процесс определения этих элементов называется «квантовой томографией» – это реконструкция неизвестного квантового состояния посредством последовательности повторных измерений, и она является завершающим этапом любого квантового алгоритма.
Пророческий дар Фейнмана
В середине XX века значительный вклад в становление нанотехнологий как отдельной научной дисциплины внес выдающийся физик, лауреат Нобелевской премии и известный популяризатор науки Ричард Фейнман. В конце 1959 года, на собрании Американского физического общества, он представил ставшую знаковым доклад «Внизу много места: приглашение войти в новую область физики». В нем Фейнман рассматривал возможность управления материей на уровне отдельных атомов, а также создания новых типов микроскопов для изучения наномасштабов, самодостаточных молекулярных механизмов и миниатюрных хирургических роботов.
Несмотря на необычный для середины XX века стиль речи Фейнмана, многие его идеи нашли воплощение в последующие десятилетия. В 1974 году термин «нанотехнологии» был официально введен в научный обиход благодаря японскому ученому Норио Танигути и получил дальнейшее развитие благодаря американскому исследователю Эрику Дрекслеру, которого часто называют «отцом нанотехнологий». В 1986 году Дрекслер опубликовал свою известную работу «Машины созидания: грядущая эра нанотехнологии» («Engines of Creation: The Coming Era of Nanotechnology»), которая вызвала широкий общественный интерес и оказала влияние на создание американской национальной программы по нанотехнологиям. В 1980-х годах были разработаны новые микроскопы для изучения и визуализации объектов в наномасштабе, в частности, сканирующий туннельный микроскоп (СТМ) и атомно-силовой микроскоп (АСМ). Вскоре эти инструменты стали использоваться не только для наблюдения, но и для манипулирования отдельными нанообъектами, вплоть до отдельных атомов.
Интересно, что спустя 20 лет после публикации своего манифеста о нанотехнологиях, в 1981 году, Ричард Фейнман выступил с еще одной лекцией, которая оказалась пророческой. Она привлекла внимание научного сообщества и оставила заметный след в истории науки. На этот раз предложенная концепция показалась еще более смелой: создание принципиально новых вычислительных машин — квантовых компьютеров. Они функционируют на основе законов квантовой физики и позволяют использовать ее необычайный потенциал для выполнения вычислений с беспрецедентной скоростью. Подобные идеи квантовых вычислителей также появились в работах американского физика Пола Бениоффа и советского ученого Юрия Манина.
Включение даже одного электрона в квантово-механическую систему, такую как атом или молекула, приводит к тому, что решение уравнения Шрёдингера, определяющего ее поведение, становится как минимум в два раза сложнее
Фейнман, в отличие от других докладчиков, сосредоточился не на квантовых вычислениях как таковых, а на перспективах быстрого и точного моделирования разнообразных квантовых систем с помощью квантовых компьютеров. При этом вычисления подразумевают выполнение любого произвольного алгоритма, а моделирование – решение специфического класса задач, использующего особенности самой системы. Эта задача по-прежнему требует экспоненциальных вычислительных ресурсов, что характерно как для первых электронно-вычислительных машин, так и для современных суперкомпьютеров. Причина заключается в том, что добавление всего одного электрона в квантово-механическую систему (например, атом или молекулу) приводит к усложнению решения уравнения Шрёдингера более чем вдвое. Поэтому проведение точных расчетов для систем, содержащих более двух десятков электронов, становится чрезвычайно затратным по времени и ресурсам, хотя именно такие квантовые системы представляют наибольший практический интерес, поскольку в реальных задачах и научных исследованиях мы сталкиваемся не только с атомами водорода, но и со сложными молекулами, состоящими из множества электронов.
Квантовый компьютер, более точно называемый «квантовым симулятором», способен решить подобную задачу экспоненциально быстрее. Эта существенная разница в скорости достигается благодаря тому, что в квантовом компьютере все операции выполняются с квантовыми объектами — кубитами. В отличие от классических битов, кубиты не ограничиваются значениями 0 и 1, но могут одновременно принимать все значения между ними благодаря принципу суперпозиции. А взаимодействующие друг с другом несколько десятков кубитов способны образовывать общее состояние суперпозиции, для классического описания которого не хватит памяти даже самого мощного суперкомпьютера. С другой стороны, такая система кубитов может легко и даже естественно (не нужно добавлять квантовые свойства молекуле как опцию при вычислениях, они у нее и так есть) симулировать поведение атомов или молекул, так как в квантовом симуляторе по умолчанию работают необходимые квантовые эффекты, на расчет которых обычно тратятся большие ресурсы при моделировании этих систем на классических компьютерах.
Пророчество сбывается
Реализация смелых идей Фейнмана и его соратников оказалась сложной задачей. Только в конце 1990-х годов ученым удалось провести первые эксперименты, обеспечивающие достаточную точность управления изолированными квантовыми системами. Однако такое несоответствие в экспериментальной реализации не препятствовало интенсивному развитию теории квантовой информации и квантовых вычислений в течение полутора десятилетий, последовавших за лекцией Фейнмана. В начале 1990-х, благодаря трудам нескольких исследователей, были разработаны первые квантовые алгоритмы — алгоритм Дойча, алгоритм Джозы и алгоритм Бернштейна — Вазирани, — демонстрирующие превосходство над классическими аналогами. Немного позже, опираясь на работы канадского ученого Дэна Саймона, американский теоретик Питер Шор предложил квантовый алгоритм факторизации чисел.
Алгоритм Шора стал важной вехой, ознаменовавшей рост интереса к квантовым компьютерам, в особенности среди организаций и государственных структур, работающих в сфере компьютерной безопасности. Несмотря на то, что разложение чисел на простые множители (факторизация) может показаться далеким от кибербезопасности, этот процесс значительно сложнее для классических компьютеров, чем перемножение двух чисел (особенно если они очень велики), и этот факт лежит в основе работы некоторых алгоритмов шифрования.
RSA, названный в честь его создателей Ривеста, Шамира и Адлемана, стал настолько популярным способом защиты данных, передаваемых по сети, что сегодня трудно найти веб-сайт или приложение, которое бы им не применялось (например, в протоколе SSL, используемом для безопасных онлайн-платежей). Однако, с разработкой алгоритма Шора возникла угроза: все зашифрованные таким образом данные могут быть относительно быстро дешифрованы, даже без знания ключей шифрования. Для этого потребуется лишь собрать квантовый компьютер, запустить на нем алгоритм Шора (который находится в открытом доступе), и конфиденциальные банковские операции или секретная корреспонденция окажутся под контролем злоумышленника!
Создание квантового компьютера оказалось сложной задачей. На протяжении почти двух десятилетий ученые и инженеры по всему миру исследовали различные способы реализации квантовых битов в физической форме. Среди первых претендентов на роль кубитов стали органические молекулы в растворах, спином ядер которых можно управлять с помощью ядерного магнитного резонанса (ЯМР). В 1998 году американские физики впервые создали квантовый процессор на ЯМР, содержащий два кубита. На этом же процессоре был продемонстрирован алгоритм Гровера, известный своим быстрым поиском в несортированных базах данных, опубликованный двумя годами ранее. К началу 2000-х количество кубитов в ЯМР-системах достигло семи, и именно на них впервые был реализован работающий алгоритм Шора (хотя он и смог разложить на множители лишь число 15, доступное для манипуляций).
Расширить применение этого метода оказалось сложно из-за диффузии и шумов, свойственных жидкостям, хотя его развитие продолжается в твердотельных системах, таких как дефекты в алмазах. Аналогичную технологию, использующую для реализации кубитов не ядерные, а электронные спины, разрабатывают в спиновых кубитах на квантовых точках в полупроводниках.
Нейтральные атомы и ионы, удерживаемые в электромагнитных ловушках, были предложены как альтернативная аппаратная база для квантовых вычислений, практически одновременно с ЯМР-кубитами. С момента создания первого ионного кубита в середине 1990-х годов, современные квантовые процессоры на их основе включают уже более двух десятков кубитов, способных к взаимодействию. Количество атомов и ионов, используемых в специализированных квантовых симуляторах, где не требуется полная взаимосвязанность кубитов, превысило две сотни. Помимо нескольких нобелевских лауреатов, занимающихся развитием этой технологической платформы, поддержку и инвестиции в нее оказывают крупные корпорации (Honeywell, Infineon) и технологические стартапы (ColdQuanta, IonQ, Atom Computing).
Изначальный подход Фейнмана, предполагающий создание кубитов на основе фотонов, также активно развивается. До начала 2000-х годов его практическая реализация была затруднена из-за того, что фотоны, используя обычные линейные оптические элементы, такие как зеркала, не способны к прямому взаимодействию. Однако, публикация новаторской научной работы на рубеже веков открыла путь к новой парадигме линейных квантово-оптических вычислений (KLM-протокол, аббревиатура, образованная из имен трех авторов). В данном протоколе состояние суперпозиции достигается за счет прохождения фотонов через систему интерферометров, что приводит к их косвенному взаимодействию. В сочетании с появившимся спустя десятилетие бозонным семплингом, этот метод стал быстро приобретать популярность, чему способствовало развитие интегрированной фотоники на чипе. Среди компаний, активно продвигающих эту технологическую платформу квантовых вычислений, можно выделить NTT, PsiQuantum, Xanadu, QuiX, Sparrow Quantum, ORCA Computing и ряд других.
Следующий кандидат на роль строительного элемента для универсальных квантовых компьютеров отличается от ранее упомянутых квантовых объектов по одному признаку — его габаритам. В отличие от действительно квантовых частиц, таких как атомы и фотоны, сверхпроводящие кубиты имеют заметно большие, макроскопические размеры, обычно составляющие доли миллиметра. Квантовые состояния в таких системах возникают благодаря макроскопическому квантовому туннелированию, которое происходит при прохождении тока через небольшой барьер в сверхпроводящем кольце (джозефсоновский переход, названный в честь первооткрывателя этого эффекта, Брайана Джозефсона). Кубиты на основе джозефсоновских переходов впервые были созданы в 1999 году в Японии, а к 2016-му уже были разработаны квантовые процессоры с десятком сверхпроводящих кубитов.
Крупнейшие технологические компании, такие как Google и IBM, активно участвуют в развитии квантовых вычислений и уже достигли отметки в 50 сверхпроводящих кубитов. В течение года-двух они планируют преодолеть рубеж в сотню кубитов, способных работать совместно. Хотя теоретически компьютер с 100 кубитами должен быть в триллион раз быстрее, чем система с 50 кубитами, реальные возможности пока скромнее).
Стремительное развитие квантовых вычислений поражает не только увеличением количества кубитов. Происходит совершенствование и других параметров: характеристик отдельных кубитов, операций над ними (квантовых гейтов), процессов считывания и записи квантовых состояний, а также интерфейсов для работы с кубитами и инструментов разработки квантовых алгоритмов. Программа IBM Quantum Experience, запущенная в 2016 году, предоставила возможность всем желающим получить доступ через интернет к программным симуляторам и реальным квантовым процессорам, что значительно расширило доступность квантовых вычислений для широкого круга пользователей.
Многие крупные компании уже предлагают платные подписки на доступ к своим квантовым ресурсам. Так, IBM в 2019 году представила первый квантовый компьютер IBM Quantum One, основанный на сверхпроводящих кубитах, и сделал его доступным для коммерческого использования (первую такую систему установили в Исследовательском центре Фраунгофера в Германии). Несколько высокотехнологичных стартапов, включая IQM, Rigetti, Quantum Circuits, Seeqc и другие, также готовятся предложить аналогичные решения на рынке.
Развитие квантовых технологий в России идет схожим путем. Первые прикладные исследования в этой области стартовали примерно десять лет назад, и на данный момент параллельно развиваются сразу несколько многообещающих подходов к физической реализации квантовых процессоров (сверхпроводники, ионы и нейтральные атомы, фотоны). Этот значительный прогресс стал возможен благодаря активной грантовой поддержке, которая обеспечила создание современных лабораторий, а также принятию правительством в 2019 году дорожной карты «Квантовые технологии». В рамках этой программы «Росатом» отвечает за разработку квантового процессора и объединяет ведущие лаборатории и исследовательские центры, обладающие опытом в данной сфере.
Когда можно ожидать появления квантовых компьютеров в каждом доме? Или, как минимум, в каждом университете? Какие факторы препятствуют их немедленному появлению на рынке? Ответы на эти и другие актуальные вопросы о квантовых компьютерах и возможностях их использования будут представлены в следующей статье нашей серии.
Это продолжение цикла статей, посвященных квантовым компьютерам, созданного в рамках спецпроекта совместно с Homo Science. Первую часть можете прочитать по ссылке.