Los grandes mitos de la computación cuántica analizados por un equipo internacional de físicos: ¿qué pueden hacer realmente los ordenadores cuánticos?

La computación cuántica ha sido fuente de fascinación y promesas extraordinarias desde que emergieron las primeras teorías. Sin embargo, no todo es como parece en este campo: el potencial de los ordenadores cuánticos está tan envuelto en mitos como en posibilidades reales. Un equipo internacional de expertos, liderado por Zoltán Zimborás, ha publicado un artículo en el que desmantelan seis mitos persistentes sobre la computación cuántica, abordando desde la utilidad de la mitigación de errores hasta la viabilidad de los algoritmos variacionales.

Aunque las nociones erróneas pueden parecer solo un detalle en el desarrollo de esta tecnología, entenderlas es clave para evitar malentendidos sobre lo que los ordenadores cuánticos pueden y no pueden hacer en su etapa actual. ¿Puede la computación cuántica cumplir con las expectativas? ¿Qué retos reales enfrentamos para alcanzar una “ventaja cuántica”? Este artículo desentraña estas cuestiones con un enfoque claro y crítico.

La era NISQ y el impacto de las expectativas en la computación cuántica

El concepto de la tecnología cuántica de escala intermedia ruidosa (NISQ), introducido en 2018 por John Preskill, marcó el inicio de una nueva etapa en la computación cuántica. Aunque generó un entusiasmo inicial y expectativas muy altas, investigaciones posteriores han mostrado importantes limitaciones en los métodos compatibles con esta etapa tecnológica. Estas limitaciones han llevado a una percepción más crítica y, a veces, negativa sobre las capacidades de la computación cuántica en el corto plazo. Sin embargo, es fundamental distinguir entre los desafíos teóricos que se presentan en escenarios ideales y las oportunidades prácticas que aún pueden aprovecharse en esta fase intermedia.

En este análisis, buscamos desmentir creencias comunes, o “mitos”, en torno a técnicas como la mitigación de errores y los algoritmos cuánticos variacionales.

Zoltán Zimborás

El desarrollo del hardware cuántico se encuentra en una transición continua, desde las primeras etapas de la era NISQ hasta lo que algunos llaman su fase tardía, y más adelante, a la tolerancia inicial y total a fallos. Este contexto sirve como marco para entender y reevaluar creencias generalizadas, o “mitos”, sobre la computación cuántica. El objetivo es identificar qué ideas sobre las capacidades y limitaciones actuales están basadas en malentendidos, y mostrar cómo herramientas diseñadas para dispositivos actuales pueden evolucionar hacia aplicaciones prácticas a medida que la tecnología avanza.

El desarrollo del hardware cuántico se encuentra en una transición continua. Fuente: Midjourney / Eugenio Fdz.

Mito 1: La mitigación de errores cuánticos es inútil

Una de las ideas más discutidas en el artículo es que la mitigación de errores cuánticos (QEM, por sus siglas en inglés) es poco útil debido a sus límites de escalabilidad. Según los críticos, los métodos actuales requieren un número de mediciones que crece exponencialmente con el tamaño del circuito cuántico, lo que los hace inviables en sistemas prácticos.

Los errores cuánticos son desviaciones no deseadas que ocurren durante las operaciones en un sistema cuántico, generalmente debido a la interacción con el entorno o a imperfecciones en el hardware. Estos errores pueden alterar la precisión de los cálculos cuánticos y, a diferencia de los errores clásicos, están profundamente ligados a las propiedades únicas de los qubits, como la superposición y el entrelazamiento. Para contrarrestarlos, la mitigación de errores cuánticos (QEM) busca reducir los efectos del ruido y las interferencias sin requerir la complejidad de un sistema de corrección de errores completo. Esto se logra mediante técnicas como extrapolaciones o ajustes en las mediciones, permitiendo resultados más precisos en circuitos que, de otro modo, estarían limitados por el ruido inherente del sistema.

Sin embargo, el equipo de Zimborás argumenta que esta visión ignora importantes matices. Aunque el aumento de muestras necesarias es un problema, factores como la tasa de error de las puertas cuánticas (ε) son determinantes. En palabras del artículo, el hecho de que las técnicas de mitigación de errores escalen exponencialmente no significa que sean inútiles por definición”. De hecho, las tasas de error actuales ya permiten circuitos útiles, y con mejoras continuas en el hardware, estas técnicas pueden extenderse a sistemas más avanzados.

El artículo también destaca que la mitigación de errores seguirá siendo relevante incluso en dispositivos cuánticos parcialmente tolerantes a fallos. Esto sugiere que no estamos ante un obstáculo insalvable, sino ante un desafío que requiere innovación constante.

Mito 2: Los circuitos grandes no son viables sin corrección de errores

Se asume comúnmente que los circuitos cuánticos grandes no pueden ejecutarse sin un sistema de corrección de errores completo, lo que limita la utilidad de los ordenadores cuánticos en problemas prácticos. Este mito está respaldado por los altos requisitos de precisión que imponen los circuitos de gran escala.

El artículo refuta esta afirmación al mostrar que los avances recientes en hardware cuántico permiten ejecutar circuitos moderados con aplicaciones reales. De hecho, ciertos experimentos ya han logrado cálculos que serían imposibles de simular en ordenadores clásicos actuales. Según el paper, “en dispositivos pre-tolerantes a fallos, las tasas de error físicas establecen un límite firme en el tamaño de los circuitos ejecutables”. Sin embargo, con estrategias optimizadas, es posible abordar problemas útiles en el corto plazo, especialmente en simulaciones de sistemas cuánticos.

Se asume comúnmente que los circuitos cuánticos grandes no pueden ejecutarse sin un sistema de corrección de errores completo. Midjourney / Eugenio Fdz.

Mito 3: La mitigación y corrección de errores son mundos separados

Un tercer mito es que, una vez que se alcance la corrección de errores cuánticos completa, la mitigación de errores será obsoleta. Esto crea una percepción de separación absoluta entre estas dos técnicas.

En realidad, el equipo destaca que ambos enfoques serán complementarios por mucho tiempo. Las primeras generaciones de sistemas tolerantes a fallos tendrán limitaciones importantes, incluyendo tasas de error lógicas no despreciables. En este contexto, las técnicas de mitigación pueden adaptarse para abordar estos errores, extendiendo su relevancia. Según el artículo, “la computación cuántica probablemente pasará por varias etapas evolutivas donde la mitigación de errores será un habilitador clave” . Esta integración podría ser esencial para superar las limitaciones del hardware cuántico inicial.

Mito 4: Los algoritmos variacionales son inviables por las barren plateaus

Los algoritmos cuánticos variacionales (VQAs, por sus siglas en inglés) han recibido críticas por su supuesta dificultad para entrenarse en problemas de mayor escala debido a fenómenos como las barren plateaus (áreas planas en el paisaje de pérdida que dificultan la optimización). Este fenómeno hace que los gradientes necesarios para entrenar el modelo sean prácticamente nulos.

El término barren plateaus se refiere a regiones del espacio de parámetros donde el paisaje de pérdida es casi completamente plano. Esto ocurre durante el entrenamiento de algoritmos cuánticos variacionales, cuando los gradientes, que son esenciales para optimizar el modelo, se vuelven extremadamente pequeños o incluso nulos. En estas condiciones, resulta prácticamente imposible identificar la dirección correcta para ajustar los parámetros, lo que hace que el entrenamiento sea ineficaz. Este fenómeno suele estar relacionado con circuitos cuánticos complejos y con la estructura de los parámetros iniciales, representando un reto particular para escalar estos algoritmos a problemas más grandes o más útiles en la práctica.

El equipo reconoce estas limitaciones, pero enfatiza que no son insalvables. “Aunque las barren plateaus presentan un desafío significativo, estrategias como las inicializaciones específicas y los Ansatz físicamente motivados pueden mitigar este problema en ciertas aplicaciones”. Además, sugieren que los algoritmos variacionales pueden combinarse con métodos clásicos para lograr resultados útiles, incluso en dispositivos cuánticos actuales.

En el contexto de los algoritmos cuánticos, un Ansatz es una suposición o aproximación inicial sobre la forma que debe tener el estado cuántico o el circuito para resolver un problema específico. Es un punto de partida diseñado para reducir la complejidad del espacio de búsqueda y hacer más eficiente el proceso de optimización. Los Ansatz físicamente motivados se basan en principios físicos del problema en cuestión, como las interacciones entre partículas en un sistema químico o propiedades conocidas de un material.

Vista futurista de una ciudad cuántica flotante en el cielo, con estructuras tecnológicas avanzadas y naves iluminadas con tonos azules. Fuente: Midjourney / Eugenio Fdz.

Mito 5: Los algoritmos variacionales solo son útiles en la era NISQ

Otro mito sugiere que los algoritmos variacionales serán irrelevantes cuando superemos la era de la computación cuántica intermedia y ruidosa (NISQ). Sin embargo, los autores señalan que estos métodos tienen aplicaciones más allá de esta fase, especialmente como componentes auxiliares en algoritmos cuánticos más avanzados.

Los algoritmos variacionales pueden usarse para aproximar estados iniciales en procesos más complejos, como la estimación de fase cuántica. Por otra parte, en sistemas tolerantes a fallos, pueden aprovechar técnicas avanzadas de mitigación de errores para reducir los recursos necesarios, manteniendo su relevancia en el futuro.

Para aclarar la diferencia entre la relevancia de los algoritmos variacionales y la relación entre mitigación y corrección de errores, es importante entender que los algoritmos variacionales (VQAs) son una herramienta específica diseñada para aprovechar la flexibilidad de los dispositivos cuánticos ruidosos, mientras que la mitigación de errores (QEM) y la corrección de errores (QEC) son técnicas generales destinadas a mejorar la calidad de los cálculos cuánticos. Mientras que el mito 3 se centra en cómo la mitigación y corrección de errores coexistirán y se complementarán incluso en sistemas avanzados, el mito 5 destaca que los VQAs no están limitados a la era NISQ. Por el contrario, pueden evolucionar para desempeñar roles importantes en dispositivos tolerantes a fallos, como aproximar estados iniciales o integrar estrategias de optimización híbrida, mostrando su utilidad más allá de los sistemas ruidosos.

Mito 6: Aún no hay pruebas de ventajas exponenciales prácticas

Finalmente, el equipo aborda la falta de pruebas contundentes de ventajas exponenciales en aplicaciones comerciales como la química cuántica o el aprendizaje automático. Aunque esto es cierto, el artículo sostiene que esto no invalida el potencial de la computación cuántica. En palabras de los autores, “es razonable esperar que las computadoras cuánticas lleguen a proporcionar ventajas significativas en problemas prácticos”.

La simulación de sistemas cuánticos complejos, por ejemplo, ya se perfila como una de las áreas con mayor potencial para demostrar una ventaja cuántica temprana. Esto no solo impulsaría la investigación científica, sino también aplicaciones industriales de gran impacto.

Referencias

  • Zoltán Zimborás, Bálint Koczor, Zoë Holmes, et al. Myths around quantum computation before full fault tolerance: What no-go theorems rule out and what they don’t. (Pre-print) arXiv. 10 de enero de 2025. DOI: 10.22331/q-2025-01-10-1234.

Cortesía de Muy Interesante



Dejanos un comentario: