Diario de Castilla y León

VALLADOLID

El 'reset' vallisoletano de los ordenadores cuánticos

Un equipo vallisoletano crea códigos correctores que van a permitir que estas computadoras desarrollen todo su potencial / Este método recupera la información almacenada, aunque uno o varios servidores fallen

Dos investigadores en las instalaciones de la Universidad de Valladolid

Dos investigadores en las instalaciones de la Universidad de ValladolidJ.M. LOSTAU

Publicado por
Valladolid

Creado:

Actualizado:

Su día a día se guía por la geometría algebraica, una rama de las matemáticas que estudia los objetos y figuras, definidos por ecuaciones de polinomios en varias variables. También trabajan en métodos computacionales, es decir, en cálculos simbólicos en ordenador que permiten resolver los sistemas de ecuaciones polinomiales. Para ello, se rodean de las mejores armas, como son los ‘microscopios matemáticos’, que enfocan los puntos donde las propiedades geométricas se vuelven más inesperadas e interesantes. Sin dejar de lado las singularidades de foliaciones o, en otras palabras, dibujan flechas de cómo se comporta el viento.

Matemáticas que resuelven problemas reales. ¿Cómo? La información que se envía o se almacena está sometida a ‘ruido’, lo que compromete su integridad. Por ejemplo, una interferencia cuando usamos el teléfono móvil o un rayón en un DVD impedirían que se pueda tener una conversación telefónica o ver una película de manera fiable. De igual forma, sucede con la información que es

transmitida a través de una red de comunicaciones como internet.

Para brindar esos datos se añade redundancia, información extra y en principio innecesaria, pero que ayuda a recuperar la información original, aunque parte de esos datos se pierdan o alteren. El desafío, por tanto, se basa en añadir esa redundancia de manera moderada para poder corregir muchos errores haciendo cálculos sencillos. Desde la aparición de la teoría de códigos a finales de la década de 1940, los métodos algebraicos, geométricos y combinatorios han demostrado ser herramientas fundamentales para abordar y describir los problemas relacionados con la construcción y uso de códigos correctores de errores.

Un ordenador cuántico tiene potencial para resolver algunos problemas complejos de manera mucho más rápida que los ordenadores clásicos, gracias a los principios de la mecánica cuántica. Por tanto, van a traer una revolución en la industria, medicina, seguridad informática, etc. Sin embargo, la corrección de errores es crucial en estas computadoras porque son mucho más susceptibles a errores debidos a interferencias externas, interaccionan con su entorno, y se produce lo que se denomina decoherencia cuántica.

De hecho, una de las principales dificultades a la hora de utilizar estos ordenadores en la actualidad es la conocida como la computación cuántica tolerante a fallos. Debido a la decoherencia, es posible que durante el propio proceso de cálculo se introduzcan errores en los qubits (el análogo de los bits en información cuántica) que se utilizan. Mediante el uso de determinados códigos correctores de fallos cuánticos, es posible obtener qubits resistentes a errores para ciertas operaciones, es decir, podemos utilizarlos para obtener el resultado de esas operaciones de manera correcta.

El equipo vallisoletano dirigido por Diego Ruano Benito ha diseñado códigos correctores clásicos y cuánticos que ofrecen la posibilidad de que los ordenadores cuánticos desarrollen todo su potencial en un futuro cercano. «Nuestras técnicas de códigos correctores son esenciales para almacenar la información de nuestros móviles, hospitales, empresas y bancos en la nube. Evidentemente no queremos que esa información pudiera perderse. Aunque los usuarios no seamos conscientes de ello, la cantidad de información es enorme y se almacena de forma distribuida en varios servidores para que el acceso a ella sea más seguro y eficiente. Para ello se usan códigos correctores que permiten tener la certeza de que la información se va a poder recuperar, aunque uno o varios servidores fallen», detalla.

En concreto, comenta que se utilizan unos códigos llamados localmente recuperables que posibilitan recuperar la información utilizando sólo unos pocos de los otros servidores. Esta es la estrategia que siguen empresas como Google y Facebook. De esta forma, Ruano Benito comenta que se construyen códigos que garantizan una recuperación más rápida, eficiente y ecológica, puesto que reducen el consumo de energía.

No es el único proyecto en el que están trabajando. Otro de los trabajos, tal y como explica, va dirigido a la ciberseguridad y el aprendizaje automático. La primera es conocida como la recuperación de información privada. «Es una parte de la criptografía que proporciona privacidad al usuario de una base de datos con información sensible, por ejemplo, datos clínicos. De esta manera el usuario que consulta la base de datos, puede hacerlo sin que el gestor de los datos sepa qué información está consultando». Esta técnica se aplica también a datos en la nube que son almacenados de forma distribuida. Están creando métodos que involucran cálculos más sencillos y rápidos.

El desarrollo de los ordenadores cuánticos tiene muchas ventajas, si bien supone un importante desafío en ciberseguridad. «Los sistemas de cifrado que se usan en internet o en el intercambio de información de forma remota llamados de clave pública no son seguros si un espía pudiera tener acceso a la capacidad de cálculo de un ordenador cuántico», alerta el investigador.

Por tanto, se están estandarizando criptosistemas que ayuden a mantener el nivel de seguridad actual aun cuando se sufran ataques con un ordenador cuántico. Una de las nuevas alternativas usa códigos correctores para cifrar la información, el conocido como criptosistema de McEliece. «Estudiamos posibles ataques para prevenirlos, y cómo hacer que las claves sean de menor tamaño, ya que la medida es la principal contrapartida de estos métodos».

En su radar investigador está machine learning, que consiste en métodos matemáticos que utilizan los dispositivos para realizar una tarea sin recibir instrucciones específicas, sino que aprenden el método en sí utilizando solo los datos de entrada. Sin embargo, Diego Ruano Benito puntualiza que el hardware informático no ha podido seguir el ritmo de la reciente explosión de los cálculos usando big data. «Los cálculos grandes se dividen en partes más pequeñas, que luego se llevan a cabo en paralelo por una red de servidores informáticos. La multiplicación de matrices constituye la operación más costosa en la mayoría de los algoritmos de aprendizaje automático. En esta línea, se considera el uso de códigos correctores de errores para calcular eficientemente el producto distribuido de matrices en machine learning», asegura.

tracking