Suscríbete al boletín semanal

Recibe cada semana los contenidos más relevantes de la actualidad científica.

Agencia Sinc
Si estás registrado

No podrás conectarte si excedes diez intentos fallidos.

Si todavía no estás registrado

La Agencia SINC ofrece servicios diferentes dependiendo de tu perfil.

Selecciona el tuyo:

Periodistas Instituciones

¿Cómo mejorar los protocolos informáticos de replicación de bases de datos?

Hoy en día se manejan enormes cantidades de información que se guardan en bases de datos para poder acceder a ella posteriormente. José Ramón Juárez Rodríguez, ingeniero de telecomunicación, ha investigado en su tesis doctoral cómo mejorar los protocolos de replicación de bases de datos, unos sistemas que permiten almacenar información en diferentes lugares y que ésta llegue al usuario de un modo rápido y transparente. Además, garantiza que los datos estén siempre disponibles a pesar de posibles fallos de los servidores.

bases de datos
¿Cómo mejorar los protocolos informáticos de replicación de bases de datos?. Foto: Tim Collins

Hoy en día se manejan enormes cantidades de información que se guardan en bases de datos para poder acceder a ella posteriormente. José Ramón Juárez Rodríguez, ingeniero de telecomunicación, ha investigado en su tesis doctoral cómo mejorar los protocolos de replicación de bases de datos, unos sistemas que permiten almacenar información en diferentes lugares y que ésta llegue al usuario de un modo rápido y transparente. Además, garantiza que los datos estén siempre disponibles a pesar de posibles fallos de los servidores.

“Este es el primer trabajo capaz de proporcionar un marco común para estudiar la corrección de un amplio abanico de protocolos con características de muy diversa índole”, señala José Ramón Juárez, ayudante en el Departamento de Ingeniería Matemática e Informática de la Universidad Pública de Navarra (UPNA). “He investigado cómo tener la información repartida en diferentes sitios y que cualquiera pueda acceder a ella para consultarla y modificarla, de manera que si alguien modifica algo, otra persona que consulte esos datos en otro lugar vea esos cambios”.

Pensemos en bases de datos de una entidad bancaria (cuentas, saldos, movimientos), una gran empresa (empleados, clientes, facturación, nóminas), los servicios que ofrecen espacio para almacenar documentos en la “nube” o Google, que guarda información de millones de páginas web y que consulta, cuando alguien realiza una búsqueda, para proporcionarle los resultados correspondientes.

“Toda esa información no se puede almacenar en un solo sitio porque, dado el enorme tamaño, una sola máquina tendría problemas para manejar tantos datos. Además, el número de personas o servicios que potencialmente van a acceder a la información es muy elevado, por lo que los tiempos de respuesta en la consulta o modificación de datos serían inasumibles”, explica Juárez.

Con la replicación de datos, al disponer de la misma información en distintos servidores, cuando los usuarios realizan una petición no acceden todos a una misma máquina sino que la carga de acceso puede distribuirse entre varias. Se reduce el tiempo en atender la petición del usuario y se asegura la disponibilidad de los datos si se produjera un fallo en un servidor, ya que la información estaría disponible en otra de las réplicas.

“El desafío de la replicación de bases de datos es manejar las diferentes transacciones como si se hubieran ejecutado en una única base de datos lógica, de forma transparente para los usuarios”, apunta el investigador.

Aplicaciones prácticas

La tesis analiza cómo funciona el sistema por dentro para ver qué algoritmos se pueden diseñar después. “Por ejemplo, si vas a un cajero automático y retiras todo el dinero de tu cuenta y luego vas a otro cajero y consultas tu saldo, deberías no tener dinero en la cuenta. Lo que nosotros investigamos es la manera de transmitir esa información entre las diferentes réplicas para que no se produzca ninguna situación anómala y se garantice la corrección de la copia”. Así, se obtienen una serie de propiedades que deberían cumplir los diferentes componentes del sistema y que permiten diseñar cómo se va a comportar cada uno de ellos y los algoritmos/protocolos que hay que seguir para replicar los datos de forma correcta.

La tesis doctoral "Prueba de corrección jerárquica de protocolos de replicación, de actualización diferida, para replicación de bases de datos con fallos de parada" ha sido dirigida por los profesores José Ramón González de Mendivil Moreno y José Enrique Armendáriz Íñigo, del Departamento de Ingeniería Matemática e Informática, y ha obtenido la calificación de sobresaliente cum laude.

Fuente: UPNA
Derechos: Creative Commons

Solo para medios:

Si eres periodista y quieres el contacto con los investigadores, regístrate en SINC como periodista.

Artículos relacionados