Revista poética Almacén
Colaboraciones

El movimiento de datos en los mainframes

Antonio Cambronero
Autor de la bitácora Blogpocket

Otros textos de Antonio Cambronero


Los medios de divulgación muy raramente se dedican a la informática de los grandes ordenadores. Sin embargo, la tecnología avanza tanto o más que en el campo de la microinformática (ordenadores de sobremesa, portátiles, etc.) o los sistemas medios (servidores unix, etc.). En este artículo, acercaremos un poco el mundo de los mainframes [1] a todos aquellos que creen que la informática acaba en Internet ;)

En los centros de cálculo de las grandes empresas, una de las actividades de carácter sumamente crítico que consume una enorme cantidad de recursos, y seguramente desconocidas para la mayoría de los usuarios de las nuevas tecnologías, es el movimiento de datos. Los ordenadores que componen el motor neurálgico de dichas empresas intercambian información, a menudo vital para el negocio corporativo. Las aplicaciones (programas que generan o tratan la información), ejecutándose en máquinas de muy diversa índole, requieren un intercambio rápido, fiable y seguro. Si se trata de enviar datos de facturas a entidades bancarias, por ejemplo, no puede haber retrasos, por fallos o caídas de líneas de comunicaciones, ni errores de ningún tipo. Y, muy importante, se tiene que garantizar la privacidad, confidencialidad y seguridad, en fin, de los datos al transmitirse. La integridad en la transmisión es también fundamental: la información tiene que llegar, pero tiene que llegar toda y tal como partió en origen.

El mundo dinámico, y extremadamente competitivo en el que se encuentran inmersas las grandes empresas en la actualidad, no implica precisamente que la actividad del intercambio de información sea una tarea sencilla. Los inmensos centros de cálculo son entornos complejos donde existen infinidad de ordenadores, de distintos fabricantes y diversos sistemas operativos. La heterogeneidad es un aspecto complicado, ya que implica adoptar soluciones generales en un ámbito disperso.

En particular, hay que dotar a las aplicaciones de herramientas multiplataforma para la transmisión de ficheros y proporcionarles un sistema para su gestión que tengan la misma interfase [2], comportamiento y funcionalidades en todas ellas. A esto lo podríamos denominar “universalidad” del sistema de transmisión: que todas las aplicaciones, dentro del centro de cálculo, transmitan la información de la misma forma. En definitiva, que exista una fuerte normalización y estandarización.

Hay dos aspectos fundamentales que es muy importante cuidar en los sistemas de file-transfer [3] de las grandes compañías: la automatización y la monitorización. En primer lugar, hay que proveer de utilidades de ejecución automática para relacionar transmisiones y procesos asociados de tratamiento de la información. Por ejemplo, si se recibe un archivo desde un banco, con registros correspondientes a las devoluciones por impagados, es preciso ejecutar automáticamente el programa que procesa dichos registros y realiza las acciones oportunas. Por otra parte, se requiere un alto nivel de detección de situaciones alarmantes que pueden provocar problemas en el servicio que presta la empresa. Básicamente los programas de monitorización tienen que ser capaces, además, de levantar los estados críticos por sí solos sin intervención manual por parte de los operadores.

Otra cuestión esencial es que no exista la necesidad de que las aplicaciones, en ambos extremos de la comunicación, estén activas simultáneamente. De esa forma, el programa servidor [4] puede recuperar los datos en cualquier momento. Por ejemplo, un fichero con datos estadísticos puede generarse a las nueve de la noche, en una máquina de origen, y debe poder recuperarse siete horas más tarde, en la máquina de destino, para emitir un informe.


Los sistemas operativos que soportan sistemas de automatización de transmisiones tan complejos y críticos, como a los que nos referimos aquí, tienen que ser robustos. Tienen que disponer de dispositivos de almacenamiento de gran volumen de espacio y cuya velocidad de acceso sea muy alta. De igual forma, tanto la red de comunicaciones interna como la externa deben garantizar la máxima velocidad de transmisión.

Sirva esta pequeña toma de contacto para perderle el miedo a los dinosaurios de la informática, donde curiosamente se están integrando sinérgicamente particiones [5] unix y linux para aprovechar la potencia de los mainframes y la flexibilidad de los sistemas medios. Pero de ello hablaremos en una próxima ocasión.

Notas:

(1)Mainframe: término que hace referencia a ordenadores de gama alta, con gran capacidad de procesamiento y alto rendimiento.

(2)Interfase: forma de interactuar con un programa. Si una persona está operando con un cajero automático de un banco, lo que ve en la pantalla y que le sirve para comunicarse con el programa, es la interfase. Si dos programas se comunican entre sí, también lo hacen mediante una interfase, en ese caso interna y que no tiene un aspecto visible.

(3)File-transfer: término en inglés que significa transmisión de ficheros.

(4)Programa servidor: una de las arquitecturas empleadas comúnmente en las redes de ordenadores es la de cliente-servidor. En ella, un ordenador actúa de máquina que realiza las peticiones y otro las atiende.

(5)Particiones: un ordenador Mainframe se divide en trozos y cada uno de ellos recibe el nombre de partición. Cada partición es independiente en el ámbito de sistema operativo, memoria, procesador y otros recursos, aunque pueda compartir los de otras particiones.


________________________________________
Comentarios