AMAZON: UNA COMPAÑÍA DE DATOS

Posiblemente, los hábitos digitales de todos nosotros estén relacionados de alguna forma con los servicios de computación en la nube de Amazon. El poder de esta compañía, dedicada mayormente al comercio electrónico, se basa en el control de gran parte del flujo de información ocurrido en el mundo. Pueden vender casi cualquier cosa, pero su “producto estrella” son servicios computacionales en la nube, tremendamente facilitadores de proyectos en Big Data y Data Science. Amazon: una compañía de datos.

Amazon es uno de los gigantes de la computación en la nube, junto a Microsoft Azure o Google Cloud Platform. Uno de sus “fuertes” consiste en servicios con gran capacidad computacional. Proporciona potencia y espacio virtual a compañías como Disney, Netflix y otras, pero también a agencias de varios gobiernos del mundo. La acumulación de poder en manos de Amazon es una preocupación para las autoridades estadounidenses desde hace años, en el 2017 ambas cámaras legislativas ya planteaban normativas que evitaran prácticas monopolistas.

Algunos sostienen que la mayor parte de hábitos de navegación y operaciones digitales del “usuario medio” involucra de alguna forma a Amazon Web Service. Los data center de este gigante tecnológico están repartidos por el mundo, han terminado por ser el corazón de un entramado empresarial que supera en poder a muchos Estados (en el 2020 Amazon ganó 125.555 millones de dólares, un 44% más que en el 2019).

Hacia el año 2003, Amazon era uno de esos extraños barcos salvados del pinchazo de las .com. El negocio del comercio electrónico aparentemente seguiría en crecimiento, pero las tecnologías que lo hacían posible ya estaban al alcance de muchos. La respuesta de Amazon se basó en el desarrollo y expansión de una infraestructura de servidores rápida, segura y escalable.

En poco tiempo, Amazon arriba, como es habitual en la industria de los datos, a la respuesta para preguntas que todavía no estaban totalmente formuladas. La piedra angular del comercio electrónico que la compañía podía poner al alcance de sus clientes no tendría su base en grandes centros logísticos y una densa red de distribución por tierra, mar y aire, sino en servicios computacionales en la nube (que hoy superan el 55% de su facturación).

La idea que mueve a este gigantesco esquema de negocio es más bien sencilla: la computación en la nube puede asumir y resolver algunos de los problemas de análisis y explotación de datos de compañías, organizaciones e instituciones oficiales, con mejores resultados y a un coste extraordinariamente menor.

Lo anterior permite que empresas medianas y pequeñas, equipos de investigación o profesionales autónomos trasladen a Amazon Web Service la mayor parte de sus procesos. Es decir, no necesitan invertir o asociarse con nadie para poner en marcha granjas de servidores que, a su vez, tienen costes importantes de actualización y mantenimiento.

De esta forma, un equipo con proyectos en Big Data o Data Science puede alquilar tiempo en las máquinas de Amazon y trasladar problemas de procesado o tareas de análisis de datos. La misma arquitectura de la nube controlada por la compañía es todavía un secreto en muchos de sus aspectos, donde la seguridad es lo más importante (una especie de recreación física del modelo Zero trust, donde la validación de identidad aparece en múltiples círculos).

El perímetro de seguridad de un data center es algo complejo: la humedad y temperatura del aire tiene que ser controlada permanentemente, los sistemas antiincendios deben ser extremadamente sensibles y, por supuesto, jamás pueden darse cortes de energía. La clave para mantener en funcionamiento continuo un data center con cientos o miles de servidores es un concepto que también se aplica al diseño de naves y futuras misiones espaciales tripuladas: la redundancia.

Se habla de redundancia en ingeniería informática y ciencias computacionales cuando la delicadeza de las tareas realizadas por un sistema o red requiere que toda información, software o hardware considerado crítico para tales tareas esté repetido o duplicado. De forma que el proceso no tenga riesgos importantes de detenerse por la caída de uno o varios subsistemas. Pero el, antes nombrado, perímetro de seguridad tiene otro anillo en los propios datos, donde la seguridad vuelve a ser redundante.

AMAZON: UNA CARRERA POR EL CONTROL DE LOS DATOS

El Amazon Web Service está formado por centros de datos con entre 50 mil y 80 mil servidores, capaces de procesar 102 terabytes por segundo. Las soluciones tecnológicas de los data center de Amazon son también revolucionarias. Los servidores utilizan tecnología expresamente desarrollada para la compañía, recordemos que en 2015 adquirió por 350 millones de dólares la firma Annapurna Labs, responsable del microprocesador Graviton.

El componente Graviton-2, de 7 nanómetros, 30 mil millones de transistores y que supera a los fabricados por Intel y AMD, permite a Amazon Web Service una eficiencia superior a cualquier otro servicio existente en el mercado. Ello hace posible que permita la existencia de múltiples proyectos empresariales e investigaciones en Big Data y Data Science.

Para ver todas estas cuestiones en conjunto, es necesario pensar en las demandas generadas por el Big Data y el Data Science, que nunca dejan de crecer. Es decir, la forma como aumenta el volumen, la velocidad y diversidad de los datos dejó desfasada a la base de datos tradicional.

En sentido de lo anterior, Amazon presenta una gama de servicios que se adapta a los requerimientos de prácticamente cualquier aplicación en Big Data, sin dificultades con el hardware ni escalamiento de la infraestructura. A esto se añade disponibilidad, seguridad, nuevas soluciones, etc.

Por supuesto, aparecen flecos complicados cuando los expertos debaten sobre la posición de Amazon en el mercado de los datos. La enorme parcela que domina en el sistema mundial de flujo de información provoca que muchos se pregunten acerca de los riesgos: una corporación privada tiene en sus servidores información delicada sobre todos nosotros. Su esquema de negocio está organizado de forma que cualquier interacción relacionada con sus servicios se convierte en datos.

Amazon es, en efecto, la compañía que probablemente está llegando más lejos en la supuesta búsqueda de aquello que el cliente busca y quiere. Su profundo desarrollo enfocado a optimizar la “experiencia del cliente” necesita una recolección y tratamiento verdaderamente profundo de nuestros datos. Y luego está su capacidad para forzar precios que golpean a empresas más pequeñas en su línea de flotación.

En conclusión, tenemos dos aspectos clave al hablar sobre el modelo corporativo de Amazon. Por una parte, la extensiva explotación de los datos a su alcance preocupa en estos tiempos donde la privacidad vuelve a colocarse en el centro del debate, dado que sabemos bien el potencial que puede desencadenarse cuando los clientes se convierten en algo predecible y se llega a descubrir cómo crear necesidades.

Y, por otra parte, tenemos al mercado de los data center, algo que interesa a expertos y especialistas en Big Data y Data Science. Hablamos de un mercado, computación en la nube, que podría crecer en España un 5,40% entre este 2021 y el 2026, un año en el que podría llegar a mover 4.100 millones de dólares (ResearchAndMarkets.com). Estas cifras, nuevamente, hacen pensar en demandas profesionales en torno a Big Data y Data Science, por ejemplo, en compañías que operan con Amazon Web Service.

 


Máster en Big Data y Data Science de la UNED: MATRÍCULA ABIERTA