Las tecnologías que ha usado China para detener al coronavirus

China es el ejemplo perfecto de cómo utilizar la tecnología para derrotar brotes como el del coronavirus. Inteligencia Artificial, drones, apps, robots y mucho más.

A finales de 2019, la ciudad china de Wuhan se convertía en el foco de origen del coronavirus, conocido científicamente como COVID-19. El resto del mundo era espectador de cómo China obligaba a sus ciudadanos a permanecer encerrados en sus casas para evitar que el virus se expandiese aún más.

Tras 50 días de cuarentena, la vida en China parece estar volviendo poco a poco a la normalidad. Pero, ¿cómo lo han hecho? ¿Qué ejemplos podríamos tomar de China para aplicarlos en un territorio europeo con cada vez más infectados?

Como es lógico, el personal sanitario ha tenido que librar una batalla titánica, sin embargo, no hemos de olvidar la relevancia que ha tenido la tecnología para superar la crisis en China. Analizamos las tecnologías que ha usado el gigante asiático para lograr detener el coronavirus.

Una app imprescindible

No teníamos duda alguna de que China es uno de los países más avanzados tecnológicamente, incluso podríamos aventurarnos a decir que posiblemente sea el líder mundial en dicho campo. No obstante, durante los últimos meses acaban de demostrar lo útiles que pueden llegar a ser dichas tecnologías en casos de extrema necesidad.

Empecemos por lo más “básico”: los smartphones. Teniendo en cuenta que prácticamente cualquier persona dispone de un móvil, lo ideal para frenar una epidemia es comenzar por dichos dispositivos. Por esa precisa razón, durante toda la cuarentena han estado valiéndose de una app que permite tener controlados en todo momento a sus ciudadanos. Hace unos días os hablábamos de una app similar utilizada por Corea del Sur.

La de China funciona de un modo parecido. En ella, los ciudadanos deben rellenar algunos datos personales, explicar si tienen algún síntoma o si han estado en algún lugar afectado por la epidemia durante los últimos catorce días. En base a dichos datos, la app genera un código QR según el nivel de riesgo que tenga cada persona de contraer la infección se le asigna un color: rojo, amarillo o verde.

Esa misma aplicación también registra la ubicación de los usuarios, por lo que las autoridades pueden saber en todo momento si alguien infectado está moviéndose a sus anchas por la ciudad. Sí, sabemos que suena mal y que atenta contra las libertades individuales, pero dicho método asegura que las cuarentenas se estén cumpliendo correctamente, cosa que en España parece bastante más difícil de controlar. 

Inteligencia Artificial

Dicha aplicación para smartphones ha sido de gran utilidad, sin embargo, no es ni mucho menos la única tecnología empleada. La Inteligencia Artificial ha sido otro de los pilares.

En este sentido, el Instituto de Investigación Damo Academy de Alibaba ha desarrollado un sistema de Inteligencia Artificial capaz de detectar casos de coronavirus mediante tomografías escaneadas a través de ordenador. Dicho sistema logra identificar las diferencias entre pacientes con coronavirus y con una neumonía ordinaria con una exactitud del 96 %.

Asimismo, en estaciones de metro, tren, aeropuertos y centros de servicios sociales de toda China se han desplegado sistemas automatizados para monitorizar la temperatura. 

Éstos identifican, sin intervención humana, a las personas con temperaturas elevadas. Como ejemplo tenemos Megvii, un sistema capaz de examinar a 300 personas en un solo minuto, mientras que SenseTime, además de la temperatura, identifica a los que no llevan mascarilla puesta.

Robots y drones

Como es lógico, evitar el contacto físico entre individuos disminuye la posibilidad de que el coronavirus siga propagándose. Por ese motivo, los robots también han desempeñado un papel relevante durante los últimos meses en China.

Los robots de la firma china Keenon Robotics Co representan un ejemplo perfecto de lo que hablamos. Éstos han sido utilizados en varios hospitales de China por poder entregar alimentos, medicinas y otros productos en los pabellones de aislamiento mientras un operario les da instrucciones desde la distancia.

También debemos hacer mención al vehículo móvil de tomografía computerizada (TC) del Centro de Inspección de Salud Ping An. Éste incorpora una máquina de TC, por lo que permite diagnosticar el coronavirus sin la necesidad de estar en un hospital.

Y no nos olvidamos de los drones, dispositivos que han resultado de gran ayuda durante el brote de coronavirus en China funcionando de diversas maneras. Los de DJI, por ejemplo, se han usado tanto para recordar a la gente que deben permanecer sus casas como para pulverizar desinfectante en zonas potencialmente afectadas.

Para desarrollar dichas tareas, el gobierno chino les instaló altavoces, carteles e incluso cámaras térmicas para controlar la temperatura corporal. Del mismo modo, multitud de drones han sido empleados para vigilar determinadas zonas o transportar muestras médicas, como los MicroMulticopter .

Ésta es solo una pequeña muestra de cómo China ha utilizado la tecnología para combatir el coronavirus. Sin duda, el éxito del país asiático a la hora de mitigar el virus debería servir como ejemplo a seguir para el resto de países que intentan combatir la epidemia.

Damas y caballeros, éste es el principal motivo por el que se desarrolla tecnología. Está muy bien poder hacerse selfies de gran calidad o tener altavoces inteligentes, pero lo verdaderamente importante es que nos sea de utilidad en momentos difíciles.

https://www.elespanol.com/omicrono/tecnologia/20200318/tecnologias-usado-china-detener-coronavirus/475453864_0.html

Para el 2025, uno de cada cinco kW/h de electricidad consumida por los centros de datos podría provenir de fuentes renovables de energía

La energía solar y la eólica se han vuelto más competitivas en términos de costos. Qué son los acuerdos de compra de energía y por qué están siendo utilizados por gigantes como Google.

La gran mayoría de los centros de datos seguirán dependiendo de los servicios públicos y aunque la disponibilidad de las energías renovables en la red continúa creciendo, parece poco probable que la industria pueda depender completamente de la red eléctrica para alcanzar la marca del 20% para el 2025.

Como referencia, aproximadamente el 3% de la potencia generada a nivel mundial en el 2018 provino de la energía solar y solo un 60% de esta a nivel de empresa de servicios públicos. En el 2018, el 6% de la energía a nivel mundial fue generada por el viento. “Alcanzar el objetivo de que para el 2025 uno de cada cinco kW/hora de electricidad consumida por los centros de datos provenga de la energía solar y eólica parece realista y factible.” anuncia Emiliano Cevenini, VP de ventas y desarrollo de negocio de sistemas de alimentación de Vertiv  para la región EMEA.

La necesidad que tiene el centro de datos de una potencia continua y sus requisitos de potencia relativamente alta suponen un desafío para el uso directo de energías renovables. Aunque la tecnología solar ha realizado importantes avances en eficiencia, y tanto la energía solar como la eólica se han vuelto más competitivas en términos de costos que las fuentes de energía tradicionales, estas tecnologías siguen en fase de maduración y siendo vistas como riesgosas —y poco prácticas— por muchos operadores de centros de datos.

“Los Acuerdos de compra de energía (PPA) han surgido como uno de los principales medios para aumentar el consumo de energías renovables por parte de un centro de datos. Esto puede considerarse como un consumo indirecto, en lugar de directo, porque hace que los recursos de energía renovable integrados en la red sean accesibles para los centros de datos por medio de estos acuerdos. En la actualidad, los PPA suelen ser la mejor alternativa para aumentar el consumo de energías renovables y pueden servir para impulsar un nuevo desarrollo de fuentes de energía renovable a nivel de la red, especialmente cuando son implementadas por grandes desarrolladores.” explica el ejecutivo de Vertiv.

A diferencia de los Certificados de energía renovable (REC), que representan los atributos de la energía limpia producida por fuentes renovables, que no son una compra directa de energía, los PPA permiten que los operadores, puedan comprar la electricidad limpia expedida junto con el REC combinado. Los PPA y los REC están siendo utilizados por algunos de los principales desarrolladores, tales como Google, Equinix  y Digital Realty , para agilizar los plazos y alcanzar los objetivos de energía limpia. Sin embargo, existe más de una estrategia a corto plazo. Estas se volverán cada vez menos necesarias a medida que aumente el porcentaje de energías renovables en la red, pero para las organizaciones comprometidas con alcanzar un 100% de energía renovable, estas continuarán siendo utilizadas a largo plazo para compensar las brechas inevitables en la disponibilidad de suficientes fuentes de energías renovables.

“Con estos principales actores responsables de un creciente porcentaje de capacidad total en el centro de datos y de la potencia en el centro de datos, su compromiso con las energías renovables y el uso de PPA impulsarán el porcentaje general de la energía en el centro de datos proveniente de fuentes renovables e impulsarán a los servicios públicos a agregar más energías renovables a la red eléctrica.” declara el VP de ventas y desarrollo de negocio de sistemas de alimentación de Vertiv.

Las micro redes eléctricas pueden jugar un papel importante en complementar directamente las energías renovables disponibles en la red. Estas plantas de generación y almacenamiento de energía in situ conectadas a la red están siendo promovidas para permitir que los centros de datos tengan un mayor control de los costos energéticos por medio de reducir la demanda máxima. Los paneles solares son ideales para soportar las micro redes y ofrecen a los proveedores una potencia a bajo costo y la capacidad de soportar directamente parte de las necesidades energéticas de sus centros de datos por medio de energías renovables. “Efectivamente, la industria es un consumidor importante de electricidad, pero también se ha convertido en un motor de cambio en esta área.” finaliza el ejecutivo de Vertiv.

https://www.asitodo.com.ar/2020/01/14/para-el-2025-uno-de-cada-cinco-kw-h-de-electricidad-consumida-por-los-centros-de-datos-podria-provenir-de-fuentes-renovables-de-energia/

Qué son los Centros de Datos y la certificación TIER

De seguro muchas veces te has preguntado que son los Centros de Datos o Centro de Procesamiento de Datos (CPD), también son conocidos con su nombre en inglés como Data Center.

Pues en palabras simples, te podemos decir que es un lugar (infraestructura) donde se ubican todos los recursos que son necesarios para realizar el tratamiento o procesamiento de datos de una organización.

Dicho de otra forma, es básicamente un edificio o habitación de gran tamaño que aloja una gran cantidad de equipamiento electrónico (Equipos de comunicaciones, servidores, sistemas de almacenamiento de datos, etc.), infraestructura que es utilizada para obtener acceso a la información necesaria para las operaciones de una entidad.

Centros de Datos y la seguridad de los activos

Sin embargo, la misión principal de los Centro de Datos es de ser una inversión estratégica para las instituciones que garantice capacidad de procesamiento, estabilidad, y de paso, seguridad para proteger su activo más valioso: La información.

Así mismo, los CPD deben considerar factores importantes a la hora de su creación. Por ejemplo, se debe garantizar la continuidad y la disponibilidad de los diferentes servicios que son proporcionados y que contienen la información crítica.

Luego de tener claro el concepto de Data Center o Centro de Datos, también se nos vienen a la cabeza algunas certificaciones que se deben cumplir a nivel de infraestructura y componentes. Si bien existen varios tipos de certificaciones como la ANSI/TIA-942, la ISO/IEC 24764, la ANSI/BICSI-002 o la certificación TIER, hoy hablaremos sobre esta última y sus diferentes tipos.

Certificación TIER para los Centros de Datos

La certificación TIER es un estándar que permite clasificar la fiabilidad y disponibilidad de un Data Center. Esta certificación tiene sus inicios en la década de 1960 y fue creada por el Uptime Institute, organismo que se encarga de administrar los diferentes niveles del estándar TIER hasta la actualidad.

Del mismo modo, esta certificación permite establecer los patrones de diseño, construcción y sustentabilidad operacional de los Centros de Datos, al igual que sus revisiones de operación y el uso eficiente de la energía.

Un concepto importante que debemos tener claro en relación con los Centro de Datos y la Certificación TIER es la redundancia.

¿Qué es la redundancia? Esta palabra tiene bastantes definiciones para diferentes áreas, pero si lo llevamos a la informática y si lo centramos en este tema, la redundancia es la protección del hardware o de los datos que son de carácter crítico y que se quieren resguardar por probables fallas que puedan presentar por un uso continuo.

Pues bien, revisemos de que se trata cada uno de los niveles de certificación TIER.

TIER I

Es el nivel de certificación más básico y es la puerta de entrada a este estándar con un 99.671% de disponibilidad. Posee componentes que no son redundantes y posee una única vía de distribución de energía que tampoco es redundante.

Cualquier falla en los componentes (ya sean servidores, aparatos de telecomunicaciones, sistemas de almacenamiento, entre otros) o en la distribución de energía, logrará un impacto en los sistemas que se encargan de procesar los datos. Acá la infraestructura es susceptible a interrupciones por cualquier evento que sea planeado como las mantenciones de rutina o un evento no planeado como es el caso de un desastre natural.

Si miramos un poco su esquema, el diagrama de un Centro de Datos con certificado TIER I debería resultar algo así.

TIER I

¿Para quién es recomendable el uso de un CPD con norma TIER I? El uso de TIER I está recomendado para pequeñas empresas, se aplica como infraestructura TI para procesos internos, o empresas que basan su negocio en Internet pero que no requieren de una calidad exigente en sus servicios.

TIER II

La segunda escala de certificación es la TIER II. Acá la fiabilidad y disponibilidad aumenta a un 99.741% por lo que contamos con la presencia de componentes redundantes. Por ejemplo, servidores conectados a un Sistema de Alimentación Ininterrumpida o uninterruptible power supply (También conocida como UPS). Cabe señalar que la única vía de distribución de energía (entiéndase coloquialmente por distribución como la corriente que llega de la calle) es no redundante.

Al igual que la norma TIER I, hay una probabilidad de que la infraestructura sea paralizada por eventos que son planeados y no planeados.

Sin embargo, para que un Centro de Datos sea certificado con el nivel TIER II, este debe contar con generadores y UPS que sean redundantes. De hecho, en la siguiente imagen podremos ver que estos últimos, generadores y sistemas de alimentación ininterrumpidas son redundantes (GEN y UPS).

TIER II

Si vamos a los usos aplicados de los CPD con TIER II, estos se utilizan en negocios pequeños que necesiten aumentar su disponibilidad y confiabilidad. Compañías que no ofrecen servicios en tiempo real, o empresas que no requieren de una brillante calidad de servicio.

TIER III

El uso de la certificación TIER III está destinado a organismos que necesitan una alta disponibilidad de sus servicios con un 99.982%, es decir, el Centro de Datos puede estar fuera de línea por 96 minutos al año. Al igual que la norma anterior la TIER III cuenta con componentes que son redundantes, pero acá está la diferencia con su antecesor, las vías de distribución ahora si son redundantes encontrando una activa y otra pasiva.

Así mismo, los componentes pueden ser removidos durante un evento planificado sin proporcionar interrupciones en el sistema. Esto se traduce en trabajos de mantenimiento que pueden ser ejecutados de forma simultánea al funcionamiento. No obstante, igualmente hay un alto riesgo de interrupción por mantenimiento.

Por otra parte, en el nivel TIER III el sistema es susceptible a actividades no planificadas como un desastre natural, o un accidente como un incendio.

Si vamos a su esquema, un Centro de Datos con certificación TIER III se ve así.

TIER III

Con respecto al uso de la certificación TIER III, esta se encuentra destinada a compañías que dan soporte las 24/7 como centros de servicios o de información. De igual forma se usa en empresas que usan infraestructura TI para soportar procesos que son automatizados, por ejemplo, proveedores del servicio de Internet.

En Chile se pueden encontrar varias empresas que poseen Centros de Datos con certificación TIER III. Por ejemplo, Entel, Movistar, el grupo GTD, Claro, Sonda , Netglobalis y CenturyLink Chile.

TIER IV

Es el último nivel de certificación TIER. Posee una confiabilidad máxima y disponibilidad de un 99.995%, lo que se traduce en sólo 48 minutos permitidos para estar fuera de línea en un año. De forma resumida se puede decir que la certificación TIER IV es tolerante a fallas, ya que posee componentes que son redundantes a igual que su predecesor, incorpora múltiples vías de distribución de energía que son activas y redundantes.

Complementando lo anterior, los componentes pueden ser removidos de forma segura durante un evento planificado como un mantenimiento, sin generar paralizaciones o caídas en el sistema. Al examinar su diagrama, el panorama cambia un poco respecto a su antecesor.

TIER IV

Un elemento que diferencia a la TIER III de la TIER IV, es que esta última es prácticamente no es susceptible a interrupciones por un evento no planeado. La única forma de que haya alguna paralización es por un incendio o una falla en el sistema de apagado de emergencia.

Los Data Center con nivel TIER IV tienen métodos sofisticados de refrigeración y circulación de las corrientes de aire caliente y aire frío. Estos usan la energía de forma inteligente gracias a la aplicación de los estándares PUE o Power Usage Effectiveness y DDCiE o Data Center Infrastructure Efficiency, lo que se traduce en Centros de Procesamiento de Datos con bajas emisiones de COy altamente eficientes en cuanto a consumo energético.

A su vez, el CPD está preparado para desastres naturales como un terremoto o inundaciones, ya que los servidores y todo su aparataje contienen sistemas con placas antisísmicas en su parte inferior, protección frente a campos electromagnéticos, e incluso, poseen certificaciones IP para la resistencia a líquidos. Por ejemplo, en este nivel los servidores son ubicados en plataformas que están en altura.

En relación con los usos de estos servidores, son aplicados en grandes compañías que tienen generalmente comercio internacional. Igualmente son usados en empresas que ofrecen servicios 24×365 para mercados que son altamente competitivos. Empresas que se basan en el comercio electrónico, con accesos y transacciones en tiempo real, como es el caso de las entidades financieras.

Para el ámbito local, las empresas que poseen Centros de Procesamiento de Datos con certificación TIER IV son: Sonda y Entel, este último ostenta el título de ser el único que posee TIER IV Gold a nivel de operaciones, ubicado en el núcleo empresarial llamado Cuidad de los Valles.

Ahora que ya estás un poco más familiarizado con los Centros de Datos y la certificación TIER ¿Qué te parece la aplicación de esta en Chile?https://pisapapeles.net/que-son-los-centros-de-datos-y-la-certificacion-tier/

Proliferarán modelos de computación híbrida en 2020, dice Vertiv

Mientras el mundo le da la bienvenida al 2020, las organizaciones empiezan a abandonar el debate de «en la empresa o en la nube» que durante los últimos años dominó las conversaciones a nivel ejecutivo a favor de las arquitecturas híbridas, las cuales incorporan los modelos de nubes públicas y privadas, así como los activos en el borde de la red en torno a un núcleo reconfigurado. Este enfoque, que va evolucionando con el fin de gestionar los datos y los recursos informáticos, es una de las cinco tendencias emergentes del centro de datos del 2020 identificadas por los expertos de Vertiv.

De acuerdo con la empresa proveedora de soluciones de continuidad e infraestructura de TI, las arquitecturas híbridas permitirán que las organizaciones logren mantener el control de los datos confidenciales y cumplir con las crecientes demandas de mayor capacidad de computación, almacenamiento y análisis más cercanas al consumidor. A medida que la conectividad y la disponibilidad se convierten en conceptos que van de la mano en este nuevo ecosistema de datos, se dará cada vez más atención a una comunicación sin problemas desde el núcleo hasta la nube y el borde de la red.

«El sector de centros de datos está siendo testigo de un nuevo equilibrio conforme la industria se enfrenta a los desafíos de capacidad y aplicaciones avanzadas, los cuales están forzando cambios significativos en los centros de datos de todas las formas y tamaños», dijo Rob Johnson, director ejecutivo de Vertiv. «Al mismo tiempo, la velocidad de implementaciòn se esta volviendo un punto de inflexiòn en las decisiones tecnológicas y es posible que defina las inversiones y las innovaciones en el sector, ahora que iniciamos el 2020. Esto será evidente de muchas maneras, pero el mensaje para los proveedores de equipos del centro de datos es claro: el status quo no es aceptable».

Velocidad de implementación y densidad de racks también son tendencias

La carrera por aumentar la velocidad de implementación es otra de las tendencias para el centro de datos identificadas por Vertiv. Así, los expertos de la empresa señalan que, a medida que se nivelan las capacidades de las tecnologías y los sistemas, los gerentes de centros de datos y TI recurrirán cada vez más a otros criterios para elegir los equipos.

Si bien el costo siempre es un limitante, la decisión dependerá aún más de la rapidez para implementar los activos ya que, cuando todos los demás factores son similares, cualquier avance en la velocidad de implementaciòn y activaciòn se convierte en el factor determinante. Esto resulta especialmente cierto, señaló el proveedor, conforme la informática continúa migrando al borde de la red en las redes distribuidas actuales, donde los retrasos en la entrega se traducen en falta de servicio e ingresos.

La densidad promedio de los racks se mantiene estática, pero… Aunque es posible que en el mejor de los casos la densidad promedio de los racks refleje aumentos marginales, el aumento de las aplicaciones avanzadas y las cargas de trabajo relacionadas con la inteligencia artificial (IA), como el aprendizaje automático y el aprendizaje profundo, harán que los focos de computación de alto rendimiento sean necesarios y más comunes. Los expertos de Vertiv prevén una actividad temprana en el 2020 en este sector, específicamente en las áreas de defensa, análisis avanzados y fabricación, las cuales sentarán las bases para una adopción más generalizada en el 2021 y en los años venideros. Hasta ahora, estos racks representan un porcentaje mínimo del total de racks; sin embargo, pueden generar desafíos desconocidos de potencia y enfriamiento que se deben abordar. El aumento en el interès por el enfriamiento lìquido directo es una respuesta a las demandas informáticas de alto rendimiento.

Las baterías cumplen sus expectativas. En el  2016, los expertos de Vertiv predijeron que las baterías de iones de litio empezarían a encontrar un lugar en el centro de datos y esto es una realidad hoy en el mercado de baterías de UPS. La participación de las baterías de litio continúa creciendo y empieza a extenderse a sitios en el borde de la red, donde los requisitos de un espacio más pequeño y un menor mantenimiento son ideales. El siguiente paso es aprovechar la flexibilidad de las baterías de iones de litio y otras alternativas emergentes, como las placas delgadas de plomo puro (TPPL), para compensar los costos. En el 2020, más organizaciones comenzarán a vender la energía almacenada en estas baterías a las empresas de servicios públicos para ayudar a la estabilización de la red y al sistema de control de picos. Se espera que esto sea parte importante de las conversaciones más amplias sobre la sostenibilidad en la industria de centros de datos.

La polinización cruzada global. Aunque en los últimos años Estados Unidos, particularmente Silicon Valley, ha sido el epicentro del universo digital y de la más reciente generación de implementaciones en centros de datos, la innovación ocurre en todas partes. En China, por ejemplo, está surgiendo un ecosistema digital paralelo y diferente. Los centros de datos en Europa y en otros mercados de Asia y el Pacífico Sur, como Australia, Nueva Zelanda y Singapur, están evolucionando y alejándose de las prácticas tradicionales basadas en problemas regionales específicos sobre sostenibilidad, controles y privacidad de los datos. Por ejemplo, el cumplimiento con el Reglamento General de Protecciòn de Datos (GDPR)  está tomando decisiones difíciles relacionadas con la gestión de datos en todo el mundo. Estos problemas, así como una mayor atención en los impactos ambientales, están dando lugar a nuevas formas de concebir las arquitecturas híbridas, así como el valor del almacenamiento de datos y la computación dentro de las instalaciones. En China, algunos centros de datos han estado utilizando una energía de CD de 240 V en servidores modificados por el fabricante para mejorar la eficiencia y reducir los costos. Durante mucho tiempo, la energía de CD ha sido un objetivo teórico para los centros de datos de Estados Unidos y no es difícil imaginar que otras partes del mundo adopten el modelo actualmente acogido en China.

«Al igual que en el resto del mundo, la industria de centros de datos en Latinoamérica se está enfrentando a los desafíos de capacidad y a la creciente necesidad de velocidad en las implementaciones tecnológicas. Además, estamos centrados en buscar maneras de enfrentar estos problemas y al mismo tiempo garantizar un impacto positivo en el medio ambiente», dijo Fernando García, vicepresidente de Vertiv Latinoamérica. «Nos sentimos inspirados en la búsqueda activa de soluciones eficientes y preparadas para el futuro que contribuyan con la disminución de nuestra huella de carbono en todo el mundo», afirmó.

https://searchdatacenter.techtarget.com/es/noticias/252477029/Proliferaran-modelos-de-computacion-hibrida-en-2020-dice-Vertiv

Tendencias y Desafíos del Data Center en 2020

En esta entrevista realizada a Jose Luís Friebel, Managing Director Spain & Latam de DCD Group, se pone en relieve el estado del mercado de los centros de datos desde la perspectiva del ejecutivo, analizando las tendencias principales del sector de los centros de datos para el 2020 y haciendo una retrospectiva de lo que ha significado el 2019 para este mercado creciente.

¿Qué balance realiza de 2019?

2019 se acabó y toca analizar lo que ha dado de sí el año. La tendencia ha sido que el porcentaje de Data Center en Colocation, Cloud o servicios gestionados aumentó de forma imparable por el crecimiento de la oferta, pero aún seguimos viendo que en América Latina sigue habiendo un gran número de Data Center Enterprise. Los proyectos de nueva construcción se han dado sobre todo en el segmento Colocation y Cloud Services Provider como Google, Ascenty, Odata, Tigo, Edge Uno, Oracle, Sonda, Megacable, ETIX, etc. La mayoría de las inversiones se han dado en la modernización de los Data Centers ya existentes, sobre todo en la parte eléctrica (generadores, UPS o fuentes de alimentación crítica); en Data Centers en Containers o Micro Data Centers; el DCIM, por los sistemas de seguridad física o lógica; infraestructura basada en software como AI o Machine Learning; y también en soluciones de refrigeración.

En 2019 se ha seguido hablando de infraestructura Open Source,  esto incluye Open Compute Project y Open19, que es la siguiente etapa de la mercantilización de TI. La gran promesa del código abierto es el hecho de que puede reducir los costos de TI e infraestructura, Capex y Opex  en una cantidad significativa. Sin embargo, el gran desafío para la adopción generalizada es que debe haber una cadena de suministro más madura. Se ha comenzado a hablar de Liquid Cooling e Inmersión Cooling, de Data Center Microgrids y también mucho de Edge.

¿Cuáles son las tendencias que marcarán el 2020?

En 2020 , América Latina verá un cambio transformacional y el crecimiento en la industria de los centros de datos como ningún otro en su historia. El cambio no vendrá debido a una repentina aparición de IoT, transmisión de video, realidad virtual o análisis de Big Data porque estas tendencias tecnológicas son comunes en todas las regiones del mundo.

La gran demanda de la infraestructura de centros de datos por parte de los principales proveedores de Cloud en esas regiones tienen un denominador común: no pueden construir centros de datos lo suficientemente rápido por sí mismos para satisfacer su propia demanda y consumo, por lo que dependen y empujan la innovación y construcción de centros de datos a los proveedores regionales de centros de datos para satisfacer sus demandas de crecimiento. La misma batalla y el enfoque para el dominio del mercado regional y la penetración que se ha visto en los EE.UU., Asia y Europa por Microsoft, AWS, Oracle, IBM, Google, Facebook y otros, ahora se centrarán en América Latina, un mercado de centros de datos severamente infrarrepresentado. El pronóstico de crecimiento en la región de Latam está en Brasil, luego México, Chile y Colombia.  

El Data Center será cada vez más complejo no sólo por tener que tratar con diferentes entornos ( On-Premise, Colocation, Cloud), sino por la automatización y el uso de IA. Además, continuarán las exigencias de reducir el CAPEX, así como los Data Centers sin Chiller y con refrigeración por inmersión o el uso de energías renovables y redes Microgrids van a cambiar el panorama de la eficiencia energética, convirtiéndolo en algo más complejo.

Los 3 mayores desafíos de la industria del Data Center son: Gestionar diferentes entornos de Data Center (On-Premise / Colocation / Cloud), pronosticar los requisitos de capacidad futura del Data Center y el acceso a energía y la eficiencia energética

El reto principal para las infraestructuras es la capacidad de almacenamiento, de procesamiento y entornos flexibles, escalables y convergentes.

Estamos viviendo un cambio en las necesidades de almacenamiento  y procesamiento de los datos, motivados en gran medida por nuevas tecnologías aplicadas ya al día a día como 5G, IoT, vehículos autónomos, inteligencia artificial y realidad aumentada.

Lo que nos parecía ser un futuro lejano, ya se está empezando a aplicar y, aunque tiene muchos beneficios, a su vez tiene inconvenientes por el gran volumen de datos que se genera y por la rapidez que se requiere que se procesen estos datos. Estamos viviendo una descentralización de los datos para acercarlo al “extremo”, acercarlo al Edge, procesarlo donde se produce el dato, y aquí aparece la necesidad del Edge Computing y del Edge Data Center.

Edge no es sólo una ubicación ni sólo un punto geográfico específico, no es sólo un producto ni sólo un servicio. Edge es una estrategia de implementación que combina todos ellos. Una estrategia con baja latencia, high bandwith y tecnologías 5G que ayudarán a entregar servicios y automatización antes impensables. Hablamos de billones de dispositivos IoT, sensores y máquinas entregando automatización y servicios en casas, retailers, hospitales, escuelas, fábricas que no podemos ni imaginar.

Por otro lado, la inteligencia artificial será ampliamente utilizada en el Data Center así como la automatización. Las tecnologías que van a cambiar el Data Center como lo conocemos hoy son Storage-Class Memory, que permitirán un acceso más rápido a los datos; Silicon Phoonics; Data Centers Microgrids; Software-Defined Power; Data Center Management-as-a-Service (DMaaS); Chiler-Free Data Centers; Distributed Resilency; Direct Liquid Cooling y Open Source Infrastructure.

Para seguir siendo competitivos, los líderes de tecnología están necesitando actualizar y modernizar la infraestructura existente, así como profesionalizar sus equipos y explotar los modelos de Cloud y Edge Computing.

https://www.dcd.media/opinion/entrevista-jose-friebel/

Ya hay más de 500 centros de datos hiperescala en el mundo

Nuevos datos de Synergy Research Group muestran que el número total de grandes centros de datos operados por proveedores de hiperescala se ha triplicado desde principios de 2013.

Las instalaciones están surgiendo más rápido en las regiones de Europa, Medio Oriente y Asia-Pacífico, pero Estados Unidos todavía tiene casi el 40 por ciento de los principales centros de datos. En las últimas clasificaciones, los Estados Unidos fueron seguidos por China (10 por ciento), Japón (7 por ciento).

La investigación se basa en un análisis de la huella del centro de datos de 20 de las principales empresas de servicios de nube e Internet del mundo. Hubo 430 instalaciones contadas en 2018, por lo que desde el último informe se completaron 74 instalaciones de hiperescala.

Según la investigación, Amazon y Microsoft abrieron la mayoría de los centros de datos en los últimos doce meses, Google y Alibaba son las siguientes compañías más activas. A la luz del impulso de Oracle para ponerse al día con los otros proveedores de la nube, la empresa de tecnología tiene una presencia notable en el centro de datos, pero aún menos que sus competidores.

John Dinsdale, analista jefe y director de investigación de Synergy Research Group, ha declarado que: “Hubo más nuevos centros de datos hiperescala abiertos en los últimos cuatro trimestres que en los cuatro trimestres anteriores.

“Además de los 504 centros de datos de hiperescala actuales, tenemos visibilidad de otros 151 que se encuentran en varias etapas de planificación o construcción, lo que demuestra que no hay un final a la vista para el auge de la construcción del centro de datos”.

La investigación de sinergia indica que más del 70 por ciento de todos los centros de datos de hiperescala se encuentran en instalaciones alquiladas por operadores de centros de datos o son propiedad de socios.

Una cosa importante a tener en cuenta es que Synergy mantiene en secreto su definición de hiperescala, que solo se revela a los clientes que pagan. La firma de investigación le dijo previamente a DCD que el costo total de las instalaciones juega un papel importante en su análisis.

https://www.dcd.media/noticias/ya-hay-m%C3%A1s-de-500-centros-de-datos-hiperescala-en-el-mundo/


Beneficios y retos de 5G después de el Mobile World Congress de Los Ángeles (California, USA)

Se acabó el Mobile World Congress de Los Ángeles (California, USA), organizado por #GSMA. El último día estuvo dedicado a las bondades y retos que plantea 5G. Mejores servicios, contenidos, videos, juegos, conducción automática, beneficios para la lucha contra el cambio climático y, al mismo tiempo, tomarse las cosas con cierta calma para invertir en fortalecer redes e infraestructuras que permitan que los dispositivos estén preparados, las soluciones digitales -IA, IoT, Big Data- puedan desplegarse bien y, sobre todo, se protejan la privacidad y la ciberseguridad de usuarios, personas, gobiernos y empresas.

Tribuna de opinión de Jorge Díaz-Cardiel, socio director de Advice Strategic Consultants

Potencial oportunidades de 5G. Necesidad de proteger la privacidad

La llegada de 5G a Norteamérica promete una variedad de nuevos servicios y aplicaciones, transformando redes y ofreciendo oportunidades de ingresos incrementales. La región (Estados Unidos y Canadá) alcanzó un hito importante en la primera mitad de 2019, con los cuatro operadores más grandes de EEUU lanzando todos los servicios móviles 5G. A medida que la cobertura se expande en los EEUU, y con Canadá esperando desplegar 5G en 2020, se espera que la adopción de 5G se acelere en Norteamérica.

En su último informe de economía móvil de América del Norte, GSMA Intelligence (GSMAi) predice que el 24 por ciento de las conexiones en el continente estarán en redes 5G a fines de 2022, aumentando a 46 por ciento en 2025. El aumento de los niveles de inversión del operador en redes apuntalará la rápida adopción de los servicios de próxima generación.

Se espera que los operadores móviles en la región inviertan 305.000 millones en 5G en el período hasta 2025, siendo 2019 el primer año de fuerte inversión. Esta tendencia continuará entre 2020 y 2025, cuando se espera que el 87 por ciento del gasto de capital del operador en Norteamérica se asigne a 5G.

Warner Bros elogia el potencial de entretenimiento 5G

Thomas Gewecke, director digital de Warner Bros Entertainment, destacó el creciente papel de los dispositivos móviles como medio para el consumo de contenido y propuso a 5G abrir nuevas pantallas en las que los usuarios pueden transmitir entretenimiento.

Durante el discurso de clausura, Gewecke dijo que “los dispositivos móviles se están convirtiendo en una plataforma increíblemente importante para el consumo de video”, para contenido de formato corto, pero también cada vez más para series y películas de TV de formato largo.

“Cuando nos fijamos en el público de adolescentes y adultos jóvenes en particular, cada vez pasan más tiempo mirando videos en sus teléfonos que en la televisión o la PC”, señaló. Gewecke agregó que los dispositivos móviles también son una de las “categorías más grandes y de mayor crecimiento para los juegos móviles”.

Dijo que Warner Bros. Entertainment ahora está mirando a 5G como una forma de aprovechar los beneficios de los dispositivos móviles y ofrecer nuevas experiencias de contenido para los consumidores. “Creemos que 5G nos permitirá fundamentalmente abrir todo tipo de pantallas nuevas en lugares que antes no habían sido fáciles o prácticos”.

Por ejemplo, señaló que la adopción generalizada de la conducción autónoma habilitada por 5G podría abrir un nuevo intervalo de tiempo para la

visualización de video y juegos mientras los consumidores viajan. Gewecke dijo que esto “tiene el potencial de ser el mayor tramo de tiempo de entretenimiento puesto a disposición del público desde la invención del teléfono inteligente”.

Agregó que la conectividad de próxima generación también podría ayudar a racionalizar la producción de transmisiones y películas, eliminando la necesidad de vehículos de enlace ascendente satelital para eventos en vivo y facilitando la transferencia de los videos diarios al estudio.

“Estos son archivos gigantescos, y hoy en día la única solución práctica es colocarlos en discos duros y moverlos físicamente, y lleva mucho tiempo. Por lo tanto, creemos que 5G podría ayudarnos a innovar fundamentalmente incluso en esa parte central de producción de nuestro negocio “.

Beneficios de 5G para luchar contra el cambio climático

Las aplicaciones habilitadas por 5G se inclinaron para hacer una contribución significativa a las iniciativas ambientales, superando con creces cualquier aumento en el uso de energía provocado por la adopción de la nueva tecnología de acceso.

Durante una sesión de panel en la conferencia magistral del jueves, representantes de las industrias de tecnología, telefonía móvil y energía discutieron el impacto de las innovaciones inalámbricas y de otro tipo en las emisiones de carbono y los problemas ambientales.

El director de sostenibilidad de HP Enterprise (HPE, el negocio de empresas de la antigua Hewlett-Packard, independiente de HP, que se dirige al consumo) dijo que, aunque anticipó que 5G conduciría a un aumento neto en el consumo de energía, los beneficios para la sociedad superarían con creces el uso adicional: “Es ilimitado cuáles podrían ser las oportunidades”. Agregó que estos beneficios se extenderán a muchos sectores e iniciativas, incluidas nuevas capacidades en el procesamiento de datos. “Para 2025, esperamos que dos tercios de todos los datos se generen en el límite (Edge computing), ya no va a estar sucediendo en una ubicación centralizada, como los data center físicos. Está sucediendo en un campo agrícola, está en una ciudad inteligente, está en el piso de una fábrica inteligente etc”, explicó HPE: “Necesitamos mover el cómputo a donde están los datos, en lugar de mover los datos donde está el cómputo. Se necesita un orden de magnitud con más energía para mover datos que para procesarlos”.

Soluciones inteligentes

James Gowen director de sostenibilidad de Verizon y presidente de la organización de sostenibilidad de TIC GeSI, estuvo de acuerdo en que, aunque 5G “potencialmente” llevaría a que más energía se utilizara, el impacto de las aplicaciones que permite tendría un efecto significativo. “5G tendrá absolutamente un impacto masivo en el clima”, “la sostenibilidad es algo que debemos hacer”. dijo. Es un debate que se produce en medio de un impulso creciente entre las compañías inalámbricas para reducir drásticamente la huella de carbono de la industria (especialmente fabricación y manufacturera). El mes pasado, más de 50 operadores móviles del mundo, incluidos Verizon y Telefónica, suscribieron una iniciativa de acción de lucha contra el cambio climático impulsada por #GSMA.

Huawei US aborda preocupaciones de seguridad con 5G

El director de seguridad de Huawei Technologies USA, Andy Purdy pidió un enfoque más integral de los estándares 5G, mayores pruebas públicas de productos y cambios en la regulación, en un intento por abordar las preocupaciones persistentes en torno a la ciberseguridad a la tecnología digital que surgirá con el despliegue de 5G. Huawei proporcionó una serie de sugerencias para afrontar los desafíos actuales de 5G, ya que su compañía se enfrenta un escrutinio constante con respecto a la seguridad (especialmente en EEUU y en Europa, Japón y Corea del Sur).

Purdy señaló que ha habido “algunas distracciones y mensajes confusos en los Estados Unidos”, y admitió que Huawei había tenido en cuenta -y tomado nota- de algunas preocupaciones del gobierno norteamericano. Por ejemplo, señaló el trabajo del 3GPP, que analiza el modelado de amenazas para diferentes escenarios comerciales, así como los esfuerzos similares de construir marcos de seguridad tanto en la UE como en Alemania, que podrían contribuir a un esfuerzo más colaborativo.

También dijo que algunos de los esfuerzos de mejora de seguridad realizados hasta ahora, abordando las amenazas de la era 3G y 4G, “habían sido alentadores”, pero había un camino largo por recorrer con 5G.

“Me gustaría ver más pruebas públicas”, dijo. “No se puede divulgar información sobre vulnerabilidades, pero procuremos que los productos se prueben abiertamente para que se pueda comparar la funcionalidad, se puedan comparar las características de seguridad e incluso podríamos tener competencias de hackathon en vivo, no de redes en vivo sino de situaciones controladas para que podamos compartir los beneficios de la información”.

Huawei Technologies US continuó sugiriendo que era necesario repensar la política industrial nacional, ya que los viejos modelos prescriptivos ya no funcionan en un entorno “donde enfatizamos la gestión de riesgos y promovemos la resiliencia”.

“La idea es que no vamos a tener un dictado del gobierno, sino que deberíamos tener mayor colaboración público-privada para determinar qué debemos hacer como sociedad, qué debemos considerar y en qué tipo de I + D podemos colaborar. Necesitamos nuevos modelos de regulación “.

Purdy concluyó afirmando que trabajar con gobiernos de todo el mundo y organizaciones privadas seguía siendo una de las principales prioridades de Huawei en su intento por abordar las amenazas de ciberseguridad.

Nokia advierte sobre empujar 5G demasiado rápido

Mary O’Neill, vicepresidenta de software de Nokia, hizo un llamamiento a los proveedores de servicios que impulsan una implementación más rápida de 5G, advirtiendo que priorizar la velocidad sobre la seguridad podría conducir a problemas más grandes en el futuro.

Hablando en una sesión de seguridad 5G, O’Neill reconoció que había una carrera en curso para sacar 5G “más rápido, más rápido, más rápido”, pudiendo comprometer la seguridad en aras del despliegue. Nokia considera erróneo ese planteamiento.

Telefónica, por boca de su presidente, José María Álvarez-Pallete, lleva tiempo

expresando -al menos desde el anterior MWC de #GSMA de Barcelona de principios de año- que el despliegue de 5G debe hacerse cuando las redes estén preparadas -lo que supone mucha inversión y trabajo- y los dispositivos también lo estén. Apple ha retrasado hasta 2022 el despliegue de 5G, para cuando las infraestructuras de redes estén preparadas. Antes, como señala Telefónica es necesario resolver cuestiones como la ciberseguridad y que las redes de 5G, la conectividad da un soporte adecuado a la Inteligencia Artificial, Big Data, Cloud Computing (cuando las cantidades de información y formatos serán inconmensurables), IoT, etc.

Centrándose específicamente en 5G, Nokia dijo que los requisitos de seguridad ahora habían cambiado y que ya no era posible utilizar las soluciones existentes (3G, 4G) para contrarrestar el problema.

“Necesitamos más tecnología. Cuando establecí la estrategia para Nokia, estamos invirtiendo en machine learning y realmente creemos en la automatización para ayudar a resolver este problema. Lo bueno de 5G es que es una transformación. Podemos tomar todos esos aprendizajes 4G y llevarlos a 5G”.

O’Neill elogió la destreza en ciberseguridad de Nokia como uno de sus ” factores diferenciadores”, pero señaló que ve similitudes entre la compañía y su principal rival de europeo, Ericsson, lo que contribuirá a unir esfuerzos para que 5G sea más ciberseguro.

Los operadores resumen la lista de deseos de privacidad

Los directores de asuntos regulatorios de Verizon y T-Mobile US pidieron leyes de privacidad de datos flexibles, consistentes y a nivel nacional, con la transparencia para los consumidores como una preocupación clave.

Durante una sesión para defender las leyes federales de privacidad de datos del consumidor, Verizon SVP para asuntos regulatorios y del gobierno estatal Lydia Pulley dijo que el operador estaba ansioso por ver la legislación nacional implementada.

“Se puede ver lo que los consumidores realmente quieren: ansían estar protegidos“, dijo. “La legislación federal debe ser coherente. Desde la perspectiva del consumidor, les preocupan los datos, no necesariamente de dónde se han recopilado: redes sociales, motor de búsqueda o minorista. Cualquiera que sea la regla, debe ser consistente en todas las industrias y sectores”. “También creemos que sería muy importante que las empresas sean transparentes”, agregó. “Los consumidores necesitan saber simplemente qué datos se recopilan y cómo se utilizan. Eso no es necesariamente cierto en este momento “. En cambio, en palabras de José María Álvarez-Pallete, presidente de Telefónica: “el dueño de los datos es el cliente: se los devolvemos para que haya con ellos lo que quiera. A nosotros los clientes ya nos pagan por otros conceptos.

Jorge Díaz-Cardiel. Socio director general de Advice Strategic Consultants. Economista, Sociólogo, Abogado, Historiador, Filósofo y Periodista. Ha sido Director General de Ipsos Public Affairs, Socio Director General de Brodeur Worldwide y de Porter Novelli International; director de ventas y marketing de Intel Corporation y Director de Relaciones con Inversores de Shandwick Consultants. Autor de miles de artículos de economía y relaciones internacionales, ha publicado una veintena de libros, sobre economía, innovación, digitalización y éxito empresarial. Es Premio Economía 1991 

https://www.ituser.es/opinion/2019/10/beneficios-y-retos-de-5g

Los consumidores gastarán US$1.7 billones en tecnología este año, segun pronóstico de IDC

El gasto del consumidor en tecnología alcanzará los US$1.69 billones en 2019, según un pronóstico de la firma de investigación de mercado IDC. Eso es un aumento del 5.3 por ciento respecto al año pasado. Además, las compras de tecnología tradicional y emergente se mantendrán fuertes durante el período de pronóstico de cinco años, llegando a US$2.06 billones en 2023, dice IDC.

Según el estudio, alrededor del 75 por ciento del gasto en tecnología de consumo de este año se destinará a tecnologías tradicionales como teléfonos celulares y computadoras. Los servicios de telecomunicaciones móviles, como voz y datos, representarán más de la mitad del gasto a lo largo del pronóstico. La tasa de crecimiento anual compuesta (CAGR, por sus siglas en inglés) del gasto en tecnologías tradicionales será del 2.2 por ciento durante el período de pronóstico.

Por otro lado, las tecnologías emergentes como equipos para la realidad virtual y aumentada (AR/VR), drones, wearables y dispositivos inteligentes para la casa tendrán un CAGR de 13.2 por ciento a cinco años, predice IDC. Este tipo de tecnologías representará alrededor de un tercio del gasto del consumidor para 2023. Los dispositivos inteligentes para el hogar y los servicios a pedido representarán alrededor del 90 por ciento del gasto en tecnologías emergentes. 

“Los avances tecnológicos continúan impulsando lo que significa ‘conveniencia’ hoy y en el futuro para los consumidores”, dijo Stacey Soohoo, gerente de investigación del grupo Customer Insights & Analysis,  en un comunicado. “Desde los robots de consumo para la limpieza y el mantenimiento del hogar hasta la iluminación inteligente o los sistemas de seguridad/monitorización del hogar, los consumidores conectados están adoptando estas soluciones en sus hogares y en la vida cotidiana a medida que pasan por su propia transformación digital”.

La comunicación y el entretenimiento representarán más del 70 por ciento de todos los gastos a lo largo del pronóstico, dice IDC. Más de la mitad del gasto en comunicación se destinará a servicios de voz y mensajería, mientras que el gasto en entretenimiento se destinará a escuchar música, descargar y jugar juegos en línea, y mirar o descargar TV, videos y películas. Los juegos de realidad aumentada (RA) y videos/otras funciones relacionadas con la realidad virtual verán el crecimiento de gasto más rápido durante el período de cinco años, con una tasa compuesta anual de 136.3 por ciento y 47.3 por ciento, respectivamente.

En Estados Unidos, se pronostica que el gasto en tecnología de consumo alcanzará los US$412,000 millones en 2019, un aumento del 5.5 por ciento respecto al año pasado. Se espera que el gasto en China alcance los US$328,000 millones, y alcanzará los US$227,000 millones en Europa occidental, dice IDC. Las dos categorías más importantes en las tres regiones serán los servicios de telecomunicaciones móviles y los teléfonos.

Y las compras de tecnología tradicional y emergente alcanzarán los US$2.06 billones (sí, billones) en 2023, predice la firma de análisis.

https://www.cnet.com/es/noticias/gasto-tecnologia-billones-estudio-idc/

LA TENDENCIA HACIA LOS DATOS SERÁ MÁS RELEVANTE QUE LA INFRAESTRUCTURA, EN LOS DATA CENTERS

Como lo dice su nombre, un data center ha sido un centro de procesamiento de datos informáticos ubicado en un lugar específico (la mayoría de veces estratégico) y con una infraestructura adecuada para almacenar, proteger y transmitir la información rápidamente de un lugar a otro(s), mediante redes de banda ancha. 

Han pasado más de 50 años desde que la humanidad entró de lleno a la era digital; con ello, se ha dado paso a la tecnología  de fácil acceso y al alcance de la mayoría. De forma paralela se han diseñado nuevos complejos de hardware para dar soporte y almacenamiento a los nuevos desarrollos, que como sabemos cada vez son más y con menor espacialidad entre uno y otro al momento de salir al mercado, ello ha originado que la industria del data center se amplíe, desarrolle y esgrima nuevos retos en el campo del respaldo y almacenamiento digital.

Frecuentemente y cuasi natural ha sido para los seres digitales pensar en los data center como grande espacios donde se almacena información, pero, tal vez las preguntas que ha obviado la humanidad son: qué es un data center y para qué sirve, siendo que de ahí han emanado cantidad de temas que han dejado huella. Dicho sea de paso, han surgido diversas variantes en materia de almacenamiento, respaldo, soporte, protección, tendencias y oferta.

Cuando se habla de tendencias, han existido diferentes transformaciones que avanzaron por generaciones y se han ordenado según el tiempo en que hayan salido e innovado. La primera ha estado relacionada con los mainframes, la segunda con los data center multitasking, posteriormente llegaron los data center (relación cliente-servidor), después de un tiempo, ha hecho su aparición la nube y finalmente el big data con el internet de las cosas. La infraestructura original ha sido una de las cosas que más ha cambiado, pues al paso de los años se ha vuelto obsoleta para las necesidades actuales, ya que las nuevas tendencias han avanzado hacía centros de datos de alto rendimiento, confiabilidad y disponibilidad, por ello se han edificado equipos que lleven a estos resultados y soluciones.

“Los data center grandes están absorbiendo a los pequeños de una forma sistemática y en consecuencia han ido desapareciendo. Esos ‘grandes’ cada vez son más robustos, seguros, confiables, con soporte holístico, y al decir holístico me refiero, no solamente a la infraestructura de las principales disciplinas, sino que tienen una gobertnabilidad estructurada en la parte de distribución, la capacitación de su personal, los procesos o procedimientos establecidos. Todo un conjunto. Además, una gran infraestructura que hace difícil competir con ellos”: Eduardo Rocha Álvarez, presidente internacional de ICREA.

Energía en el data center

El tema de la energía ha sido un componente primordial para el funcionamiento de cualquier tecnología y los data center no han estado excluidos, tanto como los otros desarrollos de avance, aunque para los centros de datos la cuestión se ha vuelto más delicada, pues una falla de estas afectaría de forma exponencial a miles o millones de personas.

El enfriamiento inteligente, con aires acondicionados de precisión permitió hacer eficiente el uso de energía en el data center, disminuyendo significativamente los recursos usados, pero no ha sido el único adelanto importante, por otra parte, la nueva alternativa de baterías ha proporcionado oportunidades para la adopción de sistemas UPS capaces de realizar interacciones sofisticadas con la red. A corto plazo, esto se manifestará en características de administración de carga y nivelación de picos de voltaje.

Asumiendo que la energía eléctrica ha sido “la sangre” de buena parte de la tecnología, es importante resaltar que en los data center no ha sido seguro utilizar energías renovables, pues no es confiable y el suministro se ve limitado para energizar un generador, aun así la gama ha sido amplia. 

Seguridad

Así, la continuidad de actividades que han proporcionado las empresas dedicadas a la administración de energía con componentes como: UPS y PDU, ha sido indispensables, pero no son los únicos inconvenientes a los que se ha visto retada la industria del data center. Otro de ellos es la seguridad, ya que los ataques son constantes y de múltiples tipos. 

Dando seguimiento a lo anterior, han sido tres vías de confianza en las que el data center avanza: la seguridad; disponibilidad de las aplicaciones y servicio, y aceleración de aplicaciones y tráfico. Algunas evaluaciones han consistido en un acercamiento con los usuarios finales, para proveerles de una solución que ha sido hecha a su medida y necesidades para repotenciar sus redes, resguardarlas e incrementar el ingreso o monetizar las inversiones que hayan hecho con algunas soluciones de calidad y alcance. 

“Nos enfocamos en la seguridad. Ataques de denegación de servicio (DDoS) que son latentes y constantes en las redes de data center y usuarios. Algunos se pusieron de moda como son: Botnets (Mirai). Lo que hace básicamente, es infectar dispositivos de Internet de las Cosas (IoT), que son utilizados como zombies para generar ataques de denegación de servicio, lanzando peticiones masivas hacía diferentes puntos”: Christian Cruz Valdez, gerente de ingeniería en A10.

Hoy el centro de datos debe estar protegido y se debe garantizar la seguridad de los datos que ahí se generan, ya que la información es el mayor valor que tiene una empresa, institución u organización.

Conectividad

La conectividad es parte fundamental del hardware en una empresa, en cualquier centro de datos se requiere de especialistas certificados que orienten y acompañen en las soluciones que proporcionan empresas como StarTech.com.

Con bandejas de rack, productos para gestión de cableado, además de conexiones de diferentes capacidades para trasmisión de datos, la conectividad ha sido enfocada a reducir hardware, o bien optimizarlo para conducirlo a su mínimo necesario y evitar los aparatosos instrumentos con los que en el pasado era una necesidad trabajar. 

Almacenamiento

Con dispositivos cada vez de mayor capacidad de alojamiento de información y datos, las unidades de medida han continuado creciendo, aparte de los sistemas de compresión, ahora tenemos terabytes, petabyte, exabyte, zettabyte y yottabyte, con capacidades colosales y necesarias en sites, para los cuales, la información ha sido su razón de existir. 

Western Digital se ha erigido como uno de los actores principales en temas de almacenamiento, mientras que los centros de datos han tenido la necesidad de contar con discos que aglomeren la información en menor espacio y con mayor capacidad de volumen. Con soluciones flash y de disco duro magnético, el compromiso de la empresa es atender las necesidades de productos, con tecnología de punta, confianza y precios razonables, según Eduardo Alexandri, director en México de WD.

Mayoristas

Hasta ahora hemos hablado de energía, seguridad, conectividad y almacenamiento, sin mencionar a los mayoristas, quienes juegan un papel muy importante al momento de implementar proyectos, ya que ofrecen diversos servicios desde disponibilidad de productos, catálogos diferenciados, servicios de financiamiento, entre otros.

En el caso de Westcon, ofrecen apoyo y experiencia para el cierre de nuevos y complejos negocios de soluciones de data center, además se ha encargado de proporcionar especialistas de producto, técnicos y consultores en ventas, que han generado un valor agregado a sus clientes. https://esemanal.mx/2019/10/en-data-centers-la-tendencia-hacia-los-datos-sera-mas-relevante-que-la-infraestructura/

Falta invertir U$S 161.000 millones para cubrir con 4G al 95% de la población de América Latina

Así lo reveló un estudio del Centro de Estudios de Telecomunicaciones de América Latina. Su director aseguró además que la regulación del sector en la región “necesita un enfoque de neutralidad tecnológica, acorde con la era de la convergencia”.

América latina debería invertir U$S 161.000 millones en los próximos cinco años para alcanzar una cobertura de banda ancha móvil para el 95% de la población y para que dos de cada tres hogares tengan fibra óptica directa al hogar, según el estudio del Centro de Estudios de Telecomunicaciones de América Latina.

Sólo como muestra de las necesidades de inversión en la infraestructura el informe asegura que para el año 2020, se espera un crecimiento del tráfico de datos móviles de más del 1.300% con respecto a 2015, con un tráfico de datos móviles 14 veces superior, lo que “estresará” las redes.

Además, explicó a Télam el director del CET, Juan Jang, la regulación del sector en la región “necesita un enfoque de neutralidad tecnológica, acorde con la era de la convergencia en la que estamos”. En ese sentido remarcó la importancia de igualar las condiciones, entre las empresas más tradicionales ya reguladas y las compañías que surgieron con las nuevas tecnologías que no tienen regulación.

Consultado sobre la imposición de impuestos a la francesa (ley GAFA por Google, Apple, Facebook y Amazon) consideró que las empresas OTT (sobre la infraestructura de otro, por sus sigla en inglés) como Netflix, Flow, Qubit y otras, “tendrán que tener una carga mayor que la de ahora, por ejemplo en el tema tributario”.

http://www.telam.com.ar/notas/201910/397416-inversion-cobertura-4g-banda-ancha-movil.html