Para Concluir la semana sabías que Google construirá cable submarino entre Chile y California para mejorar internet en Latinoamérica

La ruta comercial que unió a Valparaíso, Chile, y California, EEUU, en el hemisferio sur a finales del siglo XVIII, hoy tendrá un intercambio digno de los tiempos actuales: dentro de poco, Google iniciará la construcción de Curie, un cable trasnacional de fibra óptica que unirá los referidos puntos y traerá un impacto positivo a las conexiones de internet de toda América Latina.

El cableado se empezará a construir en el primer trimestre de este año, según reportó El Mercurio de Chile. El anuncio se dio a conocer en simultáneo en el blog oficial del gigante de Internet.

La construcción de este cable reafirma el posicionamiento estratégico que tiene el país para la multinacional, que inauguró hace dos años en Chile el único data center en la parte austral del globo, de acuerdo a Edgardo Frías, representante de Google en el país andino.

Mayor efectividad y rapidez a las conexiones

La idea de conectar Valparaíso con Los Ángeles, sede mundial de la compañía, es crear una ruta directa para prestar servicios de nube con una mejor calidad, añadió el funcionario. El cable debería estar acabado a finales de 2019.

El impacto de esta nueva instalación afectaría tanto a empresas de todo rango como a usuarios comunes: startups que migran a servicios de cloud y que a su vez demandarán un mejor procesamiento de datos, usuarios que compartan documentos u hojas de cálculo a través de GSuite (la suite de ofimática de Google), o la búsqueda de direcciones en Google Maps. Esta información, que se procesa a milifracciones de segundos, mejoraría con el nuevo cable de fibra óptica.

Cada vez que realizamos estas tareas, se echa mano de la red de Google.

Esta red tiene muchos componentes, por ejemplo nuestros centros de datos en Chile (…). Otro elemento importante son las regiones de Google Cloud Platform, como la que lanzamos el año pasado en San Pablo, Brasil. En todo el mundo, la red de Google tiene más de 100 puntos de presencia y 7500 nodos. Todas estas “partes” de la nube están conectadas por una gran red que incluye 11 cables submarinos y miles de kilómetros de fibra óptica alrededor del mundo.

Latinoamérica también se vería beneficiada con la nueva construcción, al ganar flexibilidad y un avance de cara a las próximas necesidades. “Vamos a tener esta supercarretera conectada a California, pero de ahí podemos tomar diferentes rutas alternas después, conforme vayamos viendo necesidades”, añadió Frías.

El primer cable privado

Google destacó, por su parte, que con este proyecto se convierte en la primera compañía tecnológica (sin ser especializada en telecomunicaciones) que invierte en el desarrollo de un cable submarino internacional totalmente privado.

El cable llevará el nombre de “Curie” en honor a Marie Curie, la renombrada científica que condujo una serie de investigaciones pioneras en el campo de la radioactividad. Ella es la única persona en la historia que ganó dos Premios Nobel. “Tal como quien inspiró su nombre, el cable Curie es excepcional: es el primer cable submarino que llega a Chile en aproximadamente 20 años y, una vez instalado, será una de las autopistas de datos más grandes del país, conectando Chile y California en el año 2019”, indica el comunicado.

Google eligió instalar a Curie en Latinoamérica porque si bien la región tiene una alta penetración de internet, no está servida de forma óptima por las conexiones de datos internacionales existentes. “Esto significa una increíble oportunidad para que Google Cloud Platform, a través de esta nueva infraestructura, pueda servir a nuevos negocios y para que Google pueda continuar avanzando en su meta de largo plazo de llegar al ‘los próximos mil millones’ de usuarios de Internet”, finalizó el comunicado oficial.

Daniel Meza
Esta noticia ha sido publicada originalmente en N+1, tecnología que suma.

Advertisements

Y con este frío, ¿La opción es Diseñar en 3D para adaptarse al cambio climático en los centros de datos?

De acuerdo con analistas de Gartner, en los últimos cinco años se ha registrado un crecimiento de casi 10 centros de datos en México al año; además, según información de Cloud Magna, la operación de un centro de 35 metros cuadrados tendría un costo superior a los 10 millones de pesos en cuatro años. El crecimiento de esta infraestructura es reflejo de la importancia que tienen los centros de datos para las telecomunicaciones modernas, al tiempo que los futuros despliegues de aprendizaje automático y de aplicaciones de realidad virtual (RV) y realidad aumentada (RA) causarán que el costo de su operación crezca en la misma medida.

No solo la dependencia en ellos explica los elevados costos del espacio que ocupan y el de su funcionamiento, también hay que tomar en cuenta la dimensión de las pérdidas que una compañía podría enfrentar ante la caída de un centro de datos, las cuales pueden ser superiores a los 20 millones de dólares. Ante este contexto, es importante conocer las soluciones que existen para optimizar el espacio y proteger la inversión en equipo, especialmente pensando en riesgos como incendios, así como en la expansión natural que experimentarán los centros de datos en el mediano plazo.

Se avecinan tormentas, ¿qué hacer?

Hace años, los expertos en clima predijeron cambios en los patrones climatológicos que traerían consigo retos para el futuro. Ahora, en medio de una temporada con un número récord de tormentas, empezamos a prestar atención a los avisos de los expertos. Del mismo modo, los ingenieros en computación han predicho “tormentas” de mayor densidad en los centros de datos, y parece que la tempestad se acerca más rápido de lo que pensábamos.

En los centros de datos, las aplicaciones de alta densidad no son algo nuevo. Desde hace años contamos con supercomputadoras refrigeradas con líquidos; sin embargo, en los últimos 20 años se ha observado un aumento en las densidades de potencia del rack, los cuales han registrado “puntos calientes” ocasionales de servidores blade o de infraestructura TI de mayor potencia. Solamente el año pasado, los “climatólogos” de los centros de datos señalaron que el clima de la densidad de potencia puede estar cambiando, considerando que nuevas tecnologías avanzan, con modelos comerciales que incorporan inteligencia artificial y requerimientos de funcionamiento para super computadoras cada vez más demandantes que necesitan racks de ultra alta densidad.

Si bien los operadores de centros de datos cuentan en su estrategia de mitigación de riesgos con la selección de la ubicación y contar con sistemas redundantes para la alimentación energética y la seguridad, ¿acaso esto también incluye planeación y adaptabilidad para lo que está por venir?

A continuación, presentamos dos formas de proteger su centro de datos hacia el futuro, para garantizar que la infraestructura de TI y el espacio que ocupa puedan adaptarse y cambiar con el tiempo para satisfacer las necesidades que conlleva la evolución del negocio, incluso en un entorno que cambia tan rápido como el clima.

BIM ahora y BIM en el futuro

Las herramientas de diseño habilitan nuevas y atrevidas estructuras.El modelado en 3D, con un fuerte crecimiento a través de apps, puede apoyar con decisiones sobre construcción mejor informadas, materiales y canales de suministro. BIM (Building Information Modeling) es una metodología que integra a los equipos de diseño, ingenierías y desarrolladores con la finalidad de ser más eficientes en tiempos y reducir los desperdicios en un proyecto. Una de las ventajas que ofrece es el ahorro. Por ejemplo, en Inglaterra, el uso de BIM ha generado ahorros de más de 2.135 millones de dólares al año en proyectos de construcción.

Al incorporar BIM en los diseños y en la estrategia de construcción desde el inicio para nuevos proyectos, los dueños de centros de datos tienen acceso a una imagen virtual del edificio antes de que comience la construcción del mismo y también después de que se ponga la última piedra. Puede ser un proceso que tome tiempo, al tener que reunir todos los datos necesarios para completar el contenido, pero, al final, uno es recompensado con un modelo rico en datos que provee gran cantidad de información sobre estimaciones, órdenes, construcción y mantenimiento, con lo que se puede preparar al edificio para una expansión futura.

El beneficio de tener el edificio en la palma de la mano y en el largo plazo, es que un propietario puede simular futuras adaptaciones a la construcción, identificar desastres potenciales antes de que el trabajo comience a realizarse, o ubicar un lugar para colocar nuevo equipo.

Adaptación a las altas temperaturas

Hoy en día, los centros de datos son calientes y se están calentando aún más. De hecho, una carga de 10KW de TI produce un calor semejante al de una parrilla de barbacoa. La mayor parte de los centros de datos operan de forma eficiente con cargas menores a 10KW, usando un refrigerador de aire. Sin embargo, hay indicadores de que el crecimiento exponencial del almacenamiento y procesamiento de datos producido por aplicaciones como la IA, los servidores de nube y el aprendizaje automático afectará algunos centros de datos, pero resulta difícil predecir cuáles, dado que nuevas aplicaciones de negocio están emergiendo dentro de las prácticas tradicionales de la industria.

Tendencias como la super computación se benefician de hardware compacto y denso, que usa entre 40 y 80KW por rack. Estas densidades de elevadísima temperatura requieren líquido para transferir el calor eficientemente al exterior del edificio. Los dueños que esperan que sus edificios sobrevivan en el futuro deben considerar adaptarse a modelos híbridos de refrigeración(enfriamiento a base de líquido y aire). La habilidad para adaptarse y añadir modelos híbridos de refrigeración puede definir el éxito del plan de negocio de los centros de datos para capear tormentas de diversidad de densidades en el futuro cercano.

Planear con antelación y hacer provisiones para modelos híbridos de refrigeración y la habilidad para añadir la distribución de líquidos  no tiene por qué ser una tarea compleja o costosa. La llave para el éxito será el uso de soluciones de tubería que sean adaptables, escalables y fáciles de alinear.

Las soluciones de unión de tuberías mecánicas ranuradas son el método preferible para hacer las uniones para centros de datos escalables y adaptables, pues la instalación y expansión de los mismos puede hacerse de forma segura, rápida y sin interrupciones, además de eliminar los riesgos medioambientales, de salud y riesgos de incendio asociados a otros métodos, como la soldadura. Los problemas de alineación (que pueden ser un gran problema en soluciones de tuberías de modernización) son simplificados por estas tecnologías de soluciones ranuradas.

Listos para equipos de misión crítica

No todos los fabricantes de productos ranurados son iguales. Antes de elegir, tiene que estar seguro de que está eligiendo una solución lista para operar en misión crítica que aporte confianza en la construcción. Con buena planeación, hay soluciones de distribución de refrigeración que están listas para operar en misión crítica, y que a la vez son adaptables.

Del mismo modo, no todos los productores suministran un contenido rico en datos o las herramientas para maximizar el valor que IBM aporta a un proyecto. La información que se puede sacar solo será tan buena como la que se aportó con anterioridad.

Así que, ya sea que este expulsando agua de una inundación o manteniendo equipo de vital importancia bien refrigerado, lo más importante es la mitigación de riesgos, así como incorporar sistemas de refrigeración adaptables. Si bien la aplicación de BIM en un proyecto no va a garantizar que una planta este completamente a prueba de riesgos, si ayudará a ir poniéndolo a prueba en el futuro de forma constante.

Sobre el autor: Sergio Ramírez es ingeniero especialista para HVAC, Revit y software 3D en Victaulic. Tiene más de 5 años de experiencia en el ramo, y se desempeña como líder en soluciones de uniones de tubería en el noreste de México, siendo su especialidad el balanceo hidrónico.

 

 

 

Cómo conseguir la eficiencia del Data Center a través de la transparencia de energía

En la actualidad, se está produciendo una adopción generalizada de tecnologías como el DCIM (Gestión de la Infraestructura de Data Center), el DCSO (Optimización de los Servicios de los Data Center), la gestión inteligente de la energía y las capacidades de “auto-detección” de los SAIs. Todas ellas proporcionan herramientas que ofrecen información real de lo que está sucediendo en la infraestructura de los data center o sobre lo que opera de forma suficientemente autónoma, de modo que los administradores de los data center no se vean obligados a hacer un seguimiento minucioso de la actividad.

Al mismo tiempo, las empresas de software y las grandes compañías de almacenamiento ofrecen consolas de gestión con alto nivel de funcionalidad, que aseguran que son capaces de registrar cada bit y cada byte del data center. Lamentablemente, esto no es suficiente. Mientras que el campo de actuación de la gestión de los data center se ha extendido significativamente en los últimos diez años, muchas de estas herramientas operan en un nivel demasiado superficial o no se llevan a cabo de la manera más precisa.

A menudo un hueco importante en el diseño del data center es la cadena de energía. Sin lugar a dudas, la industria está avanzando en la dirección correcta, el gran uso de la nube e incluso el trabajo que se está haciendo de optimización a nivel de aplicación. Sin embargo, a menudo se puede pasar por alto la entrada de electricidad a toda la pila.

En realidad, la mayoría de los data center no tienen suficiente visibilidad cuando se trata, no sólo de consumo de energía, sino de suministro a nivel de la granularidad que realmente se necesita para operar en niveles óptimos.

La mayoría de las instalaciones funcionan en tres fases, por ejemplo, pero no pueden ver el estado de los componentes en un momento dado.

Esto es un problema, ya que puede conducir a un desequilibrio: el administrador puede estar sobre-apilando la energía en una parte del sistema mientras que otras partes presentan déficit. Eso no es ideal para el equilibrio entre la mayor utilidad de la instalación y el costo, la energía eléctrica.

También significa que los operadores no puedan asegurar que dominan plenamente el entorno. Igualmente, puede tener consecuencias presupuestarias y de eficiencia y puede crear problemas reales cuando de forma inevitable se produce un apagón, por ejemplo, un enrutamiento inadecuado de la energía provocaría daños y un retraso en el retorno al servicio completo al cliente.

Para evitar esto, el profesional de la energía debe orientar su trabajo a mejorar la manera de automatizar las operaciones mediante la obtención de una imagen más completa, más granular, de todo el data center.

¿Cómo ayudaría esto? Los administradores de data center necesitan tener información del estado físico de todos sus equipos, en todo momento, así como de la forma en que la red está subiendo y bajando, y qué aplicaciones en la nube se están consumiendo. La forma ideal de conseguirlo es tener un sistema que sea capaz de decir cuándo deben realizarse cambios en la ubicación de la carga. El camino a seguir no son necesariamente los sistemas conscientes de sí mismos, sino sensibles a sí mismos, dando a los administradores de data center una comprensión científica de la enorme inversión de la que son responsables.

La industria ya se está moviendo en esta dirección, pero todavía hay una demanda de información aún más precisa y completa sobre todos los aspectos del funcionamiento del data center. Esto es algo que la industria necesita pensar, porque, como diría cualquier ingeniero, es imposible administrar apropiadamente lo que no está completo y numéricamente medido.

Por lo tanto, es seguro decir que la automatización completa de los data center está llegando, y efectivamente, esto es necesario. Los data center no pueden ser administrados de forma completa y transparente, hasta que la información sobre toda la pila de TI se pueda medir, analizar y utilizar con precisión en una escala más completa.

Los administradores del data center deben ser capaces de obtener una visión completa de cómo opera el sistema en cualquier momento, desde los electrones que entran en un extremo de la red eléctrica, hasta la aplicación que ayuda a su cliente de empresa en su teléfono inteligente conectado a la nube en el otro extremo.

http://computerworldmexico.com.mx/conseguir-la-eficiencia-del-data-center-a-traves-la-transparencia-energia/

¿Ya conoces los Data Center Edge?

En la década pasada, tener la información en un concepto de “nube” parecía ilógica. En ese momento, el Data Center era la base de toda compañía. Esa zona, edificación o cuarto de equipos donde se concentran los servidores y sistemas de TI constituía el corazón de cada uno de los sistemas utilizados cotidianamente para que la empresa funcione.

Con la llegada de IoT y Big Data, el volumen de información ha aumentado considerablemente: se ha pasado de soluciones de 10G a 40G y 100G. Esto creó la necesidad de evolucionar los Data Center y abrió camino al desarrollo del Cloud Computing. Sin embargo, este cambio de paradigma abrió nuevas preguntas en torno a la seguridad y disponibilidad de la información, que ahora queda almacenada en una red. Así es como los grandes fabricantes y desarrolladores de ERP, CRM y Big Data comenzaron a homologar y certificar sus soluciones para ambientes seguros y se abocaron al desarrollo de tecnologías como SDN (Software Defined Networking o Redes Definidas por Software) que tienen como objetivo facilitar la implementación de servicios de red de manera ágil, dinámica y escalable.

A la hora de elegir un Data Center, la gran pregunta de las compañías será si deben elegir un Data Center Hyperscale o un Data Center Edge. Para encontrar la mejor respuesta es imprescindible analizar en profundidad las necesidades de latencia, disponibilidad, seguridad de los datos, backup y restauraciones de información, acompañado del esquema de protección de sus sistemas.

Las nuevas formas de consumir y distribuir los datos han propiciado la creación de los Data Center Edge: unos centros de datos que, al ubicarse cerca de las instalaciones del usuario, acortan las distancias que deben recorrer los contenidos en las redes y generan una conexión más rápida. Su diseño es apto para soportar soluciones que exijan un alto performance en tiempos de respuesta y seguridad, donde su información estará más cerca de lo que puede estar un DC Hyperscale, ya que éste no requiere grandes exigencias de latencia y la ubicación geográfica no impacta en el cliente final.

En la actualidad se desarrollan arquitecturas de DC que permiten ser amigables con el medioambiente. Uno de los mejores ejemplos son los desarrollos de arquitecturas CACS (Contención del Pasillo Frío), donde el consumo de aire acondicionado puede reducirse considerablemente y ayudar en la eficiencia energética.

Mantener una disponibilidad sobre un Data Center aumenta la confianza y la seguridad que los clientes perciben sobre sus sistemas, adicionados a las buenas prácticas que se deben ejecutar.

La opinión de Esteban Jafet Rincón Gonzalez, especialista de producto regional de IFX Networks

Consejos para proteger su Data Center, puntos que deben priorizar las empresas para mantener su información protegida.

Data Center es el ambiente tecnológico donde se llevan a cabo todas las operaciones de una empresa. Es también, entre los gastos de TI, el rubro más costoso con relación al mantenimiento, climatización, actualizaciones frecuentes y almacenamiento, entre otras cuestiones. Por ese motivo, cuando existe la necesidad de reducción de costos de operaciones, la seguridad del centro de datos puede ser beneficiada. Un gran error para cualquier empresa.

De acuerdo con el Reporte Anual de Seguridad Cisco 2017, los ataques de seguridad a los Data Centers de empresas han tenido consecuencias significativas, con casi 25% de pérdidas en estas empresas de oportunidades de negocios, 20% de clientes y más de 30% en gastos. Uno de los mayores ejemplos de riesgo de ese tipo de descuido es el reciente surgimiento de ataques de ransomware en todo el mundo, que costó a las empresas atacadas más de $5 billones de dólares, además de daños de reputación.

Para que la seguridad del Data Center sea prioridad, existen diferentes elementos a observarse y asegurarse. Los primeros puntos por atender en la protección de las empresas son las fallas en la contabilidad de la información y los errores repetitivos, de todos los factores que necesitan ser eliminados.

Después, es esencial realizar constantes diagnósticos sobre los riesgos que el Data Center puede estar realizando, reforzando la seguridad de las puertas más vulnerables ante invasiones. Deben ser consideradas, inclusive, cuestiones físicas, como la localización de servidores, las restricciones de acceso a la sala del Data Center solamente para personas autorizadas, los riesgos de fugas en el lugar de instalación de las máquinas, considerar la posibilidad de desastres y accidentes, entre otros.

Ya desde el punto de vista digital, la seguridad del Data Center depende de establecer un plan de recuperación de desastres, asegurar los archivos antes de ser almacenados y adquirir las aplicaciones y software de gestión que se adapten al flujo de trabajo de todo el equipo. De esa forma, además de la protección, es posible garantizar economía en tiempo, especialmente con entrenamientos, permitiendo que la atención de los colaboradores esté centrada en el monitoreo de las acciones del Data Center.

Amenazas más allá de las barreras del firewall

Especialistas de Cisco apuntan que, una vez que las amenazas vengan tanto de adentro como de fuera del firewall, los usuarios necesitan adoptar más que solo un enfoque de “confianza y verificación” para defenderse de ataques de seguridad cibernética.

La seguridad debe sobrepasar el perímetro de los Data Centers y abarcar a los dispositivos de switches a routeadores, pues los ataques se han vuelto cada vez más sofisticados y exploran vulnerabilidades de hardware y software. Así, lo fundamental para tener un Data Center verdaderamente seguro es garantizar la transparencia de un sistema confiable.

Eso debido a que millares de nuevas vulnerabilidades son descubiertas a cada momento y saber cuáles de estas deben ser inmediatamente reparadas, se convirtió en uno de los principales desafíos para los equipos de seguridad digital en todo el mundo. Es un trabajo constante, ya que no todas las vulnerabilidades son creadas de la misma forma. Algunas son triviales, en cuanto otras pueden ser completamente destructoras.

 

Las nuevas tecnologías exigen más de los Data Centers

IoT, Big Data y otras tecnologías que se están popularizando rápidamente en el escenario mundial, exigen todavía mayor infraestructura de un Data Center, que deberá obtener cada vez más, mejor información.

Solamente en Brasil, de acuerdo con una encuesta de la Abes (Asociación Brasileña de las Empresas de Software), más de $6 billones de dólares fueron invertidos entre el año 2015 y 2016 en software, servicios y hardware para el desarrollo del Internet de las Cosas. Señal de que gran cantidad de datos necesitan Data Centers seguros para ser almacenados.

De esta forma, conseguir un Data Center seguro depende de la capacidad de identificar qué software, hardware y sistemas son prioritarios, y quien necesita de atención redoblada en el día a día de las organizaciones. Estas acciones son esenciales para la salud digital de cualquier organización.

No existe un Centro de Datos 100% seguro y cuyo equipo esté trabajando incansablemente para evitar ataques o desastres. Por ello, el asunto debe ser prioridad en las empresas que tengan interés en mantener su información protegida.

http://computerworldmexico.com.mx/consejos-para-proteger-su-data-center/

En 2018, la mayoría de las empresas estará emprendiendo una estrategia de Transformación Digital

La disrupción digital está empujando a las compañías más grandes y exitosas de América Latina a transformarse. Al iniciar el 2018, una de cada nueve empresas medianas/grandes en la región estará emprendiendo o considerando una estrategia de Transformación Digital”, aseguró Ricardo Villate, Vicepresidente de Grupo en la presentación de las 10 predicciones en LA para el mercado TIC de IDC, la principal firma de inteligencia de mercado, servicios de consultoría y conferencias para el sector de Tecnologías de la Información y Telecomunicaciones.

La consultora identificó doce fuerzas primarias a considerar al proyectar el futuro de la industria: Aceleración de DX, transformación centrada en la tecnología que altera a las empresas y a la sociedad; ritmo de cambio, capacidades tecnológicas que permiten transformaciones sostenibles a la velocidad de los negocios digitales; DX Delta, líderes y  disruptores que amplían la brecha de rendimiento; Factor humano vs máquina, impacto de la inteligencia artificial y la automatización; Sense, compute, actuate, el nuevo paradigma centrado en los datos; Interrupción de la plataforma, impulso del poder digital de la innovación a escala; Amenazas cibernéticas, robo, secuestro y ataque cibernético en aumento; Economía cambiante, cambio de las estructuras de valor y aumento del capital digital; Innovation impasse, sistemas heredados que limitan la transformación, y The future workforce, demanda global de talento digital.

“América Latina está saliendo de un ajuste económico de dos años, donde, el poder adquisitivo de los consumidores latinoamericanos y las condiciones económicas se han deteriorado. Para muchos países, el ajuste llegará a su fin con el 2017, a través de políticas monetarias más estrictas y una menor inflación. Habrá un optimismo cauteloso, marcado por el cambio de gobierno en 8 países, los cuales representan el 75 % de la economía regional. En este contexto político y económico, la transformación digital (DX) ha creado un mercado cada vez más global en el que las empresas de América Latina sienten la presión de seguir avanzando a un ritmo frenético a pesar de las restricciones externas de mercado” comentó Ricardo.

Con base en lo anterior, la consultora estableció 10 predicciones para el mercado de las TIC, respecto a procesos que ya se han gestado y darán importantes pasos durante 2018 y hacia los años posteriores:

  • Para 2021, al menos 40% del PIB de América Latina se digitalizará, con un crecimiento en cada industria, impulsado por ofertas, operaciones y relaciones mejoradas digitalmente; en 2021, los inversionistas utilizarán métricas de penetración en la plataforma/ecosistema, de valor de los datos, y de intimidad con el cliente como factores de evaluación de las empresas.
  •  Para 2020, el 40% de las empresas grandes de América Latina habrá articulado completamente una estrategia de plataforma tecnológica para la Transformación Digital (DX) de toda la organización, y estará en el proceso de implementar esa plataforma como el nuevo núcleo de TI para competir en la economía digital.
  • Para el 2021, el gasto de las empresas en servicios de nube, en hardware, y en software en América Latina, se duplicará con un crecimiento hacia más de los 11 mil MDD, aprovechando el entorno: 10% en el borde, 15% en cómputo especializado (no x86), y más de 80% en Multicloud.
  • Para 2019, el 30% de las iniciativas de Transformación Digital utilizarán servicios de IA en América Latina; para 2020, el 50% de las aplicaciones empresariales comerciales usarán IA, más de la mitad de los consumidores interactuarán con bots de soporte al cliente, y más del 40% de los nuevos robots industriales aprovecharán la IA.
  • Para 2019, las aplicaciones empresariales se desplazarán hacia arquitecturas hiper-ágiles, con más del 50% de desarrollo de aplicaciones en plataformas en la nube (PaaS), usando microservicios y funciones, y con más de 70% de nuevos microservicios desplegados en containers.
  • Para 2021, las interfaces humano-digitales (HD) se diversificarán; 10% de los técnicos de servicio de campo y 15% de los trabajadores de información usarán realidad aumentada. Casi el 50% de las nuevas aplicaciones móviles usarán voz como interfaz primaria, y el 20% de las empresas de consumo que se encuentran entre el Top 3000 de América Latina utilizarán sensores biométricos para personalizar las experiencias.
  • Para 2021, una de cada 5 empresas que se encuentran en el Top 3000 de América Latina usará Blockchain como fundamento para la confianza digital a escala; para entonces, el 25% de los bancos transaccionales globales, cerca del 30% de las empresas de manufactura y comercio, y el 20% de las organizaciones de salud, usarán redes de Blockchain.
  • Para el 2019, 1 de cada 10 empresas grandes en América Latina generará “data como servicio” a partir de la venta de data bruta, métricas derivadas, insights y/o recomendaciones, cifra que representa el triple de lo observado durante 2017.
  • Las mejoras en herramientas de desarrollo simples (de bajo código o sin código, “lowcode/nocode”) expandirán el número de desarrolladores no tecnólogos en los próximos 36 meses. Para 2020, estos desarrolladores no tradicionales habrán construido el 20% de las aplicaciones de negocio en uso en América Latina y el 30% de los atributos de nuevas aplicaciones.
  • Para el 2021, la mitad de las 2000 Empresas Globales con presencia en América Latina verán por lo menos el 20% de sus interacciones de servicios digitales provenir de ecosistemas API abiertos, amplificando su alcance digital mucho más allá de sus propias interacciones con clientes.

“Es importante ver estas predicciones en el contexto más amplio, como ingredientes clave de un plan estratégico para las empresas en su camino hacia la Transformación Digital, con el objetivo general de convertirse en empresas nativas digitales. El cambio a este mundo de TI centrado en DX, a gran escala y rápido, requerirá que los líderes reevalúen cuidadosamente todo lo que hacen sus organizaciones hoy en día. Existe un tránsito hacia una nueva generación de organización de TI, diseñada para interconectar y combinar las perspectivas y conjuntos de habilidades de forma más natural”, finalizó Ricardo Villate, Vicepresidente de Grupo para IDC Latinoamérica.

http://cio.com.mx/en-2018-la-mayoria-las-empresas-estara-emprendiendo-una-estrategia-transformacion-digital-idc/

3 Claves para entender en 2018 la Industria TI en México

El mercado mexicano de tecnología es un gran semillero de talentos, cuenta con grandes empresas de TI en su territorio, tiene políticas gubernamentales en pro del desarrollo digital, un mercado interno con gran potencial, localización territorial estratégica, entre otros beneficios que hacen del país un ambiente propicio para el avance tecnológico.

Conoce los principales puntos de esta industria para comprender cómo México se ha convertido en referencia mundial del sector:

  1. Compromiso político

Durante el año de 2013, el gobierno mexicano implementó un plan de acción EDN (Estrategia Digital Nacional), que tiene como principal meta, hacer una revolución digital en el país, a través de objetivos sectoriales como, innovación de la sociedad con participación de los ciudadanos, salud universal y eficaz, transformación educacional, transformación gubernamental y economía digital.

Para cada uno de estos frentes de acción, se propusieron tareas específicas que competen al gobierno, empresas y población en general, en busca de eficiencia tecnológica para alcanzar metas de desarrollo en el país.

El plan incluye el incentivo a la conectividad, inclusión digital (con más de 430 mil usuarios mexicanos ya conectados desde el inicio del plan), interoperabilidad, un marco jurídico para definir principios, garantías, derechos y deberes sobre el uso de Internet, más allá de la apertura de datos para el acceso de información gubernamental por parte de toda la población, para que exista una transparencia, innovación y participación ciudadana.

El EDN mejora la cadena digital mexicana e incentiva a empresas del sector, startups e industrias de tecnología que quieran instalarse y actuar en el país. Además, experimentando los esfuerzos de la iniciativa pública, profesionales en formación pueden interesarse en especializarse en el sector, buscando cursos técnicos y certificaciones para actuar como TI.

  1. Atracción de Inversiones

En México existen entidades gubernamentales que promueven el comercio y las inversiones extranjeras. Es el caso, por ejemplo, de Pro México, que este año celebra 10 años de existencia, destacando entre sus resultados, la atracción de 1,126 proyectos de inversión extranjera directa, lo que representa cerca de 109 millones de dólares y la generación de 411 mil empleos.

Organizaciones como esta, que ayudan a los empresarios a vender sus productos y servicios en los mercados fuera de sus fronteras, además de capacitar a los emprendedores, también incentiva el crecimiento de los mercados incluidos, ampliando las posibilidades de salida de sus ventas.

En el sector de tecnología existe la AMITI (Asociación Mexicana de la Industria de TI), una organización privada creada para desarrollar los negocios digitales. Otra fuente para la atracción de inversiones es el beneficio de los tratados de libre comercio, con más de 45 países, además de todo el conocimiento adquirido a lo largo de los últimos 27 años con la presencia de empresas extranjeras de todos los continentes en el país. Conociendo la cultura de otros lugares, la comunicación se facilita y es posible anticipar las necesidades de otros mercados.

  1. Mercado interno con potencial

De acuerdo con el World Economic Forum, en la investigación The Global Information Tecnology Report 2016, en que evalúa la innovación de los países en la economía digital, entre los 139 países participantes, México está en la 76ª posición.

En 10 pilares evaluados, México aparece arriba del promedio, entre los países más rentables en dos rubros: accesibilidad y uso del gobierno. Por ello, otros rubros necesitan mejorarse, teniendo muchas acciones potenciales en el mercado, por ejemplo, mejora en la infraestructura y uso individual de tecnología por parte de la población.

Además de ello, de acuerdo con la Canieti (Cámara de la Industria Electrónica, de Telecomunicaciones y Tecnologías de la Información), el sector de TI tiene un crecimiento anual de 7%, siendo tres veces mayor de lo que el propio PIB del país. Para el año 2018, están previstos 13 billones de dólares de inversión en el sector después de ser anunciada la Reforma de las Telecomunicaciones.

México es un país que se esfuerza para alcanzar objetivos tecnológicos, que colaborarán con el desarrollo interno del país y que abre sus puertas a inversiones extranjeras, siendo un lugar competitivo para producir tecnología entre las muchas opciones en todo el mundo.

http://cio.com.mx/claves-para-entender-en-2018-la-industria-ti-en-mexico/

Una Realidad y progreso en Mèxico es la Transformación Digital ¿En que etapa de transformación digital se encuentra su organización?

Lo que hoy conocemos como “transformación digital” es en realidad un efecto largamente esperado. Algunos investigadores la explican como una consecuencia de un progreso tecnológico al interior de las organizaciones que debe pasar primero por la digitization, que es la conversión de la información analógica a formato digital (numérico y binario); la digitalización, que es el “proceso” real del cambio tecnológicamente inducido, el cual ha dado origen a soluciones como el Internet de las Cosas, Industria 4.0 o Big Data; para finalmente llegar propiamente a la transformación digital, entendida como el efecto social total y global de la digitalización.

De esta manera, la digitization (la conversión), la digitalización (el proceso) y la transformación digital (el efecto) pueden acelerar los procesos de cambio en la sociedad, ya existentes y en curso, tanto horizontales como globales.

Es evidente que se trata de un concepto en cuyo entorno existen coincidencias y discrepancias. Incluso la definición del mismo sigue siendo polémica y variada, por lo que en este Reporte Especial se propuso que la transformación digital es la reinvención de una organización a través del empleo de la tecnología digital para mejorar la forma en que la organización se desempeña y sirve a quienes la constituyen.

Para ofrecer un panorama más integral sobre la realidad de este concepto en nuestro país, CIO México entrevistó a firmas analistas y consultoras del mercado TIC en nuestro país, a proveedores de reconocida presencia y a empresas que también están incursionando con soluciones específicas para atender este floreciente y prometedor mercado.

Jorge Gómez, Enterprise Leadership de IDC México, explica que el proceso de transformación digital es una especie de círculo virtuoso donde están presentes un factor económico, un cambio generacional y un tema tecnológico. “Estos tres interactúan de alguna manera para formar y acelerar la visión tecnológica o inclusive generar nuevas tecnologías”.

¿Cómo estima IDC que será la adopción de este proceso en cada componente de la llamada “Tercera Plataforma”, un término propuesto por la misma firma? De acuerdo con Gómez, en términos de la Analítica, se calcula un crecimiento de un 16% en México para los próximos años. “Esto es significativo si se compara con el crecimiento anual de 2.5% que está teniendo la industria de las TI en promedio”. Más aún, el cómputo en la nube tendrá un incremento de entre el 25 y el 28%, lo cual contrasta con la tasa de incremento de servidores que es menor al 1%. Por lo que corresponde a redes sociales, manifiesta que el 32% de los usuarios de este tipo de enlaces espera que el tiempo de respuesta a sus quejas sea menor a una hora y el 74% considera que es una obligación moral hacer público el reclamo por recibir un mal servicio. Finalmente, en el rubro de movilidad, el analista señala que durante 2016 se vendió un Smartphone cada segundo, en promedio. “Por lo tanto, podemos afirmar que la primera experiencia en Internet que tuvieron la mayoría de los mexicanos no fue en una computadora, sino en un teléfono móvil”.

Factores de negocio

Un proceso de transformación digital consiste en la búsqueda por encontrar mejores formas para hacer la interacción entre una organización y sus clientes, según la definición de Denyson Machado, vicepresidente de Seguridad para América Latina de CA Technologies. “En este proceso de búsqueda constante de innovación empieza con una idea, y la primera preocupación que se tiene es cómo, con agilidad, se puede transformar esa idea en resultados y dentro de un tiempo corto”.

Por su parte, José Luis Varela, Vicepresidente de IT Transformation en Oracle de México, destaca tres aspectos en este sentido, uno de ellos, muy interno y a nivel de proceso, es de la innovación; otro constituye una palanca muy fuerte hacia el exterior de las compañías e inclusive los organismos gubernamentales como son los clientes y los ciudadanos, respectivamente; y el tercero, constituido por las estructuras de costos, es el que habilita que las organizaciones adopten procesos de transformación digital. Ante ello, asevera que “deben hacerlo sin opción, pues no hay alternativa en este momento, y lo que hay que decidir muchas veces es el cómo y el cuándo algunas de las iniciativas comienzan a ser aplicadas”.

Aspectos que debe abarcar

En opinión de Rafael Solares, Director General de VMware en México, son cuatro los pilares básicos que debe tener una estrategia de transformación digital: 1) tener un centro de datos moderno, “que rompa los silos de información que existían antes para compartir los recursos disponibles, según se vayan demandando”; 2) la integración de nubes públicas, “ya que para nosotros el futuro será de nubes híbridas”; 3) el fortalecimiento del trabajo digital; y 4) la transformación de la seguridad.

Para Carlos Arochi, Director General de Hitachi Vantara en México, los aspectos que debe abarcar la transformación digital se dividen en tres rubros: “el primero es el de operaciones y procesos, que se refiere a cómo poner una solución en el mercado de manera eficiente en términos de costos, tecnología, y tiene que ver con la automatización del proceso, la movilidad de la fuerza de trabajo y eficiencia en la cadena de suplementos. El segundo es el relativo a la experiencia que tengan nuestros clientes para que las soluciones obtenidas ofrezcan más ventajas frente a sus competidores en cuanto a sencillez y rapidez. El tercer rubro es la generación de nuevos modelos de negocio”.

Algunas empresas proveedoras han acompañado a grandes organización para efectuar procesos completos de transformación en sus áreas de TI, “para llevar toda su operación hacia la nube, lo que les ha permitido tener reducciones a nivel operativo entre 35 y 40% de lo que tradicionalmente ha sido su costo de operación”, afirma Varela, de Oracle.

Sin mencionar nombres, refiere a algunas empresas mexicanas del sector de bienes de consumo con presencia mundial,  cuyos ahorros operativos cercanos al 35% se han transformado en proyectos de Big Data, de investigación y desarrollo de nuevos productos, en aplicaciones de movilidad e incluso servicios de chatbots.

Riesgos asociados

Lo expuesto por los entrevistados reafirma o pone en evidencia diversas áreas de oportunidad relacionadas con este proceso. Sin embargo, como en todo ámbito tecnológico, existen riesgos asociados, como afirma Solares, de VMware. “Minimizar el impacto que tiene este cambio, así como la responsabilidad que tiene el área de TI para liderar la transformación digital es el principal riesgo”, advierte el directivo.

Otros, como Machado, de CA Technologies, reconocen que es difícil hacer un balance entre comodidad y seguridad, ya que los clientes, dice, buscan ambas, y se les deben entregar aplicaciones fáciles de manejar, pero también con seguridad transparente para ellos.

Para Abelardo Lara, Director General de Veeam México, el mayor riesgo de efectuar un proceso de transformación digital es no tener respaldada la información o no se cuente con una solución de alta disponibilidad, “ya que tal carencia, el final del día, impactará en las ventas, en los clientes y en la imagen que tenga la organización”.

Asimismo, la oferta tan amplia de soluciones disponibles que hay en el mercado respecto a este proceso, puede considerarse también como un riesgo, pues hay que lograr que las soluciones de varios proveedores convivan entre sí para lograr un objetivo, como argumenta Alejandro Lomelín, Director de Ventas para Soluciones de Data Center de HPE México. “En ocasiones, entre lo que resuelve un proveedor y lo que ofrece otro pueden quedar huecos en medio no resueltos. Una solución podría ser que las organizaciones definieran una estrategia unificada para de esta forma reducir la cantidad de proveedores involucrados”. Saber muy bien con quién se invierte para que sea una tecnología que tenga permanencia en el futuro es también de mucha relevancia, agrega Lomelín. “Un riesgo sería no invertir en las tecnologías correctas”.

Por su parte, Alejandra Pineda, Directora de Gobierno, Riesgo y Cumplimiento de la empresa mexicana Opitimiti Network, aconseja no descuidar los retos que representa la transformación digital en materia de seguridad de la información. “Los temas de actualidad como ransomware (WannaCry, Badrabbit), ataques de denegación de servicio, ciberguerra y las campañas dirigidas demandan cambiar el enfoque de la seguridad para que sea proactivo y no reactivo como ocurre actualmente”, señala.

Entre las amenazas que puede sufrir una organización que esté en plena transformación digital as campañas de ataques dirigidos que afectan las infraestructuras críticas de las organizaciones, filtración o robo de la información, agrega Javier Luna, Director de Ingeniería de Optimiti Network. “También existe el riesgo de que las organizaciones crezcan de forma no estructurada y se vean envueltas en incumplimiento normativo y legal, o bien, que haya falta de control de dónde se alberga la información que se genera como parte de esta transformación digital en términos de geoubicación”. En su opinión, la falta de capacitación y el no involucramiento del personal de las organizaciones en este proceso constituyen figuran entre los principales riesgos asociados.

En ello coincide Solares, de Vmware: “La transformación digital, la estrategia tecnológica constituye sólo uno de los componentes. Es necesario pensar también en la transformación de los procesos y de las personas, pues para cada uno de nosotros, como colaboradores de una organización, se modificará nuestro rol una vez que el proceso haya permeado a todas las áreas”.

Áreas beneficiadas

Uno de los principales retos que tiene un área de TI es cómo puede responder al incremento cada vez mayor de los requerimientos de la empresa con presupuestos que van a la baja.

“Las áreas de la organización que están más en contacto con el cliente son o deben ser las más beneficiadas con el proceso de transformación digital, pues como usuarios cada vez estamos más acostumbrados –e incluso exigimos– para que las compañías con las que interactuamos entreguen servicios de manera inmediata en nuestro dispositivo móvil sin fallas, conozcan nuestras necesidades y los productos que tenemos contratados con ellos”, explicó Solares.

“Hace 15 años el director de Sistemas era quien tenía el presupuesto y sabía dónde y en qué invertir. Hoy los dueños de los presupuestos son normalmente los usuarios, de manera que hay que conversar con ellos y apoyarles en este proceso de transformación digital”, manifestó Lara, de Veeam.

Enfoque de las inversiones en DX

Desde la perspectiva de Hitachi Vantara, las inversiones relativas a la transformación digital en México se destinarán hacia cuatro rubros: “el primero –que me parece es el más avanzado– es el manejo de la información o data management, que constituye entre el 70 y 80% de la inversión en las organizaciones, lo cual hará crecer el gobierno de datos, que es el segundo rubro, el cual tiene que ver con quién, cómo y cuando los puede accesar tales datos tanto en el data center como en las sucursales, dispositivos móviles y los mismos clientes; el tercer rubro es la movilidad de datos, que consiste en hacer que la información que ya se tiene almacenada y gobernada sea accesible de manera remota ya sea en la nube, en una aplicación o en un dispositivo desde alguna sucursal, que constituye entre el 5 y 10% de las inversiones; y el cuarto rubro es el data analytics, cuya inversión por parte de las empresas hoy no alcanza el 5%, pero vislumbramos que hacia el año 2022 será el que más crecimiento tenga. “Calculamos que cerca del 2020, ya con un modelo de transformación digital completamente adoptado, el tema de analytics y el aprovechamiento de la información podría representar hasta un 40% del presupuesto de las áreas de TI”, pronostica Arochi, de Hitachi Vantara.

Mayor reto de los CIO en México

En el pasado, era común que se hablara respecto a cómo hacer más eficientes los procesos organizacionales mediante la tecnología, en cambio hoy tenemos que hablar de cómo generar ingresos con los recursos tecnológicos, afirma Lomelín, de HPE.

Para Pineda, de Optimiti Network, uno de los desafíos de un CIO es alinear los objetivos de TI con los objetivos estratégicos del negocio. “Esto le permitirá actuar y participar de manera natural, rápida y justificada en cada una de las propuestas que determinará la transformación digital”.

Incluso el concepto puede ir más allá para transformar el papel de los CIO. “Ellos pueden salvar o reinventar sus organizaciones en el mundo que vivimos, porque las que no lo hagan tendrán un futuro diferente al que quieren tener”, como advierte Noam Bizman, Vicepresidente para Latinoamérica de ServiceNow.

Por su parte, Abelardo Lara, de Veeam, advierte que el mayor reto que tiene un CIO es satisfacer los requerimientos de las áreas usuarias. “El 80% del presupuesto que tienen los departamentos de TI se ocupa para mantener el negocio operando y sólo el restante 20% pueden destinarlo a invertir en nuevas tecnologías o soluciones. Deben por ello ser mucho más eficientes y con menos recursos; he ahí su mayor desafío”.

Dejó de ser una moda

Según Mauricio García-Cepeda, Director General para México y MCA de Service Now, transformación digital es la reinvención de las organizaciones a través de la adopción de nuevas tecnologías para tener mayores ingresos, menores costos y/o gastos mediante la eficiencia operacional buscando siempre la experiencia final del cliente y del empleado”.

Lo importante, como agrega Bizman, de ServiceNow, es que las empresas proveedoras contribuyan a transformar la esa visión en realidad. “Si como ejecutivo se tiene la visión de dar este tipo de experiencia a los empleados y a los clientes, se puede llevar esta visión en una realidad en cuestión de días hasta ocho semanas, con poco riesgo, rápido y un retorno de la inversión de hasta tres dígitos en sólo siete meses, en la mayoría de los casos”.

Gómez, de IDC, insiste en que la transformación digital no es una moda tecnológica. “No es como cuando nos hablaban de la arquitectura cliente/servidor; se trata de un fenómeno que va más allá de la tecnología y que involucra aspectos de índole económico y social”.

Finalmente, el éxito de la transformación digital pasa por una transformación de conocimiento importante, de la cual todos somos responsables, tanto quienes proveemos tecnología, como los que ayudamos a educar a socios y clientes, e incluso los medios de comunicación, todos ayudan a que la transformación digital no se vea como algo que ocurrirá en algún momento. “Ya se dio, es una realidad, afirma Varlela, de Oracle. “Ahora lo importante es cómo maximizarla para hacer más negocios y relacionamientos a través de las herramientas que ya se proveen”.

IDC ha definido un marco referencial para saber cuándo una organización está avanzando en términos de transformación digital. En este espectro se incluyen desde aquellas compañías que consideran que la transformación digital “no existe”, “no es para mí”, “es sólo una moda” (equivalente a un 6% de las organizaciones en México con esta mentalidad, un porcentaje alto en comparación con el 1.5% o menos que se reporta en Estados o Europa), hasta organizaciones consideradas como “disruptoras”, pues han cambiado radicalmente su modelo de negocio.

Entre ambos extremos, la firma de consultoría ha clasificado diversas etapas de los centros de datos dentro del proceso evolutivo de la transformación digital: en primer término están los centros de datos “arcaicos”, instalados en empresas que no invierten en DX;  luego están los centros de datos “estáticos”, en los cuales ya se ha invertido un poco para lograr la DX, por lo que el interés radica en disminuir costos mediante la consolidación de infraestructura, por ejemplo, pero las iniciativas de transformación digital se realizan algunas área de la organización, son aisladas y sin una estrategia común; en seguida está el centro de datos “transformacional”, cuya organización ya se ha dado cuenta que la transformación digital es un imperativo de negocio, el área directiva de la misma ya toma cartas en el asunto y los proyectos son encabezados por un responsable que puede llamarse Chief Digital Transformation Officer o algún equivalente, quien busca sinergias para utilizar tanto capacidades propias como de terceras compañías. “La mayoría de las organizaciones que están adoptando la transformación digital están en esta etapa”, aseveró Jorge Gómez, Enterprise Leadership de IDC México. En el sector bancario, por ejemplo, las instituciones ofrecen aplicaciones móviles para que los cuentahabientes conozcan sus saldos, hacer pagos, etc., pero todavía requieren que éste acuda a una sucursal para solicitar algunos servicios.

La siguiente etapa en el proceso evolutivo la constituyen compañías “flexibles”, que pueden entregar una experiencia completamente digital a sus clientes o usuarios. Los responsables de implementar tal proceso utilizan métricas muy sólidas y las decisiones de inversión en tecnología ya no están  relacionadas con el centro de datos cual si fuera un solo centro de costos, sino tiene que ver con la agilidad para la toma de decisiones. Asimismo, los recursos son vistos como un pull para repartirlos de forma dinámica conforme vayan saliendo o iniciativas.

Finalmente, está el centro de datos “dinámico”, que corresponde a organizaciones disruptivas. “En esta etapa no se concibe al datacenter como un edificio, sino como un proveedor o facilitador de recursos tecnológicos ubicuos y cuyas capacidades pueden estar en el edificio o fuera de él. Apenas entre 3 y 4% de las organizaciones que están adoptan la transformación digital en México se encuentran en esta etapa”, afirmó Gómez.

http://cio.com.mx/reporte-especial-transformacion-digital-progreso-realidad-en-mexico/

 

TENDENCIAS PARA EL CENTRO DE DATOS DEL FUTURO

El centro de datos de próxima generación traspasará los límites actuales: integraran a la perfección instalaciones centralizadas con un extremo de la red más inteligente y crítico para las empresas. Estos centros de datos de 4ª generación están emergiendo y se convertirán en el modelo de las redes de computación de la década de 2020. El advenimiento de estos centros de datos dependientes del extremo de la red es una de las cinco tendencias de centros de datos identificadas para 2018 por un panel de expertos global de Vertiv.

“La evolución del extremo de la red, impulsada en gran parte por la adopción del Internet de las Cosas, está repercutiendo en la industria de los centros de datos en la misma medida en que lo hizo la introducción de la nube,” comentó Rob Johnson, director ejecutivo y presidente de Vertiv. “Como vimos entonces, las implicaciones de un cambio tan trascendental tienen un largo alcance y, en algunos casos, resultan impredecibles. La única certeza es que las expectativas siguen siendo las mismas: un servicio fluido, inmediato e ininterrumpido”.

Pronósticos anteriores de Vertiv identificaron, entre otras, tendencias vinculadas a la nube, a sistemas integrados, a seguridad de las infraestructuras y más. A continuación detallamos cinco tendencias esperamos repercutan en el ecosistema de los centros de datos durante 2018:

 

1.    Surgimiento del centro de datos de 4ª generación

No importa si se trata de gabinetes de TI tradicionales o de microcentros de datos de 140 metros cuadrados, las organizaciones dependen cada vez más de la computación en el extremo de la red. El centro de datos de 4ª generación integra de forma holística y armoniosa computación básica y en el extremo de la red, lo cual eleva estas nuevas arquitecturas a una categoría más allá de simples redes distribuidas.

Esto está ocurriendo con arquitecturas innovadoras que ofrecen una capacidad cercana al tiempo real en módulos escalables y económicos que aprovechan soluciones optimizadas de gerenciamiento térmico, fuentes de alimentación de alta densidad, baterías de iones de litio y unidades de distribución de energía avanzadas. Las avanzadas tecnologías de gestión y monitoreo se suman a todo esto, y permiten que cientos o incluso miles de nodos de TI operen en conjunto para reducir la latencia y los costos inciales, aumentar las tasas de utilización, eliminar la complejidad y permitir que las organizaciones añadan capacidad de TI conectada en red cuándo y dónde la necesiten.

2.    Los proveedores de servicios en la nube se pasan a la coubicación

La adopción de la nube se está produciendo con tal rapidez que en muchos casos los proveedores de este tipo de servicios se ven incapaces de satisfacer las demandas de capacidad. En realidad, algunos ni siquiera lo intentarán. Preferirán centrarse en proveer servicios y en otras prioridades antes que en la construcción de nuevos centros de datos y acudirán a las coubicaciones para satisfacer sus demandas de capacidad.

 Al centrarse en el desempeño y la escalabilidad, la coubicación puede satisfacer la demanda con mayor rapidez al mismo tiempo que impulsa la reducción en los costos. La proliferación de las coubicaciones también permite a los proveedores de servicios en la nube elegir socios en lugares que se ajustan a la demanda del usuario final, donde pueden operar como instalaciones en el extremo de la red. La coubicación responde al ofrecer secciones de sus centros de datos para servicios en la nube o al construir instalaciones completas para ajustarse a las necesidades.

3.    Reconfiguración de la clase media de los centros de datos

No es ningún secreto: las mayores áreas de crecimiento en el mercado de centros de datos están en las instalaciones a hiperescala (por lo general proveedores de coubicaciones o de servicios en la nube) y en el extremo de la red. Con el crecimiento de los recursos en las coubicaciones y en la nube, los operadores de centros de datos tradicionales tienen ahora la oportunidad de reimaginar y reconfigurar sus instalaciones críticas para las operaciones locales.

Las organizaciones con varios centros de datos seguirán consolidando sus recursos internos de TI, y probablemente pasarán lo que puedan a la nube o a centros en coubicaciones. También reducirán el tamaño de sus instalaciones y aprovecharán las configuraciones de rápida implementación y escalabilidad. Estas nuevas instalaciones serán más pequeñas, pero más eficientes y seguras, con alta disponibilidad, coherentes con la naturaleza crítica que estas organizaciones buscan proteger.

En partes del mundo donde la adopción de la nube y de las coubicaciones es más lenta, se espera que las arquitecturas de nube híbrida constituyan el siguiente paso, al unir recursos de TI de su propiedad más protegidos con una nube pública o privada para reducir costos y gestionar los riesgos.

4.    La alta densidad llega (por fin)

La comunidad de centros de datos lleva una década prediciendo un pico en las densidades de potencia de los racks, pero esos aumentos han sido como mucho incrementales. Esto está cambiando. Si bien las densidades por debajo de los 10 kW por rack siguen siendo la norma, las implementaciones de 15 kW no son poco habituales en instalaciones a hiperescala y algunas se mueven lentamente hacia los 25 kW.

¿Por qué ahora? La introducción de sistemas de computación hiperconvergentes y su amplia adopción constituyen el principal impulsor. Las coubicaciones, por supuesto, hacen especial hincapié en el espacio de sus instalaciones y unas elevadas densidades en los racks pueden significar mayores ingresos. Y los avances en las tecnologías de servidores y chips para ahorrar energía solo pueden demorar lo inevitable. Sin embargo, hay motivos para creer que un movimiento general hacia densidades más altas puede verse más como una marcha lenta y constante que como una carrera de 100 metros.

Las densidades significativamente mayores pueden cambiar de manera determinante el factor de forma de los centros de datos, desde la infraestructura de eléctrica hasta el modo en que las organizaciones refrigeran entornos de mayor densidad. La alta densidad se está acercando, pero probablemente llegará (bastante) después de 2018.

5.    El mundo reacciona con respecto al extremo de la red

A medida que más empresas mueven su computación hacia el extremo de la red, es necesario evaluar de forma crítica las instalaciones que albergan estos recursos periféricos y la propiedad de los datos incluidos en ellos. Esto incluye el diseño físico y mecánico, la construcción y la seguridad de las instalaciones periféricas, y complicadas cuestiones relacionadas con la titularidad de los datos. Gobiernos y organismos normativos de todo el mundo se verán cada vez más ante el reto de tener en cuenta estos problemas y actuar respecto a ellos.

Mover los datos de todo el mundo a la nube o a una instalación centralizada y de vuelta para su análisis es demasiado lento y complicado, por lo que cada vez más clústeres de datos y capacidades analíticas se sitúan en el extremo de la red. Esto incluye distintas ciudades, estados o países, y no necesariamente el lugar de la sede de la empresa. ¿Quién es el dueño de los datos y qué está autorizado a hacer con ellos? El debate sigue vivo, pero en 2018 esas conversaciones avanzarán hacia un curso de acción y hacia respuestas.

http://computerworldmexico.com.mx/tendencias-para-el-centro-de-datos/#more-35052

¿Conoces los aspectos económicos del PUE y los Centros de Datos?

El PUE ha sido una métrica importante en el mundo de los centros de datos desde hace tiempo.  Las compañías que operan centros de datos normalmente tratan de conseguir el PUE más bajo con el fin de reducir sus costos operativos y promover acciones sustentables hacia el medio ambiente. En este artículo me enfocaré en los aspectos económicos del PUE y cómo los proveedores y operadores de centros de datos pueden maximizar el desempeño de sus instalaciones.

Eligiendo la ubicación ideal

Con el fin de alcanzar valores PUE extremadamente bajos, varias compañías grandes de internet eligieron construir centros de datos en los países nórdicos debido a redes estables y precios bajos de energía eléctrica, y acceso a free cooling todo el año. Los centros de datos de Google en Finlandia y Facebook en el Node Pole en Suecia son dos ejemplos. Sin embargo, rangos de temperatura y humedad más amplios (definidos por ASHRAE) para centros de datos, han hecho posible que se implementen instalaciones con PUE bajo en otras ubicaciones geográficas.

Desarrollos en enfriamiento

Un área clave en desarrollo técnico son los sistemas de enfriamiento free cooling indirecto evaporativo, disponibles por parte de un gran número de proveedores de tecnologías de refrigeración.  Al usar un enfriador evaporativo el aire seco exterior de 32°C puede ser utilizado para enfriar el aire en el centro de datos hasta 22°C, permitiendo ahorros importantes al requerir menos electricidad.

Aún más emocionante desde una perspectiva económica es que, para algunas ubicaciones, esto permite usar el aire exterior para enfriar durante todo el año; permitiendo un PUE máximo más bajo y ofreciendo ahorros significativos en CAPEX.  Primero, debido a que el air free cooling puede usarse los 12 meses del año y los sistemas mecánicos de enfriamiento DX requeridos para los días cálidos pueden reducirse.  En algunos casos es posible reducir el tamaño de un sistema de respaldo DX de un total del 100% en enfriamiento a sólo contar con un 25% adicional del total de enfriamiento requerido.  Además, un PUE máximo más bajo implica que la potencia máxima consumida por el centro de datos es menor, permitiendo disminuir el sistema de potencia eléctrica y reduciendo aún más el CAPEX.

Mercados emergentes

Otro aspecto relacionado con el PUE es el costo de la electricidad.  Los precios varían significativamente entre países y pueden lograr o destruir el caso de negocio para invertir en un centro de datos con bajo PUE.  Por otra parte, en muchos mercados emergentes la disponibilidad de la red eléctrica y su estabilidad es limitada, lo que provoca que se tengan que utilizar generadores a diésel por largos períodos. Estos pueden variar entre unas pocas horas al día, hasta centros de datos que se energizan 24/7 con generadores.  Además de los costos del combustible, los generadores provocan gastos en servicios y refacciones.  La tabla que se encuentra a continuación muestra como varían los costos de electricidad anualmente dependiendo del costo de la electricidad ($/kWh) y el valor PUE del centro de datos para uno con carga IT de 1 MW.

Podemos ver que la reducción en PUE de 1.5 a 1.2 en un ambiente con una red estable (0.1 $/kWh) ofrece ahorros en OPEX en más de $260K.  Para un centro de datos operado con diésel (0.3 $/kWh), el mismo nivel de ahorro en OPEX se obtiene a partir de una menor reducción en PUE (de 1.5 a 1.4 por ejemplo), mostrando que los aspectos económicos del PUE son aún más relevantes en países emergentes.

Es aquí donde tiene más sentido considerar diferentes formas para lograr un PUE más bajo, incluyendo contención de pasillos calientes/fríos, temperaturas de centros de datos más elevadas y equipo de potencia modular de mayor eficiencia.  En áreas donde el costo de electricidad es elevado, los sistemas de air free cooling deben considerarse aún si sólo son efectivos en ciertas partes del año o durante las noches cuando las temperaturas exteriores son más bajas.

Entre PUE y redundancia

Una mayor redundancia en el centro de datos (lo que conlleva una clasificación Tier más alta) puede impactar en un PUE más alto debido a que las pérdidas de energía en cada pieza de equipo se incrementan por una utilización más baja.  Con una distribución de potencia completamente redundante, la utilización máxima del equipo considerando una capacidad total es de tan sólo 50%.  Considerando esto, la tecnología de potencia modular puede ofrecer una mayor eficiencia aún con una utilización baja con sistemas modernos de UPS que permitan mantener una alta eficiencia con utilizaciones tan bajas de hasta 25%.  Al comenzar con menos módulos de UPS conectados, el sistema puede mantener una alta eficiencia desde el primer día y de esta forma la tecnología modular de potencia puede contribuir a mejorar los números al reduciendo el CAPEX desde el primer día, así como costos operativos.

El haber construido un gran número de centros de datos en Latinoamérica, Europa, África y Asia, nos ha permitido aprender en Flexenclosure que los casos de negocio para inversión con base en el PUE y las mejores soluciones técnicas deben ser adaptados a cada ubicación geográfica y tipo de centro de datos.  Un edificio de centros de datos prefabricado con flujos de aire controlados, como el eCentre, siempre es un buen punto de partida.

Tomas Rahkonen:

Tomas tiene más de quince años de experiencia en posiciones globales en la industria TIC. Sus responsabilidades anteriores incluyen cargos ejecutivos en Ericsson y posiciones gerenciales en Sony Ericsson, como director de equipos multidisciplinarios. Tomas ha registrado varias patentes y ha sido miembro del comité de patentes de Sony Ericsson. Tiene un Ph.D. en Sistemas de Control Industrial del KTH Royal Institute of Technology en Estocolmo.

Sobre Flexenclosure:

Flexenclosure ofrece infraestructura de internet sostenible para mercados emergentes, diseñando y construyendo edificios de centros de datos prefabricados y sistemas de gestión inteligente de energía para la industria TIC. La compañía ofrece sistemas totalmente integrados, modulares, probados en fábrica, adaptables a condiciones locales y rápidos de instalar.

eSite x10 es el primer sistema híbrido de energía eléctrica para sitios de telecomunicaciones especialmente diseñado bajo normas de telecomunicaciones para exteriores. Es una unidad patentada, sellada, a prueba de manipulaciones, con sistema de enfriamiento pasivo por convección, sin filtros, sin partes móviles y que no requiere ningún mantenimiento. eSite x10 es el futuro de la energía híbrida.

eCentre es un edificio de centro de datos de última tecnología, de diseño personalizado, prefabricado y preintegrado que es rápido de implementar, energéticamente eficiente y a prueba de futuro. eCentre ofrece piso blanco flexible y fácilmente expandible y ha sido certificado hasta nivel Tier IV.

http://www.instalacionesrv.info/aspectos-economicos-del-pue-power-usage-effectiveness-y-los-centros-de-datos/