El 70% de las empresas operan en entornos híbridos

No existe una cloud dominante dentro de la empresa. Para que la agilidad abarque a toda la empresa, ésta no puede construirse en silos. Es necesario una integración que permita trabajar en un entorno híbrido.

“Queda mucho por hacer de agilidad hacia dentro y hacia el cliente, detrás de todo esto hay una base tecnologica, el modelo de data center está cambiando”. De hecho, según un estudio de IDG Research un 70% de empresas operan en un entorno híbrido, ha explicado a los asistentes Alberto Belle, analista de IDG Research, durante la celebración del evento IDG Cloud, hoy en Madrid. “La pregunta es; ¿qué es la nube híbrida?, ¿qué significa? El reto que tenemos es que pensamos en parcelas y; ¿dónde aplicamos esa hibridación? Hace años se hablaba de la empresa de dos velocidades, ahora lo que existe es una transición a una única velocidad”.

‘Cloud’ híbrida: operar en ambos  mundos

Las empresas necesitan una plataforma de datos lo suficientemente ágil y eficiente que les ayude a hacer su trabajo. ¿Cómo ha ido cambiando el mundo de cloud? “Al principio habia un gran escepticismo y de repente ‘se puso de moda’, llegamos al high del ciclo de adopción y en ese momento todos adoptamos una estrategia cloud first“, ha señalado Marco Blanco, country manager de Pure Storage España. “Ahora es cuando nos estamos dando cuenta de las ventajas que tiene ejecutar cargas de trabajo en la nube pública”.

¿Qué ha pasado? Las empresas han evolucionado sus cargas de trabajo on premise y en ese viaje hacia la nube híbrida, se ha elegido qué se adopta en un lago y qué en otro. “Lo llamamos cloud híbrida pero en verdad estamos eligiendo qué va en un cloud y qué va on premise“, ha añadido Blanco. “Las aplicaciones para sacar partido a los distintos sabores del cloud se están disgregando, se están creando microservicios y es muy difícil que una aplicación opere en ambos mundos”

Cloud y agilidad deben ir de la mano, lo que requiere una hibridación  no sólo a nivel de infraestructura sino de manera nativa de las aplicaciones. Para Pure Storage, “la solución es un conjunto de datos compartidos entre cloud y on premise que permitan poder mover las aplicaciones de un lado a otro”.

https://www.computerworld.es/negocio/el-70-de-las-empresas-operan-en-entornos-hibridos

Advertisements

Los Centros de Datos consumen el 2% de la energía producida a nivel mundial

“Según un informe del grupo Silent Partner Group of Companies, los centros de datos consumen aproximadamente el 2% de la producción de energía a nivel mundial de la humanidad, y esa cifra en aumento está empezando a crear problemas de seguridad y logística. La publicación apunta a una breve interrupción del suministro eléctrico de AWS (Amazon Web Services, la Nube pública de Amazon) en marzo y mayo de este año que dejó fuera de combate el servicio, así como un enlace de Wikileaks de las ubicaciones “secretas” del centro de datos de AWS. El grupo parece pensar que se necesitan estándares más altos para que la futura infraestructura de Internet sea segura y confiable, especialmente si los servicios son utilizados por organizaciones como el Departamento de Defensa de los Estados Unidos.”

“Los Centros de Datos de Misión Crítica no pueden permitirse el menor contratiempo, o podrían tener repercusiones muy costosas”, advirtió Hobbie.

“Los cortes de energía y las brechas de seguridad son totalmente evitables; las empresas solo deben hacer su debida diligencia y elegir a sus socios de servicios empresariales basados ​​en la nube. En SPGC, estamos usando la experiencia de nuestro equipo para brindar lo más potente, multidimensional y centros de computación en la nube altamente eficientes para clientes en todo el mundo, y estamos orgullosos de liderar el camino en innovaciones de datos / energía “.

https://www.htcmania.com/showthread.php?t=1456036

 

MITOS Y REALIDADES SOBRE LA TRANSFORMACIÒN DIGITAL

Compañías como Uber, Amazon o Airbnb han roto las reglas del juego. La velocidad a la que se produce el camio es exponencial, llena de innovación y modelos disruptivos. “Estamos ante una época de cambio, no un momento de cambio, con clientes y modelos cada vez más conectados, colaborativos y digitales”, alerta la experta en transformación digital Joana Sánchez durante un encuentro organizado por Aggity en Madrid. “Ahora es el momento de usar la tecnología para toda la Humanidad”, insiste la fundadora de Incipy y la escuela Inesdy.

Las compañías que están teniendo éxito en el siglo XXI, en opinión de Sánchez, se caracterizan por compartir tres enfoques: saben utilizar la tecnología para ayudar a las personas, rastrean los datos  de los usuarios para usarlos en su beneficio y son compañías con una cultura diferente.

Los cuatro mitos sobre lo digital

La realidad es que las empresas españolas, tienen un 5/10 en maduración digital, según la última encuesta de Incipy entre más de 300 directivos. Por eso es necesario, según Sánchez, mejorar los puntos de contacto a través de una una Experiencia de Cliente y acabar con los mitos que hay en relación a la transformación digital:

  1. Digital es igual a marketing: En realidad, no es suficiente con eso, sino que debe haber un liderazgo de cambio en la organización, con una cultura abierta, innovadora, colaborativa y ágil, convirtiendo la experiencia en algo extraordinario.
  2. Los Digita es Tecnología: La clave está realmente en las personas, por eso es básica la gestion del cambio desde las áreas de talento de RRHH y llevar a cabo una estrategia basada en el Employee Centricity. Para ello hay que impulsar formación en competencias y habilidades, además de conocimiento. Un gran logro sería conseguir que la organización utilice la tecnología mejor que la competencia.
  3. Lo digital es un canal más: La experiencia es lo único que no se olvida, por eso lo que ha cambiado realmente es que las empresas tiene que pensar en cómo entender a sus potenciales clientes (Customer Centricity). El cliente digital se ha convertido en el principal promotor de la empresa. La clave está en saber cómo son y cómo se les puede ayudar. La tecnología va a ayudar a crear en este sentido, una mejor Experiencia de Cliente.
  4. Digital es comercio electrónico: Hay que conectar con la tecnología y utilizar las plataformas digitales, tendencias como el bitcoin, blockchain, Big Data, Inteligencia Artificial… para cada uno de los proyectos. Ser disruptivos, y medir los resultados, buscando una experiencia, un cambio.

https://www.contactcenter.es/mitos-y-realidades-sobre-la-transformacion-digital-2018-20-18456/#

Las tendencias en Data Center a tener en cuenta para su negocio

Con el final del año se comienzan a definir los comportamientos que tendrá la tecnología para el próximo periodo y de qué manera afectarán a los negocios en el mediano y el largo plazo.

En lo que a Data Centers se refiere, se definen las siguientes 5:

– Aumento de consumo energético.
– Microcentros de datos.
– Climatización y refrigeración líquida.
– Infraestructura para Data Centers híbridos.
– Gestión inteligente de la conectividad.
“Hemos determinado estas tendencias con base en nuestra experiencia en el mercado, su comportamiento en el último año, y las perspectivas de negocio del país, además de publicaciones especializadas como Uptime Magazine y las consideraciones de nuestros colegas”, explica Guillermo Varón, gerente de Ingeniería de UPSistemas.

Comportamientos en detalle

Esas 5 tendencias se explican de la siguiente manera:
– Aumento de consumo energético.
“El consumo energético se ha incrementado en los últimos años de manera importante, lo que obliga a hacer mucho más exigentes la ingeniería y la planeación con la cual se ejecutan los Data Centers”, manifiesta Hugo Pachón, director de Ingeniería de Proyectos de UPSistemas.

Al respecto, Carlos Forero, Country Manager de Odata de Colombia, afirma que “hoy por hoy, los computadores tienen mayores capacidades de procesamiento y de almacenamiento, y eso consume mucha más energía. Cuando hay que garantizar las condiciones de energía y de medio ambiente, se comienzan a implementar equipos que también consumen energía. Por eso, en la industria del Data Center se ha adoptado el PUE, una medida de eficiencia que determina cuánta energía se consume para garantizar las condiciones ideales del centro de datos”.
– Microcentros de datos.

Pachón explica que en el mercado existen sistemas inteligentes que saben cuál es la información que más se está procesando o requiriendo, y, en lugar de almacenarla en un Data Center lejano, con tiempos de respuesta muy largos, es posible salvaguardarla en pequeños centros de procesamiento que le garanticen a la empresa tiempos de respuesta mucho más rápidos y con mayores eficiencias. Esto es lo que se conoce como ´Each Computing´.

En caso de requerirse mayor procesamiento, se acude a la Nube.
– Climatización y refrigeración líquida.
“El otro punto para atacar, que es mucho más complejo – dice Hugo Pachón -, es la disipación de la energía que consumen los productos IT. Actualmente, esto se hace con sistemas refrigerados por aire que garantizan que la energía que está consumiendo el rack de cómputo se disipe apropiadamente”.

La tendencia, en este caso, es la refrigeración líquida, que requiere, además de una conexión eléctrica, una hidráulica en el servidor y un punto de inyección de líquido refrigerante a la tubería que está en contacto con el disipador dentro del servidor, y en la cual entra el fluido a temperatura ambiente y sale caliente.
– Infraestructura para Data Centers híbridos.

Con la integración del Data Center local, Cloud Computing y Edge Computing se busca que las empresas tengan soluciones que brinden una respuesta óptima desde el punto de vista de la calidad de la información, y la rapidez y la capacidad de procesamiento.
Esto es crítico para organizaciones de todo tipo. Leonel Sotelo. director de infraestructura tecnológica de la Universidad Uniminuto, señala que “el centro de datos forma parte de los procesos académicos regulares de la institución y de la formación de sus estudiantes. Por otra parte, asegura el rendimiento y la estabilidad de nuestros servicios y su flexibilidad, además de convertirse en una herramienta de posicionamiento y competitividad en el sector educativo, y de apoyo en procesos de investigación”.
– Gestión inteligente de la conectividad.

Por último, está lo que Pachón llama “la administración inteligente de la infraestructura de conectividad”. “Cuando tengo una solución o un requerimiento de procesamiento de datos, es necesario poderme conectar lo más rápidamente posible a mi red, lo que implica una infraestructura totalmente robusta que responda a la velocidad deseada”, dice director de Ingeniería de Proyectos de UPSistemas.

Aquí se debe asegurar que el cableado estructurado establecido responda eficazmente y que su gestión y administración se hagan desde una sola plataforma.

https://www.portafolio.co/economia/infraestructura/las-tendencias-en-data-center-a-tener-en-cuenta-para-su-negocio-523454

NI GAMERS, NI PC, EL VERDADERO FUTURO ESTÁ EN LOS CENTROS DE DATOS

De acuerdo a la consultora Gartner, aunque el crecimiento de sistemas enfocados en esta vertical tendrá una mayor inversión, los equipos serán más poderosos y accesibles.

En 2018, las ventas de los sistemas de centros de datos crecerán un 6%, impulsadas por la solidez del mercado de servidores. Sin embargo, para 2019 se prevé que cambie la tendencia y que sus ventas caigan entre un 1 y un 3% cada uno de los próximos cinco años, esto de acuerdo a la consultora Gartner.

El cambio sin embargo será provocado no por el hecho de que la industria deje de comprar, sino que se van a necesitar precios más competitivos y equipos más poderosos. De acuerdo a la Dra. Lisa Su, CEO de Advanced Micro Devices (AMD), estas inversiones esto se verá impulsado por la adquisición de equipos CPU y GPU en los Data Centers.

“Estamos bien posicionados para acelerar nuestro impulso a medida que presentamos la cartera más amplia y más poderosa de CPU y GPU para centros de datos con tecnología de proceso líder en la industria en los próximos trimestres” indicó Su durante su evento Next Horizon AMD, realizado en San Francisco hace unos días.

Y parte de su confianza tiene que ver con el lanzamiento de su GPU de alto rendimiento de 7 nanòmetros, el cual es mejor conocido como Zen 2. Sin embargo, a pesar de ser un equipo más poderoso el precio que tendrá en el mercado podría ser más competitivo.

Además durante el evento también presentaron el acelerador de gráficos MID AMD Radeon Instinct y EPYC, este último en alianza con la empresa de almacenamiento Amazon Web Services.

De acuerdo al informe de Gartner, los servicios tecnológicos serán impulsores del gasto tecnológico el próximo año, alcanzando el billón de dólares en el 2019, lo que representará un crecimiento del 4.7%.

Parte de la apuesta que tienen en AMD es la optimización de los procesadores, con múltiples chips para que los equipos logren un mejor rendimiento con una menor demanda de energía, pues presumen que estos avances podrán reducir el costo operativo de los centros de datos.

Gartner cree que la desaceleración económica y las propias presiones presupuestarias de las compañías les llevará a optimizar el gasto externo en servicios como la consultoría. En uno de sus informes ya se reflejaba esta tendencia, y el 46% de las empresas indicaban que los servicios y la consolidación de proveedores era una de sus tres principales estrategias para ser más efectivos en términos de costo.

La hoja de ruta publicada para el AMD Radeon Instinct muestra que el mercado de centros de datos es importante para el futuro de AMD, pues sus productos ofrecen a las empresas una oportunidad de ganar dinero y mucho espacio para ampliar su cuota de mercado. Esto por el tipo de rendimiento y por la flexibilidad para mejorar e instalar uno de los equipos clave de este tipo de espacios: los procesadores.

https://expansion.mx/tecnologia/2018/11/09/ni-gamers-ni-pc-el-verdadero-futuro-de-amd-esta-en-los-centros-datos

 

Puebla se convertirá en la primera capital con inteligencia artificial

Puebla es la cuarta ciudad de importancia en México y hoy busca convertirse en la primera del país con inteligencia artificial

De acuerdo con la alcaldesa de Puebla, Claudia Rivera Vivanco, en las próximas semanas se integrarán distintos tipos de tecnología en la ciudad, con un enfoque estratégico, donde la prioridad los ciudadanos quienes recibirán a un costo menor mejores servicios, y se atenderá de manera eficaz y eficiente problemas y retos prioritarios como la inseguridad y la creación de mayores empleos.

En sus oficinas del Ayuntamiento, la funcionaria recibió a altos directivos de empresas trasnacionales especializadas en el ramo, como AT&T y General Electric, con quienes intercambió puntos de vista sobre este proyecto que pondrá a la capital en la vanguardia tecnológica y sobre todo mejorará la calidad de vida de sus habitantes.

Dichas empresas ofrecen soluciones eficientes con tecnología, con el objetivo de interconectar a la ciudadanía con toda la estructura gubernamental y generar ventajas tecnológicas que permitan ahorrar tiempo, dinero y esfuerzo.

En la presentación de Ciudad inteligente. Futuro brillante. Aprovechar la Infraestructura Existente para el Crecimiento Económico, que expusieron los directivos de estas trasnacionales, explicaron que con la implementación de nodos inteligentes se puede mejorar la seguridad pública, como uno de los grandes problemas de la ciudad al prevenir el delito vía reconocimiento facial de delincuentes, reducir el comportamiento criminal habitual, aplicar la ley basada en evidencias contundentes, detectar la detonación de armas de fuego y respuestas de emergencias más rápidas como el 911 ya que la video vigilancia inteligente se hace en tiempo real.

Dichos espacios permiten la administración avanzada del tráfico con controles de señal adaptativos, como generar una ruta de emergencia para que a través de semáforos se de preferencia a las ambulancias, se redireccione a los vehículos para evitar concentraciones y se cuide la integridad de los peatones.

Otra ventaja es que a través de sensores de temperatura interceptados vía internet se monitoreará la calidad del aire, el clima y la humedad advirtiendo eventos de contaminación y proporcionando alertas a los funcionarios sobre dónde y cuándo podría propagarse la contaminación.

También ante la llegada de un fenómeno natural climatológico advierte con tiempo para tomar las medidas de prevención necesarias.

Los nodos inteligentes reducen costos a los ciudadanos pues el suministro de energía inteligente favorece a la economía de la Ciudad al optimizar los recursos y reutilizar estructuras, solucionando además problemas con una velocidad y escala sin precedentes.

El futuro del sector de los centros de datos

IDC acaba de publicar sus predicciones para el sector datacenter en 2019, que muestran cómo la inteligencia artificial, la seguridad, las nuevas topologías de red y la computación EDGE serán fundamentales para las organizaciones de cara a los próximos años. Y, en este contexto, los proveedores de colocación tendrán un papel fundamental para dar soporte a las empresas que están externalizando su infraestructura para controlar el gasto y ser más operativas.

El sector de los centros de datos está en constante evolución y los responsables tecnológicos de las empresas y de los proveedores de infraestructura deben estar al día con las nuevas tecnologías de almacenamiento, procesamiento, gestión y seguridad, entre otras infraestructuras presentes en las instalaciones. Y no perder de vista las nuevas tendencias a las que deberán adaptarse en el futuro. Para indicar por dónde irá este camino, IDC ha publicado un informe con las 10 predicciones que considera más significativas para el sector datacenter durante los próximos años, que son la siguientes:

1 – Bunkers de datos seguros: De cara a 2020, la necesidad de proteger volúmenes cada vez mayores de información, que se generará de forma masiva en localizaciones EDGE, llevará al 40% de las empresas a configurar y operar almacenamiento de datos en diferentes instalaciones de colocación.

2 – Interconexión de servicio: En 2019, el 80% de los nuevos servicios digitales e las empresas estará compuesto por aplicaciones que requieran una conexión segura y confiable con sistemas de analítica y almacenamiento de datos externos en la nube, o en instalaciones de colocación.

3 – Conectividad dinámica: A lo largo de los próximos tres años, el 70% de las empresas adoptará sucursales dinámicas y soluciones de red definidas por software para ganar en flexibilidad y seguridad, a través de la nube, de centros de datos e interacciones EDGE.

4 – Computación de energía intensiva: Para 2021, el 61% de las empresas necesitará acceso a infraestructura de energía y refrigeración con una capacidad tres veces superior a la actual, para poder administrar las fluctuaciones y la demanda de los sistema de computación acelerada de alto consumo.

5 – Instalaciones autónomas: De cara a 2022, el 50% de los activos TI en los centros de datos de las empresas podrán ejecutarse de forma autónoma, mediante el uso de funciones de inteligencia artificial integrada presente en las instalaciones y sistemas inteligentes de TI.

6 – Servicio de entrega EDGE: En 2022, el 40% de la empresas habrá duplicado su gasto en TI en ubicaciones en el borde de la infraestructura y en instalaciones de colocación cercanas, frente al datacenter central, para ofrecer servicios a los usuarios y sistemas locales.

7 – Ti basada en el consumo: Para 2023, el 60% de las empresas empleará modelos de consumo de TI flexibles y de bajo costo, que aprovechen los almacenes de activos TI centralizados, administrados conjuntamente con los proveedores de hardware y de colocación.

8 – Modernización del centro de datos: En 2019, el 25% de las empresas pasará de la consolidación de grandes centros de datos a la modernización de instalaciones más pequeñas y ubicadas de manera más óptima para admitir las nueva aplicaciones de computación y uso intensivo de datos.

9 – Nubes privadas: A partir de 2020, la mayoría de empresas cambiarán las inversiones internas para desplegar plataformas en la nube dedicadas, que facilitarán el lanzamiento de servicios innovadores, en vez de invertir en los centros de datos preexistentes.

10 – Colocación de servicio completo: De cara a 2022, el 40% del gasto de las empresas que recurren a proveedores de colocación se destinará a servicios avanzados de gestión y optimización de activos, en lugar de los servicios básicos de conectividad e instalaciones.

Además de estas 10 previsiones, IDC destaca que la transformación digital de las organizaciones se encamina hacia el siguiente paso, en el que la apuesta por la innovación será la clave para avanzar en los negocios. Además, pone especial foco en el despliegue de las plataformas digitales que impulsarán esta innovación y transformación, con el fin de extraer todo el valor de los datos. Asimismo, advierte de que habrá que aprender a vivir en un entorno tecnológico gestionado cada vez más por la inteligencia artificial, y que habrá que adaptar lo más rápidamente posible los viejos esquemas al nuevo ecosistema digital.

https://almacenamientoit.ituser.es/noticias-y-actualidad/2018/11/el-futuro-del-sector-de-los-centros-de-datos

Guadalajara serà en 2020 la primer Ciudad Inteligente de Mèxico.

México es el tercer país en América Latina que más avanza en utilizar la tecnología para conectar a las ciudades y en 2020 tendrá en Guadalajara a la primera ciudad inteligente (smart city) del país… México es el tercer país en América Latina que más avanza en utilizar la tecnología para conectar a las ciudades y en 2020 tendrá en Guadalajara a la primera ciudad inteligente (smart city) del país, aseguró Sergio Reynoso, director de Vinculación de ICREA. “Para 2020 podríamos hablar de una ciudad inteligente como tal; Guadalajara es un municipio que está muy avanzado en ese tema, debe estar como al 80 por ciento de implementación”, apuntó en entrevista con Notimex. Lo que busca una smart city es conectar y comunicar a sus habitantes mediante la infraestructura y el uso eficiente de la tecnología, lo que implica la creación de nuevos edificios sostenibles que incorporen en su diseño características que los hagan entornos y espacios agradables para los usuarios. Learn more     El integrante de la asociación de ingenieros expertos en telecomunicaciones dijo que una vez que se tenga a Guadalajara como una ciudad piloto, se replicaría el modelo en otras urbes del país, porque ya no tendrían que iniciar de cero y solo adecuarían el modelo a sus necesidades. “Guadalajara tuvo la visión de crear o atraer a un gran número de empresas de tecnología como IBM y todas estas empresas son las que están construyendo o diseñando esa ciudad inteligente”, aseveró. Tuvieron la visión de crear un cluster tecnológico que les permitiera acceder a las tecnologías más nuevas para poder implementar este tipo de proyectos en la ciudad, agregó. La ciudad conocida por el tequila y el mariachi tiene ya conectada las cámaras; muy avanzado el sistema de monitoreo y control de iluminación; automatizados muchos servicios, así como el monitoreo del tráfico, pues los semáforos le dan preferencia a un sentido u otro, de acuerdo al flujo de automóviles, agregó.   Dijo que el servicio de agua también lo están empezando a monitorear para hacer una mejor distribución del líquido; además, la seguridad se está automatizando, a través de su C5. Respecto a la Ciudad de México, Reynoso consideró que lleva un 40 por ciento de avance para llegar a ser una ciudad inteligente, ya que, por ejemplo, en este momento debe hacer una reingeniería en su sistema de cámaras. “Primero hay que hacer un cambio de cámaras que hay en la vía pública por nueva tecnología, que dure algunos años; tienen también repensar cómo van a utilizar el C5, y el alumbrado todavía están viendo si se van a ir por el tema fotovoltaico”, sostuvo. Indicó que si la administración que entré le pone mucho énfasis y le da la importancia que merece ese tema, la capital del país podría ser la segunda ciudad inteligente en tres o cuatro años. A nivel México, el directivo de ICREA señaló que en Latinoamérica el país se ubica entre las tres naciones que están adoptando, implementando y usando tecnologías. “El reto más grande es la conectividad, porque si bien hubo un gran esfuerzo por conectar a regiones en donde no llega un teléfono por cable, y se abatió bastante ese tema del rezago tecnológico, todavía seguimos con muchas deficiencias”, advirtió.
https://www.eluniversal.com.mx/ciencia-y-salud/tecnologia/guadalajara-busca-ser-la-primera-ciudad-inteligente-de-mexico

Vertiv lanza UPS sin trasformador para Centros de Datos

El Liebert APM600 de 380V ofrece escalabilidad en sitio y permite flexibilidad de crecimiento con módulos de potencia de alta densidad.

Vertiv, antes Emerson Network Power, presentó el UPS Liebert APM 600: un sistema grande de suministro ininterrumpido de energía (UPS) sin transformador, el cual ofrece una alta densidad de potencia para instalaciones medianas con posibilidades de crecimiento.

El Liebert APM600 permite a los clientes optimizar el espacio de diseño en la área de infraestructura de los centros de datos debido a la alta densidad de potencia de sus módulos. Ahora disponible en Latinoamérica, el Liebert APM 600 es un UPS de 380V, 50/60hz, y con capacidades de 50 hasta 600 kVA/Kw en una sola unidad y un máximo de 2,4 MW con unidades conectadas en paralelo.

El Liebert APM 600 está disponible en una configuración distribuida, la cual permite conectar en paralelo hasta cuatro unidades para alcanzar una capacidad total de hasta 2400 kW. El sistema permite la escalabilidad gracias a la tecnología FlexPower™ con inversores de 3 niveles. Esta tecnología permite una eficiencia plana de hasta el 96,3 por ciento en doble conversión y del 99 por ciento en Eco-Mode™.

“El APM 600 es el UPS más reciente que ofrece una alta eficiencia y escalabilidad en un espacio reducido mostrando el liderazgo y compromiso de Vertiv en el soporte de infraestructura crítica para centros de datos ”, afirmó Roberto Reyes, gerente regional para Latinoamérica en Vertiv.

Las comunicaciones de este UPS se hacen a través de Internet (HTTP), Modbus o protocolo SNMP. Además, ofrece una pantalla LCD en varios idiomas para que el usuario visualice información relativa al funcionamiento: alarmas, configuración, arranques, apagado, transferencias y funciones avanzadas de medición.

El Liebert APM 600 es compatible con soluciones de monitoreo. El Nform, SiteScan y Life de Vertiv son algunas de las soluciones que pueden ayudar a garantizar o mejorar la disponibilidad de los sistemas críticos al monitorear parámetros clave de funcionamiento de la infraestructura crítica.

https://www.itseller.cl/2017/11/07/vertiv-lanza-ups-sin-trasformador-para-centros-de-datos/

Hace falta más capacidad para los centros de datos EDGE

La computación periférica está adquiriendo gran importancia para las empresas digitalizadas, que buscan la manera más eficiente de entregar datos y servicios a tiempo real a sus clientes y usuarios. Para hacerlo realidad es necesario trasladar las operaciones a centros de datos EDGE que cuenten con la suficiente potencia y capacidad de almacenamiento que requieren los servicios que operan en el borde de la infraestructura de la organización.

Las telecomunicaciones, los vehículos conectados, las tecnologías IoT y las aplicaciones para desarrollar el concepto de Smart city, entre otras tecnologías de vanguardia, se basan en servicios descentralizados que deberían encontrarse los más cerca del cliente que sea posible. En las concepciones tradicionales de infraestructura TI las operaciones relacionadas se centralizan en los centros de datos centrales y, actualmente, en la nube, lo que puede generar una sobrecarga de información en los sistemas y las redes de la empresa. A menudo, esta información incluye datos en bruto que viajan hasta las máquinas encargadas de procesarlos, para después entregar la información útil al usuario final. Esto supone un uso excesivo de las redes y loe quipos, que podrían trabajar mejor en otros ámbitos, lo que está impulsando el concepto de centros de datos periféricos (EDGE).

Estas instalaciones son datacenter más pequeños que se dedican especialmente a gestionar estos servicios periféricos de forma independiente, entregando la información útil directamente al usuario final, con una mayor eficacia y una baja latencia. Esta tecnología está creciendo a medida que las empresas digitalizadas lanzan nuevos servicios en el borde, como corroboran los últimos estudios realizados. Por ejemplo, la última investigación de la asociación AFCOM indica que el 44% de las empresas ya ha implementado algún tipo de solución de computación avanzada o tiene pensado hacerlo en el próximo año. Un otro 17% afirma que lo hará dentro de los próximos 3 años. De todas las empresas analizadas, el 5,6% ya han desplegado sistemas de computación EDGE, el 6,4% lo hará en los próximos 12 meses y el 12,2% a lo largo de los próximos 3 años.

En este contexto es interesante ver el tipo de tecnologías que forman parte del concepto de EDGE computing. Según este informe, la potencia media de los racks que se instalan es estos centros de datos periféricos es de 6,7 Kilovatios, y se trata generalmente de soluciones convergentes que forman parte de entorno datacenter muy densificados. En general, las principales características que tienen los equipos instalados en estas localizaciones son inteligencia, autonomía, robustez y agilidad, ya que deben almacenar y procesar grandes volúmenes de datos, entregando servicios al cliente final con la máxima rapidez y fiabilidad. Se estima que el cómputo y el envío de información se debe realizar en 10 milisegundos o menos lo que, teniendo en cuenta la gran cantidad de usuarios que pueden usar un servicio a la vez, da una medida de la elevada relación potencia-tamaño que deben tener estas instalaciones.

En este contexto las nuevas tecnologías de almacenamiento y procesamiento de datos juegan un papel fundamental, ya que permiten concentrar mucha más potencia en el mismo espacio TI. Destacan especialmente la memoria de estado sólido de última generación, la DRAM de alto rendimiento y los procesadores dedicados a tareas de cómputo avanzado e inteligencia artificial, tecnologías que están desarrollándose con rapidez, acaparando la atención de las empresas  con soluciones de tamaño cada vez más reducido y con capacidades de escalamiento flexible. Gracias a esto las empresas pueden comenzar un despliegue inicial de infraestructura en el borde de última generación, y después ampliarlo a medida que expande el alcance de sus servicios.

Los campos en los que la computación EDGE de vanguardia están experimentando más avance se encuentran los despliegues de IoT en la industria, las telecomunicaciones en redes de telefonía y ciertas aplicaciones para dispositivos móviles, vehículos conectados y ciudades inteligentes. Todos ellos generan grandes cantidades de datos provenientes de los usuarios finales, y funcionan con más eficacia si operan desde centros de datos situados lo más cerca posible de ellos.

https://almacenamientoit.ituser.es/noticias-y-actualidad/2018/10/hace-falta-mas-capacidad-para-los-centros-de-datos-edge