México se perfila como un mercado importante en Data Centers

México se ha destacado como un mercado estratégico para Data Centers en América Latina, representando el 25% de la facturación. De acuerdo con datos de la compañía, el mercado de Centros de Datos crecerá 30% para el año 2020 y para el 2022, 1.7 millones de pequeñas empresas adquirirán sus primeras soluciones de Data Center.

Más allá de su posición geográfica, la firma señala que el país ofrece otros puntos positivos como políticas públicas a favor de la innovación, impuestos más justos para las áreas de tecnología que necesitan ser desarrolladas en suelo mexicano, costos de mano de obra más barata y proximidad con la cultura de Estados Unidos, así como un horario similar.

Asimismo, indica que México está formando una generación de especialistas en TI en diferentes polos tecnológicos en el país, que cuentan con conglomerados de empresas multinacionales que requieren de colaboradores locales.

http://www.infochannel.info/mexico-se-perfila-como-un-mercado-importante-en-data-centers

Somos una empresa con más de 10 años de experiencia, en el Diseño, Construcción y Mantenimiento de Data Centers, contactanos uno de nuestros líderes de proyecto te asesorará en las tendencias de los centros de datos.

http://www.epsiloningenieria.com.mx

Advertisements

Cuatro aspectos fundamentales de la convergencia entre oficinas centrales y los Centros de Datos

La constante evolución de los servicios de banda ancha y las promesas de la tecnología 5G están forzando a los proveedores de servicio a ofrecer un mix de nuevos servicios en sus redes fijas y móviles.  En muchos casos esta evolución impulsará la necesidad de acercar el acceso a los diferentes servicios al borde de la red. Como resultado, los operadores se ven obligados a incorporar la funcionabilidad del centro de datos dentro de sus oficinas centrales, junto con los servicios de telecomunicaciones tradicionales.

Apoyar aplicaciones de baja latencia y servicios de telecomunicaciones tradicionales en las mismas instalaciones requiere desarrollar dos mentalidades diferentes: los operadores deben respaldar el “desmantelamiento y reemplazo” típico del centro de datos, al mismo tiempo que soportan las necesidades cambiantes de la infraestructura tradicional de la oficina central para una larga vida útil”.

1.     Mover centros de datos al borde

A medida que la red evoluciona, los operadores despliegan múltiples redes: fibra para el hogar (FTTH), fibra para el negocio (FTTB) y fibra para redes inalámbricas. Existen diferentes usos para estas redes y uno de los principales es para servicios de baja latencia. La latencia depende de la cantidad de conversiones electrónicas realizadas, es decir, el número de saltos que la señal debe tomar para recuperar o transmitir datos. Cada vez que se realiza una conversión, se agrega latencia. Las aplicaciones de red 5G no pueden permitirse muchas conversiones, por ello 5G está impulsando la necesidad de centros de datos al borde más cerca de los usuarios.

“Para un operador lo más probable es que un centro de datos esté ubicado en una oficina central, próximo del borde de la red, donde el operador tendrá los servicios tradicionales que se ofrecen hoy (FTTH, voz y video) y también alojará la funcionalidad del centro de datos al borde. Los centros de datos al borde se conectan con los centros de datos regionales: albergarán aplicaciones que requieren la latencia más baja, mientras que algunas aplicaciones se destinarán a centro de datos regionales. Los centros de datos regionales albergarían programas de video menos populares, servidores de correo electrónico y SMS, además de otras aplicaciones para las cuales el tiempo de respuesta no es crítico. Muchas aplicaciones de centro de datos de borde, estarán relacionadas con la seguridad del usuario o la experiencia del usuario, como juegos multijugador, realidad aumentada o información de navegación para autos autónomos”, añadió Eduardo Estella.

2.     Consideraciones del equipo

La arquitectura del centro de datos, los estándares y métodos de operación, son muy diferentes de la arquitectura y estándares de las oficinas centrales. Los centros de datos tienen un ciclo de vida corto, de entre 3 y 5 años, y pasan por fases de “desmonte y reemplazo” periódicos, mientras que las oficinas centrales trabajan en un ciclo de vida del equipo de 10 a 20 años.

En la oficina central, los operadores tendrán que lidiar con una red de fibra masiva. El operador deberá tener gabinetes de distribución de fibra de alta densidad que ofrezcan fácil acceso, flexibilidad, y sean extremadamente confiables en un lapso de 20 años y pueda soportar múltiples evoluciones de red. La densidad y la accesibilidad son fundamentales, pero también lo es la confiabilidad a largo plazo.

3.     Expansión de la experiencia

Mientras que en las oficinas centrales se ha desarrollado una gran experiencia en la gestión y conectividad de fibra monomodo, con la adición de la funcionalidad del centro de datos se requerirán muchas más conexiones de fibra multimodo.

“Para soportar los servicios habilitados para el centro de datos, se debe desarrollar también experiencia en virtualización. Los días en que se usaban numerosos elementos de red individuales para realizar funciones específicas ya pasaron, por lo cual los operadores están optimizando el CAPEX, virtualizando las funciones de red con software en servidores y distribuyendo aplicaciones entre ellos en formas de cargas de trabajo usando tecnologías como virtualización de funciones de red (NFV) y redes definidas por software (SDN). Las funciones de virtualización son más rentables, utilizan mucho menos espacio y reducen los costos”, puntualizó.

4.     Planificar el futuro

Aún cuando no es posible ver demasiado hacia el futuro, para Eduardo Estella existen tres claves para la evolución y planificación futura: flexibilidad, densidad y accesibilidad.

Flexibilidad: El uso de conectores de inserción múltiple (MPO) para cableado de fibra y cables de conexión hace mucho más fácil y rentable cambiar configuraciones cuando sea necesario. Los paneles que incluyen módulos que facilitan los cambios de LC a MPO y de vuelta a LC, mientras se utiliza el mismo cable de red troncal son fundamentales con la continua evolución de la óptica multimodo usada en los switches y servidores de los centros de datos

Densidad: Los operadores deben elegir las plataformas de fibra y equipos de conexión de mayor densidad para facilitar el crecimiento futuro de la conectividad para la prestación de servicio. También deberán considerar el uso de equipos de multiplexación por división de longitud de onda para escalar la capacidad en redes de fibra existentes.

Accesibilidad: Los operadores deberían usar paneles y gabinetes de fibra que maximicen el acceso a las conexiones de fibra óptica.

Gartner recomienda actualizar protección de Data Centers

Infraestructura asegurada

Ante los ataques de seguridad que han sufrido los Data Centers, la única fuente de infraestructura de TI, Gartner recomendó a las organizaciones revaluar sus estrategias de disponibilidad de datos y recuperación de desastres (DR) para soportar cargas de trabajo locales y basadas en la nube.

De acuerdo con la consultora, solo 32% de las compañías a nivel mundial han incorporado escenarios de ciberataque en sus planes TI y 30% ni siquiera los ha integrado a su sistema.

En este sentido la firma consideró que, para proteger los datos y servicios de las empresas, independientemente de su ubicación, es necesario aprovechar los servicios de Infraestructura como servicio (IaaS), basados en la nube, con el objetivo de aumentar las copias de seguridad locales y las soluciones DR.

Asimismo, señaló que es importante que las empresas lleven a cabo la evaluación de las herramientas y procesos actuales de disponibilidad de datos en las instalaciones, para determinar si pueden extenderse para admitir cargas de trabajo y datos basados en la nube.

Finalmente recomendó mantener seguros los sistemas e imágenes de respaldo contra ataques cibernéticos de rasomware y malware, a través de la generación de varios escenarios de ciberataque en los planes de TI y ejercitarlos.

http://www.infochannel.info/gartner-recomienda-actualizar-proteccion-de-data-centers

Permite que uno de nuestros lideres de proyecto te visite, te asesore y evitamos una interrupción de energía en la operación de tu empresa.

http://www.epsiloningenieria.com.mx

 

Las nuevas estrellas de los centros de datos

La escalabilidad, complejidad y velocidad de las operaciones de TI modernas están excediendo la capacidad humana de gestionarlo todo, y, aparte de los ahorros inmediatos que conlleva la infraestructura hiperconvergente al no tener que adquirir componentes por separado, la simplificación en la gestión, la administración y la operación que se consiguen, hacen que este tipo de soluciones se hayan convertido en las nuevas estrellas de los centros de datos.

“La gestión, administración y soporte unificado; la escalabilidad, simplicidad y agilidad en el despliegue de nuevos entornos, nuevas aplicaciones o nuevos modelos de negocio; la migración hacia plataformas y entornos en la nube; el aumento de los requerimientos de seguridad; la reducción de costes operacionales, la mejora en la productividad y eficiencia del personal de IT; la automatización y gestión del ciclo de vida y en definitiva, la mejora en la prestación de los servicios entorno a las necesidades del negocio, son los principales factores que están fomentando el continuo crecimiento y el aumento de la demanda de soluciones de hiperconvergencia en el mercado”, afirma Ignacio de Villar, de Dell EMC.

En opinión de Francisco Torres-Brizuela, director de Canal, Alianzas y Proveedores de Servicio de NetApp Iberia, “las empresas en la actualidad se están centrando en la aceleración de sus resultados para conseguir una mayor ventaja competitiva. La hiperconvergencia es como un pequeño Data Center que viene ya preparado casi para instalar y funcionar. Además, tiene una operación muy sencilla y minimiza las necesidades de recursos en las empresas usuarias”.

http://www.itreseller.es/a-fondo/2018/06/las-nuevas-estrellas-de-los-centros-de-datos

En una época donde las estrellas son las empresas que te pueden asesorar y llevar de la mano para evitar una interrupción de energía en la operación de tu empresa, Contactanos mas de 10 años en el sector nos respaldan, DISEÑO, CONSTRUCCIÒN Y MANTENIMIENTO A DATA CENTERS, a nivel nacional.

http://www.epsiloningenieria.com.mx

Blindaje del Data Center, adiós pérdidas económicas

De con la firma Gartner, solo 32% de las compañías en el mundo han invertido contra ciberataque en sus planes IT y 30% ni siquiera lo ha considerado.

Como única fuente de infraestructura de TI, los centros de datos continuarán abriendo camino a las soluciones híbridas, lo que exigirá que las empresas replanteen sus estrategias relacionadas con los servicios de TI que desean brindar, además de la protección contra ataques cibernéticos, así lo afirma Gartner Inc., la firma de investigación y asesoría líder mundial.
Al mismo tiempo, el negocio digital y el surgimiento del Edge Computing están influyendo sobre el área de Infraestructura y Operaciones (I&O) de una organización de manera drástica. Por lo que, según las investigaciones de la firma, es necesario modernizar diversas áreas pues la proliferación de los datos está aplicando nuevos tipos de presión a la infraestructura de TI.
Estrategias de disponibilidad de datos de TI
Dadas las constantes interrupciones que los centros de datos han sufrido, como paralizaciones muy visibles e impactantes en la infraestructura local y los servicios basados en la nube, se han producido tiempos de inactividad en el servicio, pérdida de ingresos y, a menudo, también de datos.
Estos acontecimientos recordaron a los usuarios que los sistemas pueden fallar sin importar dónde se encuentren o quién los esté administrando. La disponibilidad del servicio de misión crítica y la protección de los datos corporativos son esenciales sin importar dónde residan los servicios.
En 2018, Gartner recomienda a las organizaciones reevaluar sus estrategias de disponibilidad de datos y recuperación de desastres (DR) para soportar cargas de trabajo locales y basadas en la nube.
“Para ofrecer soluciones que resuelvan los desafíos comerciales, los profesionales técnicos deben planificar un entorno de TI híbrido que satisfaga las necesidades de disponibilidad y resguarde los datos de la compañía. Esto requerirá evaluar nuevos enfoques arquitectónicos, consideraciones tecnológicas y procesos operativos”, comentó Katherine Lord, Vicepresidenta del grupo Data Center Convergence de Gartner.
“El tema de seguridad cada vez es más importante y no solamente es responsabilidad de una persona. Los líderes de I&O tienen una oportunidad muy grande, al utilizar plataformas analíticas, de saber qué es lo que está pasando con la infraestructura, con los usuarios y lo que está ocurriendo fuera de la organización para darle valor al negocio y al departamento de seguridad”, señaló Federico De Silva, Director de Investigación de Gartner y presidente de la Cumbre Gartner IT Infrastructure, Operations & Data Center 2018.
De acuerdo con Gartner, las ubicaciones locales y en la nube deben integrarse en la estrategia de modernización de TI de una organización para asegurar su funcionamiento y respaldo en caso de crisis.
La firma pone a disposición las consideraciones clave de planificación para proteger los datos y servicios de la compañía, independientemente de su ubicación e incluyen:
■ Aprovechamiento de los servicios IaaS (Infrastructure as a Service) basados en la nube para aumentar las copias de seguridad locales y las soluciones DR.
■ Evaluación de las herramientas y los procesos actuales de disponibilidad de datos en las instalaciones para determinar si pueden extenderse para admitir cargas de trabajo y datos basados en la nube.
■ Protección para inevitables ataques de ransomware y malware. Asegure los sistemas de respaldo y las imágenes de respaldo contra ataques cibernéticos.
■ Incorporación de varios escenarios de ciberataque en los planes de IT y ejercitarlos. En una encuesta reciente de Gartner, sólo 32 por ciento de 234 encuestados han incorporado escenarios de ciberataque en sus planes IT DR, y 30 por ciento de los encuestados aún no lo han hecho.

En México, 80% de bancos utiliza Inteligencia Artificial

Al menos 80 por ciento de las instituciones financieras del país apuestan a la transformación digital y a las herramientas de Inteligencia Artificial (IA) para aumentar la eficiencia, indicó Comstor.

La empresa enfocada en seguridad, colaboración, networking y centro de datos, expuso que la IA comienza a utilizarse por bancos en la relación con sus clientes, una tarea actualmente costosa, repetitiva y que abre amplias posibilidades para procesos de automatización.

En un comunicado, explicó que muy pronto los comandos por voz serán los responsables de otorgar estados de cuenta, saldos de préstamos o talones de cheques en las aplicaciones de los bancos, sustituyendo contraseñas y tokens.

Destacó que la voz del cliente, debidamente reconocida por la grabación biométrica, podrá ser escuchada en los smartphones, tabletas, computadoras y comprendidas por las máquinas, vinculadas a los servidores de las instituciones.

Conocida como computación cognitiva, la tecnología está basada en la capacidad de las computadoras en generar gran cantidad de información, análisis y respuestas de forma autónoma, dijo.

Detalló que entre los beneficios que la IA ha traído para los bancos, está la relación con el cliente, mayor dinamismo de los procesos tradicionalmente morosos y la disminución de necesidad de empleados para atender a las personas, que en breve podrán conversar directamente con las máquinas, y así resolver sus propios problemas.

Otro punto positivo es la posibilidad de los empleados para utilizar la tecnología despejando dudas dentro del propio sistema, en vez de buscar las respuestas entre los manuales de la empresa.

El 80 por ciento de los bancos en México apuestan en la Inteligencia Artificial, de acuerdo con una investigación de la GFT en México –empresa especializada en el sector financiero internacional-.

Además, 50 por ciento de los bancos del país están en proceso de transformación digital y el otro 30 por ciento ya lo implementaron; entre los grandes bancos, el índice es de 93 por ciento, en cuanto que en los menores es de 53 por ciento.

De acuerdo con la encuesta, 94 por ciento de los ejecutivos de los bancos investigados consideran a la Inteligencia Artificial como una tecnología importante para construir el banco del futuro.

Con la IA, 71 por ciento de los entrevistados cuentan con reducción en costos operacionales y el otro 64 por ciento esperan alcanzar mayor fidelidad de los clientes.

El uso de métodos cognitivos basados en el aprendizaje de la máquina, organizan datos que generan hipótesis ponderadas en la toma de decisiones, ofreciendo información importante para el cliente, como inversiones correctas a partir de su perfil y consecuentemente, generación de mayor cuenta para los bancos.

http://www.elfinanciero.com.mx/empresas/en-mexico-80-de-bancos-utiliza-inteligencia-artificial

¿Conoces cual es la inversión Global en Data Centers? Te presentamos el feedback directo del mercado.

El mercado de datacenter en Amèrica Latina esta pasando por una etapa dual: por un lado, hay pocos proyectos grandes o de cero, como era una norma hasta hace 2-3 años.Pero la exigencia de transformación digital sigue creciendo, por lo que se han desatado dos entornos: uno de extensiones, actualizaciones, servicios para sostener el parque existente; y luego iniciativas no tradicionales previniendo lo que se viene: cloud, multitenant, loT, etc.

Como hoy cuesta hacer aprobar proyectos grandes de alto presupuesto, los datacenter managers han encontrado una vuelta de tuerca: dividir esas necesidades en varios proyectos más chicos, que si se van aprobando. Entonces frente hace 2-3 años atras, las contrataciones en data center han crecido tal vez un 25-30%, pero el costo del ticket por proyecto, ha caído un 50%. Termina siendo más – menos un igual volumen de negocio, pero no es lo mismo, porque al hacerse los proyectos por partes y seguido por distintos proveedores, termina faltando cohesión, entidad conjunta.

Carlos Morard, uno de los consultores más especializados en datacenter de Amèrica Latina, define el momento como en “cámara lenta hasta que lleguen los nuevos tiempos.

Lo que se decía hace un año se sigue diciendo ahora, y la mayoría de las innovaciones avanzan de a poco, esperando más definiciones de por venir. Lo malo es que en algunos sectores se ha vuelto a épocas primarias donde el costo es todo, donde no se ve al DC como un conjunto, una inversión para potenciar la empresa. Sino por partes para reducir cada una lo más que se pueda. Pero a medida que crece la nueva era digital y los grandes retailers pasan a ser online en lugar de con puntos de venta físicos, se necesitan cambios de infraestructura que lo soporte. Por eso estima que el mercado de datacenter en America Latina crecerá un 3% este 2018, un 7% en 2019 y un 15% para 2020, cuando las nuevas iniciativas tomen forma.

El feedback directo del mercado

Según Josè Friebel de DCD, en Mèxico el 42% de los asistentes estàn extendiendo o actualizando sus DCs, 32% han avanzado en cloud y 12% están construyendo un nuevo DC. Telefonica tiene tres DCs nuevos en estudio, AT&T y Kio Networks tienen en marcha nuevos centros de 1000m2 cada uno.

¿Lo nuevo que se viene?

No parece que vaya a volver el volumen de proyectos grandes de datacenter que rigiò el sector hasta hace unos años. El mundo se està acostumbrando a lo rápido, modular, optimizando, etc. Pero esto, a la vez, no quiere decir que el mercado de datacenter se pase pleno al cloud. Lo principal es : cloud & tercerizaciòn de infraestructura tomando providers; multitenant DCs, que es armar DCs propios en estructuras de terceros; DCs modulares o container, para cambios dinamicos de demanda o estructura; en Europa están surgiendo los DC colaborativos, que es cuando 2-3 empresas se unen para desarrollar un DC grande.

Y sobre todo la era online ha descubierto que la cercanía física cuenta. los mega datacenters centrales deben ser complementados con centros regionales que estén cerca de los usuarios para evitar latencias al consumir.

Especial Anual DataCenter& Infraestructura/Informe Central

PRENSARIO TILA/MAYO 2018

 

Microsoft instala un Centro de Datos debajo del mar

Microsoft está aprovechando la tecnología de submarinos y trabajando con pioneros en energía marina para la segunda fase de su lanzamiento lunar para desarrollar centros de datos subacuáticos autosuficientes que puedan entregar servicios en la nube tan rápidos como el rayo a las ciudades costeras. Un prototipo experimental, de tamaño de contenedor de envío, está procesando cargas de trabajo en el lecho marino cerca de las Islas Orcadas de Escocia.

El despliegue del centro de datos de las Islas del Norte en el Centro Europeo de Energía Marina marca un hito en el Proyecto Natick de Microsoft, un esfuerzo de varios años para investigar la fabricación y operación de unidades de centros de datos preempaquetados ambientalmente sostenibles que se pueden pedir a medida, desplegar rápidamente y dejar operar luces en el fondo del mar durante años.

“Esa es una serie de demandas locas que hacer”, dijo Peter Lee, vicepresidente corporativo de Microsoft AI and Research, quien lidera el grupo New Experiences and Technologies, o NExT. “Natick está tratando de llegar allí”.

El grupo de Lee persigue lo que el CEO de Microsoft, Satya Nadella, ha llamado “moonshots relevantes” con el potencial de transformar el núcleo del negocio de Microsoft y la industria de la tecnología informática.

Project Natick es una idea lista para usar que se adapta al crecimiento exponencial de la demanda de infraestructura de computación en la nube cerca de los centros de población.

Más de la mitad de la población mundial vive a unas 120 millas de la costa. Al colocar los centros de datos en masas de agua cerca de las ciudades costeras, los datos tendrían poca distancia para llegar a las comunidades costeras, lo que permitiría una navegación web rápida y fluida, transmisión de video y juegos, así como experiencias auténticas para las tecnologías impulsadas por inteligencia artificial.

“Para una verdadera entrega de inteligencia artificial, en realidad hoy dependemos de la nube”, dijo Lee. “Si podemos estar a un salto de internet de todos, entonces no solo beneficia a nuestros productos, sino también a los productos que nuestros clientes atienden”.

 

De Francia a Escocia

El data center de las Islas del Norte de 40 pies de largo del Project Natick está cargado con 12 bastidores que contienen un total de 864 servidores y la infraestructura del sistema de enfriamiento asociado. El centro de datos se ensambló y probó en Francia y se envió en un camión de plataforma a Escocia, donde fue conectado a una base triangular llena de balasto para su despliegue en el fondo marino.

El día del despliegue, los vientos fueron tranquilos y los mares quedaron planos bajo una gruesa capa de niebla. El centro de datos fue remolcado al mar parcialmente sumergido y acunado por cabrestantes y grúas entre los pontones de una lancha a modo de catamarán industrial. En el sitio de despliegue, un vehículo operado por control remoto recuperó un cable que contenía la fibra óptica y el cableado de alimentación del lecho marino y lo llevó a la superficie donde fue revisado y conectado al centro de datos, y al centro de datos fue encendido.

La tarea más compleja del día fue la bajada del centro de datos y del cable de 117 pies hasta el suelo marino de la losa de roca. La tripulación marina utilizó 10 tornos, una grúa, una barcaza de pórtico y un vehículo operado por control remoto que acompañó al centro de datos en su viaje.

Todo lo aprendido a partir de la implementación – y las operaciones durante el próximo año y la recuperación final – permitirá a los investigadores medir sus expectativas frente a la realidad de operar centros de datos subacuáticos en el mundo real.

http://computerworldmexico.com.mx/microsoft-instala-un-centro-de-datos-debajo-del-mar/

Hoy arrancò el Mundial y la transformación digital también ha cambiado el mundo del fútbol!!!

Estamos a pocos días de que inicie la competencia más importante de fútbol a nivel mundial, en esta ocasión y por primera vez en Rusia, este importante evento se ha estado catalogando como el que más tecnología estará utilizando en toda su historia, entre las que se destacan:

  • Chips en los balones oficiales.
  • Sistemas de videoarbitraje, cámaras que estarán grabando para revisar jugadas a petición del árbitro.
  • Transmisión en resolución 4k.
  • Internet paralela, que ofrecerá acceso a WiFi gratuito y seguro.
  • Fan ID, una identificación que incluya todos sus datos en un chip y que sustituya cualquier otra identificación como el pasaporte.
  • Reconocimiento facial, con el chip de Fan ID, las cámaras podrán reconocer a cualquiera en las tribunas y sobre todo será importante para detectar y frenar actos vandálicos.
  • Tomas en 360 grados para tener una visión de todo el terreno de juego.

Todas estas tecnologías perceptibles a nivel global, podrán vivir todos los fanáticos y turistas en sitio.  Sin contar las que por supuesto los medios de comunicación estarán ofreciendo en aplicaciones, videojuegos, chatbots, contenido en redes sociales, realidad virtual y un sinfín de opciones para atraer audiencias y clientes.

¿Pero què hay de los clubes de fútbol? estos deben ser vistos como cualquier empresa, que necesita maximizar sus ingresos, integrar su información y asegurar una gestión más transparente y asertiva para patrocinadores, socios y aficionados.

En la actual Era de Transformación Digital, los datos y la información son valiosas herramientas que al ser analizadas y utilizadas correctamente pueden permitir una mejora efectiva en las diversas áreas que maneja un Club para modernizar su funcionamiento interno, es así como equipos de todo el mundo se han sumergido en utilizar la tecnología en pro de mejorar.

Hoy en día, estos equipos de fútbol cuentan con plataformas de gestión implementados para todos sus procesos que les permiten tener un control operacional en el área de compras, stock, finanzas, control y atención para los aficionados, e inclusive para cada partido de fútbol, con la que buscan tener alta disponibilidad y confiabilidad de la información estratégica para mejorar su toma de decisiones financieras y de negocio.

De esta manera, el concepto de Big Data, combinado con actividades en redes sociales y apps que se ejecutan en dispositivos móviles, se han convertido en la principal apuesta con las cuales los equipos logran transformar la relación equipo-aficionados.

El éxito de un club o equipo de fútbol, mucho radica en los jugadores que entran al campo con la actitud y entusiasmo de ser vencedores, pero detrás de su victoria existe el jugador nùmero 12 y su mejor aliado”la tecnología”, que los lleva a alcanzar grandes beneficios que los favorecen.

Sin duda, ellos también han tenido que transformarse para vivir más allá de la emoción de un partido de fútbol a convertirse en una empresa que rinda frutos en una era de la revolución digital en la que se exige tener una visión clara y estratégica para permanecer en el gusto de la afición con la que podemos vivir eventos mundiales como el que veremos en próximos días.

BY – http://computerworldmexico.com.mx/la-transformacion-digital-en-el-mundo-del-futbol/