Menta

Blog

5 grandes casos de fuga de datos y cómo pudieron evitarse

Estos casos de fuga de datos pudieron haberse evitado con estrategias completas de ciber resiliencia.

Ciberataques, robo de datos, virus, suplantación de identidad y fraudes financieros, son vulnerabilidades que suceden todo el tiempo en el ciberespacio. Todo aquel que cuente con una conexión a internet puede ser víctima de ello, desde personas que utilizan redes sociales, hasta grandes corporativos financieros. 

Según la firma de consultoría PwC, las empresas mexicanas planean incrementar este 2019 hasta en un 68% su inversión en infraestructura de seguridad y hasta un 70.2% en detección de malware y medidas de prevención, ya que 8 de cada 10 empresas registradas, ha sufrido algún tipo de ataque cibernético (según información de reportes de IMPERVA 2019).

¿Sabes si la información de tu empresa que manejan terceros está comprometida?

La cultura de la ciberseguridad se transforma todo el tiempo, y es normal que las organizaciones aún piensen en el tema de seguridad como una posibilidad de reaccionar ante las amenazas en lugar de generar estrategias para prevenirlas. Sin embargo, es un error. 

Monitorear los diferentes entornos de tu ecosistema digital, te ayudará a reducir los riesgos e incidentes en tus aplicaciones

Hoy en día, es necesario que las empresas adopten una estrategia de resiliencia cibernética que prevenga y evite los riesgos, y no sólo opten por crear medidas de reacción inmediatas ante las agresiones a sus sistemas. Esta última opción, que suele ser la más frecuente,  sitúa a las organizaciones en un lugar de constante vulnerabilidad hasta que decidan invertir en estrategias completas que involucren a todas sus áreas. 

Beneficia a tu negocio con la resiliencia tecnológica

Es común pensar que los ataques provienen de hackers expertos que pueden vulnerar cualquier sistema pero no es así. La precariedad de las tecnologías (o su mala ejecución) que usan las empresas que no cuentan con estrategias de seguridad modernas, hacen que la fuga o el robo de datos sea una tarea fácil para cualquier persona con medianos conocimientos en el tema. 

En México, el fraude cibernético más usual tiene que ver con la industria e-Commerce. En cifras de la Condusef del 2018, las quejas por fraudes en este sector representa un monto total de 9 millones 517 mil pesos a través de 7 millones 300 mil 575 denuncias formales. 

Aunque no sólo en nuestro país ocurren ciberataques, estos son algunos de los casos de robo de datos más impactantes de los últimos tiempos. 

1.- NETFLIX

El pasado 13 de mayo, la empresa de resiliencia cibernética UpGuard, dio a conocer una investigación en la que encontró una gran cantidad de datos confidenciales almacenados por Attunity, una firma de soluciones de integración de datos y gestión de big data, dispuestos en 3 depósitos sin protección de Amazon S3.

Estos depósitos contenían 750 gigas de copias de seguridad de emails, además de cuentas de OneDrive de trabajadores con sus direcciones de correo electrónico, contraseñas, información de ventas y marketing. Además de la base de datos de Netflix. 

Tras el descubrimiento, UpGuard informó a Attunity sobre la filtración de datos y estos procedieron rápidamente a cifrar los depósitos. Y aunque UpGuard envió pruebas con cadenas de verificación de dicha base a Netflix, aún no hay una postura de la empresa de entretenimiento online ante la exposición pública de los datos de sus clientes. 

Sin embargo, en el informe correspondiente, se concluye con una valiosa lección para las empresas que aún no utilizan estrategias completas de resiliencia cibernética: “Las estaciones de trabajo de los usuarios pueden estar protegidas contra la intrusión de los atacantes, pero otros procesos de TI pueden copiar y exponer los mismos datos valorados por los atacantes. […]  Los datos no son seguros si las configuraciones erróneas y los errores de proceso exponen esos datos a la Internet pública”.

Prevenga las fugas de datos y proteja la confianza de sus clientes

2.- Filtración del padrón electoral del INE

El 20 abril de 2016, el Instituto Nacional Electoral (INE) presentó una denuncia penal ante la Fiscalía Especializada para la Atención de Delitos Electorales, al enterarse que una copia de la lista del padrón electoral del 2015, se encontraba albergada en un contenedor público de Amazon. 

La lista contenía 93.4 millones de nombres de ciudadanos con sus respectivos domicilios en todo el país, incluidas las copias de sus credenciales para votar. Chris Vickery, quien en ese entonces trabajaba para la empresa de seguridad informática MacKeeper, descubrió esta lista de datos sin saber que era confidencial e ilegal. 

A través de una entrada en su blog, Vickery relata cómo hizo este descubrimiento en aquel 14 de abril. Sucedió en una conferencia sobre fuga de datos que ofreció en el Centro de Estudios Gubernamentales e Internacionales de la Universidad de Harvard cuando expuso dicha base de datos y un estudiante mexicano le confirmó que se trataba del padrón electoral mexicano. 

El ahora director de Investigación de Riesgo Cibernético en UpGuard, informó de inmediato al Departamento de Estado de los Estados Unidos, a la embajada mexicana en Washington, al propio INE y a Amazon. La Dirección Ejecutiva del Registro Federal de Electores (DERFE) realizó las acciones necesarias para dar de baja dicha información albergada en Amazon, sin embargo, transcurrieron 8 días para que ésta fuera bloqueada. 

Este es un caso típico de sustracción de datos que no involucra ataques directos a un ecosistema, sino que funciona gracias a la inadecuada protección de datos que se manejan dentro de una organización y que podría evitarse con una estrategia integral de ciber resiliencia. 

3.- KPMG México

KPMG es una de las firmas de consultoría más grandes del mundo, que en México ofrece servicios de auditoría, asesoramiento legal y fiscal a firmas como la Operadora de Hospitales Ángeles, FEMSA, el Club Premier de la línea aérea Aeroméxico y la administradora Profuturo GNP, entre muchas otras. 

En enero del 2019, identificó que algunos de sus clientes habían sido presa del robo de datos a través de terceros. Según información de periódico El Economista, los empleados de KGMG descargaron sin autorización millones de comprobantes fiscales digitales del Servicio de Administración Tributaria (SAT) y con ellos crearon una base de datos abierta a cualquier tipo de usuario en internet, desde noviembre de 2018 a enero de 2019. 

Desafortunadamente, estas intrusiones cibernéticas no siempre provienen de la mano de desconocidos. En el caso de KPMG un grupo de empleados utilizó el servicio de almacenamiento Azure Blob Storage de Microsoft para hospedar la información confidencial sin contraseñas ni controles de seguridad de los clientes de dicha empresa.

Cuando un ataque de este tipo ocurre, los sistemas operativos son blanco de diversos análisis o de ataques discretos diseñados para descubrir vulnerabilidades. 

Una forma de prevenir esta situación, puede ser a través de la interpretación de los datos históricos de monitoreo. Cuando las empresas cuentan con estrategias que les permiten saber en dónde se puede originar un problema, pueden anticipar un plan de emergencia para restaurar sus servicios o prevenir la fuga de información en el menor tiempo posible. Además de ayudarles a hacer inversiones certeras en nuevas tecnologías que sí se ajusten a sus necesidades. 

4.-  Importante medio digital 

Gracias a un informe de la compañía de ciberseguridad UpGuard Cyber Risk, se dio a conocer que un conjunto de datos de 146 gigabytes, que contienen 540 millones de registros con comentarios, gustos, reacciones, nombres de cuentas e identificaciones de la red social Facebook, fueron almacenados por el medio de información Cultura Colectiva y puestos a disposición del público para descargar, a través del servicio de almacenamiento S3 de Amazon Web Services. 

Según UpGuard, este tipo de incidente es semejante al que ocurrió con Cambridge Analytica en el año 2018, cuando los datos fueron utilizados para manipular algoritmos e información que se proporciona a los usuarios. 

Aunque la empresa de ciberseguridad se encargó de notificar a Cultura Colectiva de dicha situación en enero de 2019 a través de un comunicado, fue hasta el 3 de abril que en colaboración con Amazon, el equipo de Facebook se encargó de cerrar dicha base de datos. 

Ahora sabemos que las fugas de datos no siempre están relacionadas a un ataque cibernético, estas situaciones pueden controlarse a tiempo con una estrategia de monitoreo que permita buscar, identificar y notificar fugas de datos en una organización. De esta manera, aunque una fuga logre traspasar los controles de seguridad y políticas de privacidad, se tendrá una salvaguarda que permitirá reaccionar rápidamente ante cualquier riesgo de fuga.   

Implemente el Monitoreo de Riesgo Cibernético en su empresa y prevenga vulnerabilidades en su seguridad con UpGuard. 

5.- Uber  

En el año 2016, el presidente ejecutivo de Uber, Dara Khosrowshasi, informó que un equipo de hackers accedió a los sistemas de la compañia y robó datos personales de 57 millones de sus clientes en todo el mundo (entre ellos 1 millón de mexicanos afectados), incluidos nombres, licencias de conducir, direcciones de email y números celulares. 

Aunque Uber trató de ocultar el hecho por más de 1 año pagando a los hackers 100,000 dólares a cambio de eliminar la información sustraída, el incidente salió a la luz pública en marzo del 2018, según un informe de Check Point Software Technologies, empresa que publicó dicho ataque. 

A pesar de existir una solicitud por parte de la autoridad de protección de datos personales de México, el Instituto Nacional de Transparencia, Acceso a la Información y Protección de Datos Personales (INAI) en contra de UBER, el diario El Economista, reporta que hasta la fecha no hay información que precise una multa o que explique lo que sucedió con los datos de mexicanos afectados en esta situación.

Resiliencia: mucho más que un plan de ciberseguridad

Estos casos de fuga de datos muestran la importancia de tener una estrategia de seguridad que vaya más allá de la respuesta inmediata ante posibles ataques cibernéticos, y que, sin importar el tamaño o renombre de las empresas, cualquier persona o negocio está expuesto a que ocurra una fuga de datos propios o de sus clientes a manos de terceros o de sus mismos empleados. 

En México, MENTA NETWORK es representante certificado y calificado para operar las tecnologías de UpGuard, firma líder global en soluciones de resiliencia cibernética, como Cyber Risk, que ayudarán a los equipos de Tecnología y a las compañías en general a  obtener la evaluación externa más completa de las vulnerabilidades que los servicios de terceros presentan en su ecosistema, a través de una clasificación de seguridad CSTAR, que determina los niveles de riesgo de terceros. 

Además proporciona una poderosa solución de monitoreo que busca, identifica y notifica fugas de datos, lo que permite reaccionar de manera rápida y adecuada a la contingencia del problema. 

Si quiere saber más de los servicios de UpGuard en México y cómo pueden beneficiar a su negocio, contáctenos, podemos ayudarle. 

Contáctanos

Por favor introduce tus datos y nos pondremos en contacto contigo.

SaaS, PaaS y IaaS: ¿Cuál es la diferencia y cómo elegir el apropiado para tu empresa?

En materia de adopción de nube, existen diferentes servicios que ofrecen distintas ventajas frente a las necesidades de cada empresa. Conoce las diferencias entre SaaS, PaaS y IaaS.

Operar desde la nube es hoy en día un proceso fundamental para todo tipo de negocios, desde los que no cuentan con equipos técnicos para estar al tanto de su infrestructura todo el tiempo, hasta grandes corporativos que operan con grandes volúmenes de datos. Por ello, existen tres tipos de servicios que se adaptan y ofrecen características adecuadas para cada necesidad de las empresas. 

Según la revista IDC, actualmente servicios como el SaaS representa el 24% de todas las cargas de trabajo empresariales, mientras que el IaaS está rondando el 12% y la PaaS, que es el modelo más popular, ronda el 32%. 

Si estás buscando migrar a la nube y no sabes cuáles servicios son los que mejor se ajustan a tu negocio, checa las diferencias entre los servicios más indispensables de cloud computing. 

Saas, Paas y IaaS: Cuál es la diferencia y cómo elegir el apropiado para tu empresa.

Encuentre problemas antes de que sus clientes lo hagan con New Relic Synthetics

Synthetics mejora las capacidades de monitoreo al dar visibilidad del rendimiento y degradación de su ecosistema de punta a punta.

Asegúrese de que su aplicación esté lista antes de su lanzamiento al público con el monitoreo proactivo de New Relic Synthetics, que pone a su disposición una herramienta de monitoreo sintético diseñada para permitirle simular el comportamiento de un usuario real en su página, a través de pruebas automatizadas en cualquier momento y en cualquier lugar, incluso en redes privadas. New Relic Synthetics puede analizar el ciclo de vida completo de la aplicación, desde su desarrollo, pasando por las pruebas de calidad y producción.

El análisis detallado y las alertas instantáneas de New Relic Synthetics, implican: 

Dashboard de pruebas de funcionamiento global

Exploración de Datos

Monitoreo activo las 24 horas del día

Visibilidad en el ciclo completo de desarrollo

Acceda en cualquier lugar, en cualquier momento

Monitoree el rendimiento de su aplicación en el navegador con las aplicaciones móviles gratuitas de New Relic para iOS y Android. La misma funcionalidad y características, con acceso a sus datos donde sea que se encuentre.

Eventos para DevOps en la segunda mitad de 2019

Si estás interesado en mejorar tus habilidades en programación o aprender sobre las últimas actualizaciones del mundo tech, revisa los siguientes eventos.

Nos encaminamos hacia la segunda mitad del año y la agenda para eventos DevOps alrededor del mundo tiene mucho que ofrecer. Algunos de ellos imperdibles en la Ciudad de México, como la conferencia “Gartner Infraestructura de TI, Operaciones & Estrategias Cloud 2019”, que se desarrollará este 26 de junio del 2019 y contará con la presencia de la empresa mexicana Menta.

El equipo de New Relic estará presente en diversos eventos, grupos de usuarios y encuentros durante el mes de junio.

Si estás interesado en mejorar tus habilidades en programación o aprender sobre las últimas actualizaciones del mundo tech, checa los eventos más importantes que tendrán lugar en junio. ¡No te pierdas ninguno!

Junio

1.- MANEJE SU NEGOCIO CON MICROSERVICES, KUBERNETES Y SIN SERVIDOR

Fecha: 18 de junio de 2019
Lugar: 1800 Tysons Blvd., McLean, VA
Horario: 8:00a.m. -12:00 p.m. 

Asiste a esta mesa redonda organizada por Kinect Consulting, un equipo multifuncional de expertos en la nube, personas, procesos y tecnología. Esta sesión brindará la oportunidad de participar abiertamente con sus expertos en la materia, analizar las áreas más desafiantes del cloud y aprovechar todo el potencial de tu negocio.

En esta mesa redonda interactiva con AWS, New Relic y Kinect-Consulting y Aqua, se tocarán estos puntos:

2.- New Relic Workshop | Irvine

Fecha: 20 de junio 2019
Horario: 8:30 a.m. - 4:00 p.m.
Lugar: 17875 Von Karman Ave. Suite 150, Irvine, CA 92614

Un experto de New Relic estará a cargo de guiar a los asistentes a través de los puntos más importantes de una APM para ayudarlos a comenzar a monitorear el rendimiento de su aplicación como verdaderos expertos.

¿Qué aprenderás?

3.- Conferencia Gartner Infraestructura de TI, Operaciones & Estrategias Cloud 2019

Fecha: 25 - 26 Junio
Lugar: Hotel Camino Real Polanco Mariano Escobedo No. 770, Col. Anzures, Ciudad de México, C.P. 11590
Horario: 8:00 a.m. a 8:00 p.m.

Hoy en día es vital encontrar soluciones que permitan resolver problemas del negocio con la mayor agilidad posible y con estrategias que involucren las nuevas formas de ejecutar operaciones TI. Por ello, este evento ofrece distintas formas de aprender e interactuar con la agenda vital en el mundo de los negocios actual.

¿Qué aprenderás?

Este año Menta y New Relic tendrán presencia durante el evento. Podrás conocer sus servicios de monitoreo de desempeño de aplicaciones, sintético, de infraestructura dinámica y de aplicaciones móviles, a través de demostraciones personalizadas y ejecutadas por expertos.

4.- WP ENGINE SUMMIT 2019

Fecha: June 25-26, 2019
Horario: Consulta la agenda aquí.
Lugar: Fairmont Hotel | Austin, Texas.

En este evento podrás descubrir cómo aprovechar WordPress y WP Engine para impulsar tu negocio más rápido. Aprenderás de las mejores marcas, agencias y líderes de la industria que están impulsando la innovación e inventando la forma en la que se conectarán las marcas con los consumidores en línea en el futuro.

El gerente de mercadeo de soluciones en la experiencia de cliente digital de New Relic, Gavin Johnson, ofrecerá una conferencia respecto a cómo comprender y mejorar tu experiencia digital del cliente y los resultados comerciales que se obtienen con el uso de una APM.

5.- Devopsdays Amsterdam

Fecha: del 26 al 28 de junio de 2019
Lugar: Pakhuis de Zwijger (Piet Heinkade 179, 1019 HC Amsterdam).
Horario: Consulta el programa completo aquí.

Esta conferencia reúne el desarrollo, las operaciones, el control de calidad, la información, la administración y el liderazgo para analizar la cultura y las herramientas para crear mejores organizaciones y productos.

¿Qué aprenderás?

6.- AWS SUMMIT SAO PAULO

Fecha: 27 de junio de 2019
Lugar: Transamerica Expo Center, Sau Paulo, Brasil

Esta conferencia reúne a la comunidad de cloud computing para conectarse, colaborar y aprender sobre AWS. Las cumbres se llevan a cabo en las principales ciudades del mundo y son presentadas por tecnólogos de múltiples industrias, segmentos y niveles de aprendizaje que han utilizado AWS y saben su potencial para ayudar a innovar con rapidez y brindar servicios con escala, flexibilidad y confiabilidad.

Julio

7.- AWS SUMMIT NEW YORK

Fecha: Julio 11 de 2019
Lugar: Javits Center, New York
Horario: Consulta la agenda aquí.

Este evento gratuito está diseñado para reunir a la comunidad de cloud computing para conectarse, colaborar y aprender sobre AWS.

8.- AWS WELL-ARCHITECTED WORKSHOP SERIES - PERFORMANCE EFFICIENCY

Fecha: 18 de julio de 2019
Horario: 5:30 p.m. -7:30 p.m.
Lugar: New Relic 111, SW 5th Ave #2700, Portland, OR 97204
¿Qué aprenderás?

En este taller de 2 horas en el que AWS, New Relic y Five Talent recorrerán las mejores prácticas en torno a la eficiencia de rendimiento.

La oradora principal es Catherine Johnson, Consultora Principal de Soluciones para Socios de New Relic. 
 

9.- AWS Well-Architected™ Workshop Series: Pillar 4 Performance Efficiency

Fecha: Julio 18 de 2019
Horario: 5:30 p.m. - 7:30 p.m.
Lugar: New Relic 111, SW 5th Ave #2700, Portland, OR 97204

En este taller de 2 horas dirigido por el Director de Tecnología de Five Talent, Ryan Comingdeer, se estudiarán las mejores prácticas en torno a la eficiencia de rendimiento.

¿Quién puede asistir?

CTOs, CIOs, directores de Ingeniería, ingenieros de DevOps, directores de TI y desarrolladores senior

¿Qué aprenderás?

Conocerás las mejores prácticas y estrategias para aumentar la eficiencia del rendimiento como:

Agosto

10.- AWS SUMMIT MEXICO CITY

Fecha: 29 de agosto de 2019

INFORMACIÓN AÚN EN PROCESO

Octubre

11.- AWS Summit Toronto

Fecha: 3 de octubre de 2019
Lugar: Metro Toronto Convention Centre (MTCC), 255 Front St W, Toronto, ON M5V 2W6, Canada
Horario: Todo el día

INFORMACIÓN AÚN EN PROCESO
 

12.- PIVOTAL SPRING ONE

Fecha: 7 octubre de 2019
Lugar: Austin Convention Center
Horario: Checa la agenda aquí.

¿Quién puede asistir?

Desarrolladores, líderes técnicos e ingenieros de la nube.

¿Qué aprenderás?

Este evento es ideal para aprender lo último en Java y .NET; para ver qué prácticas y patrones están trabajando en entornos de producción y construir arquitecturas más resistentes, además de que podrás conocer nuevas amistades.

Noviembre

13.- KUBECON

Fecha: 18 al 20 de noviembre de 2019
Lugar: San Diego Convention Center, San Diego, California 
Horarios: Puedes checar el programa completo aquí.
No te pierdas la conferencia emblemática de Cloud Native Computing Foundation, ya que durante 4 días reúne a los personajes más importantes de las principales comunidades cloud de código abierto y nativas en San Diego, California, para promover la educación las últimas tecnologías del cloud computing.

Ventajas de conocer las métricas críticas de tu negocio

Los objetivos impulsados por métricas aportan más beneficios a tu negocio, ya que identifican áreas de mejora y promueven la cultura de la colaboración.

Tener un registro de métricas específicas te permite saber qué tan exitosa fue la ejecución de un proyecto. Gracias a los resultados objetivos de los indicadores, podrás definir claramente los objetivos y métodos que te servirán para alcanzar las metas de un negocio.

Es decir, para los equipos DevOps, las métricas ayudan a identificar problemas, saber en dónde o qué los originó y cómo pueden prevenirse o arreglarse en el menor tiempo posible. Para el área comercial de las empresas, las métricas son útiles para alcanzar o perfeccionar los objetivos de negocio.

Como hemos mencionado en artículos anteriores, seguramente a tus clientes les interesa poco saber cómo funciona el backend de su negocio, mucho menos a nivel software; sin embargo, siempre esperan que el sitio o la aplicación que usan trabaje de manera eficiente. Y, para lograrlo, se debe considerar que la efectividad de las métricas dependerá de que sean:

Por ello, es indispensable medir la situación actual de tus plataformas y revisar periódicamente las métricas que indiquen una mejora o degradación. Si tus métricas críticas cumplen con las características mencionadas anteriormente, se podrá completar un proceso que representará ganancias gracias a las mejoras implementadas en una aplicación constantemente monitoreada; el proceso puede definirse en esta fórmula:

Recopilación de datos ➞ Cálculo de métricas ➞ Evaluación de métricas

¿Qué ventajas nos ofrece establecer métricas críticas?

Lograr objetivos.

Cualquiera que sea tu objetivo, existen métricas para lograrlo, y, aunque algunos expertos aseguran que lo ideal es no tener más de 30 métricas por proyecto, actualmente existen herramientas para simplificar el proceso.

Conoce estas métricas especializadas para ecommerce

Por ejemplo, ejecutar con mayor velocidad cambios o modificaciones simples en los códigos, tendrá un impacto positivo en las preferencias de los clientes o las tendencias de algún mercado. Esto mejorará la rentabilidad de nuestros proyectos y las opiniones positivas de los clientes, lo que se traducirá en una percepción favorable de nuestras marca o empresa y además, disminuirá los costos operativos.

Para lograrlo, podemos usar las siguientes métricas:

La latencia son los milisegundos que tarda tu servidor en responder cada petición. Inicia leyendo los primeros bytes que envió el usuario y se detiene cuando termina de enviar la respuesta.

Detectar un problema en el menor tiempo posible puede ayudarle a controlar la situación antes de que el usuario final pueda siquiera percibirlo.

Saber cuánto tiempo tarda en recuperarse un sistema ante alguna falla es una ventaja.

Saber cuánto tiempo toma realizar una implementación en un ecosistema es vital. Generar un historial al respecto puede ayudarte a facilitar futuras tareas y a ofrecer una mejor experiencia al usuario.

No hay forma de evitar fallas pero sí de prevenirlas. Saber la frecuencia con la que nuestras implementaciones se interrumpen o generan problemas a los usuarios nos ayudará a contar con un análisis de fiabilidad (MTTF) a lo largo del tiempo y a mejorar nuestras implementaciones.

El monitoreo sintético ayuda a los equipos IT modernos a explotar las últimas tendencias tecnológicas para obtener resultados más rápidos reduciendo el costoso tiempo de inactividad, simulando el comportamiento de usuarios a cualquier escala para obtener datos como: funcionalidad, disponibilidad y mediciones de tiempo de respuesta

Conoce los beneficios del monitoreo sintético en tus aplicaciones
 

Conocer la eficacia operacional de nuestra organización

Imagina que un problema inesperado inhabilita el funcionamiento de tu sitio. ¿No sería ideal saber qué causó la falla? Almacenar los datos que periódicamente arrojen nuestras métricas puede cambiar la forma en la que el problema sea resuelto, porque tendremos antecedentes e información que podrá ser consultada hasta ubicar alteraciones o cambios en el historial de comportamiento de determinada infraestructura.

Recuerda: si puedes consultar tus métricas, podrás encontrar la solución en menor tiempo y con mayor eficacia. Una forma de hacerlo es con el monitoreo de usuarios reales,  ya que, además de recopilar datos históricos del rendimiento de tus aplicaciones en relación con los usuarios, ofrecen interpretaciones claras y precisas de datos en lapsos específicos.

Con el monitoreo de usuarios reales, podrás consultar estas métricas:

Conoce las vistas únicas de página, tiempos de carga precisos y preferencias de navegador del usuario.

Esta métrica te ayudará a identificar qué partes del sitio usan con más frecuencia, qué es lo más importante para ellos y por qué. Estos datos te servirán para mejorar la experiencia del usuario.

Monitorear la comunicación del navegador con servicios y APIs externos, como botones y widgets de redes sociales, mapas, o publicidad, te ayudará Identificar errores en el navegador que normalmente son asintomáticos y podrían pasar desapercibidos.
 

Mejorar el rendimiento del negocio

Utilizando las métricas adecuadas, podrás señalar eventos futuros y, mejor aún, prevenirlos. Cuando monitoreas eficazmente una aplicación, también puedes conocer el rendimiento de tu equipo TI, sus tiempos de respuesta, cuánto tardan en resolver un problema o detectarlo, y ayudar a realizar los ajustes pertinentes para mejorar cada acción y mejorar la experiencia de los usuarios finales.

Estas métricas son críticas para el buen funcionamiento de cualquier negocio online:

Esto indicadores de esta medición te permiten saber cuál es la cantidad de visitantes concurrentes que tu aplicación puede soportar en determinado momento, por ejemplo, comprando o navegando un catálogo y te ayudarán a prevenir colapsos.

Descubrirás cuánto tiempo está inactivo un servicio, la frecuencia con la que se cae e incluso que lo ocasionó con estas métricas.

Para una empresa moderna es vital activar la toma de decisiones basada en los resultados de sus métricas, ya que nos revelan el impacto -con evidencia- de eventos pasados y, por lo tanto, de los futuros. En otras palabras, las métricas funcionan también como alertas para lo que puede suceder en nuestros ecosistemas cuando ciertos acciones se repiten.

Si quieres implementar un sistema que te permita usar métricas críticas para tu negocio, una opción es usar una APM ( Application Performance Monitor) que ayuda a saber si una aplicación funciona bien o mal, y por ende, nos indica cuáles son las áreas en las que se deben realizar mejoas, a través de tableros personalizados como este:

Si quieres saber más acerca de métricas y cómo recopilarlas, te recomendamos usar las herramientas adecuadas para descubrir toda la información que ofrecen tus aplicaciones.

Contáctanos

Por favor introduce tus datos y nos pondremos en contacto contigo.

Descubre el desempeño de tus aplicaciones con New Relic APM

Con APM de New Relic podrá tener una vista completa de sus aplicaciones y entorno operativo desde una sola pantalla.

APM de New Relic es una herramienta de software como servicio (SaaS) que está diseñada para monitorear de forma detallada el desempeño de aplicaciones web. Desde la experiencia del usuario final, pasando por servidores a través de aplicaciones distribuidas, hasta la línea de código. Cuenta con soporte para Java, Python, Ruby, PHP, Node.js y .NET, así como otros 70 frameworks que ayudarán a tu equipo DevOps a reducir el tiempo de resolución de cualquier fallo.

Además, podrás eliminar la brecha entre equipos de desarrollo y operaciones ya que una sola interfaz analiza cada aspecto del ambiente de tus aplicaciones. Checa todo lo que puede hacer por tu negocio: 

Monitoreo de desempeño en tiempo real

La importancia de conocer qué está pasando en el momento justo que sucede, es la diferencia entre tener un problema o prevenirlo. APM de New Relic te permite monitorear las transacciones críticas en tu aplicación orientada a servicio con trazado de transacciones de punta a punta. Además de desglosar el impacto de segmentos de código y sentencias SQL específicas para que puedas informar a la persona correcta en tu equipo qué es exactamente lo que está pasando, através de decenas de integraciones a servicios de tickets, chats, alertas y webhooks.

Explore sus datos

Conoce de manera detallada cuáles son los errores en tu aplicación gracias a varias dimensiones que priorizan correctamente los esfuerzos de resolución. APM de New Relic es capaz de segmentar los datos de desempeño por usuario, ubicación geográfica, host, tipos de errores y más. Del mismo modo es de suma importancia tener la capacidad de unificar a tu equipo con un conjunto de datos consistente que pueda ser utilizado tanto por operadores como por desarrolladores y dueños de aplicaciones. Ya que eso puede facilitar todas las fases del proceso.

Análisis exhaustivo a nivel de código

Identifique los cuellos de botella de su aplicación con una herramienta de perfilado de bajo impacto que captura el trazado de stack de cada transacción para una duración específica. Además, con APM de New Relic puedes observar el total de los trazados en un árbol de llamadas y monitorear el número de funciones presentes en ese mismo contexto de stack. De igual manera, podrás ver los trazados de las transacciones junto a resultados de procesos de ejecución larga para un análisis profundo.

Visibilidad de extremo a extremo

Mediante APM puedes utilizar la nube de analitica de software de New Relic con la que podrás obtener una visibilidad completa del desempeño desde el servidor hasta el usuario final. Podrás también navegar a través de aplicaciones frontend y backend con la finalidad de identificar la causa de los problemas de desempeño. Así como personalizar un mapa de servicios que muestre cuáles son los componentes relevantes que utiliza su aplicación, incluyendo servicios externos como APIs.

Fácil acceso desde donde estés

No necesitas estar pegado a la computadora 24/7 para poder monitorear tu aplicación, con las aplicaciones móviles de New Relic disponibles para iOS y Android podrás hacerlo en tu celular desde donde estés. Lo anterior, sin perder funcionalidades ni características: tendrás acceso a tus datos sin importar dónde te encuentres.

Como hemos podido ver hasta aquí, APM de New Relic resulta de mucha utilidad para monitorear tus aplicaciones y descubrir datos de gran valor, ya que es una de las herramientas más completas del mercado y te permite realizar una variedad amplia de tareas dentro de una misma interfaz, además de promover la comunicación entre los equipos de desarrollo y operaciones.

Amplía el alcance de tus datos con New Relic Insights

New Relic Insights es un recurso de análisis de software para recopilar y visualizar datos sobre su software y lo que estos dicen sobre su negocio.

New Relic Insights aprovecha los datos de otros productos de New Relic para permitirle analizar el comportamiento del usuario, las transacciones comerciales, la información del cliente y mucho más. Mientras que New Relic APM ayuda a las personas a optimizar sus aplicaciones, Insights ayuda a las personas a optimizar sus resultados. Es un recurso de análisis de software para ayudar a todos, desde ejecutivos de nivel C a desarrolladores front-end a tomar mejores decisiones y construir mejores productos.

Mediante la interfaz de Insights, puede crear paneles de forma rápida y fácil para identificar problemas con sus aplicaciones y hosts en tiempo real o para rastrear las tendencias de datos en curso.

New Relic Insights contiene cuatro componentes principales:

También puede ver Insights en la aplicación móvil Insights de New Relic para Android e iOS y en Apple TV.

Tipos de eventos y atributos

Insights recopila eventos de una variedad de productos de New Relic:

El diccionario de datos de eventos de New Relic le permite ver los tipos de eventos y los atributos de los datos básicos de Insights. Puede utilizar estos atributos cuando cree tipos de eventos personalizados.

Puede agregar atributos personalizados a la mayoría de los eventos para comprender mejor a sus clientes, su aplicación y su negocio. También puede crear eventos personalizados completamente nuevos para vistas de página, transacciones de host o cualquier cosa que se pueda informar en línea.

Utilice el explorador de datos de eventos para buscar y comprender sus datos de eventos.

Datos métricos

Utilice el explorador de datos métricos para buscar y trazar cualquier dato del segmento de tiempo métrico enviado a través de los agentes de New Relic, incluidos los indicadores personalizados. Agregue widgets métricos a un panel de Insights para monitorear los datos que más le interesen a usted u otro equipo en un lugar centralizado, junto con cualquier widget basado en eventos / NRQL.

Monitorea y administra el rendimiento de tus aplicaciones de iOS y Android con New Relic Mobile

Descubra y resuelva los problemas rápidamente, incluidas las fallas de red o los errores de HTTP con las API móviles que respaldan su aplicación móvil nativa.

Las relaciones con los clientes se basan en una compleja cadena de tecnologías que trabajan tras bastidores. Toda la cadena debe funcionar perfectamente o sus clientes se irán y su empresa sufrirá. Para lograrlo, New Relic Mobile le brinda visibilidad a cada pieza de esta cadena, por lo que puede estar seguro de que las experiencias finales de los usuarios serán agradables ya que ofrece vistas agrupadas para un diagnóstico rápido de problemas a nivel de dominio.

Además, profundiza en solicitudes específicas para ver las métricas de rendimiento según el tiempo de respuesta, rendimiento y tamaño de transferencia de datos, por lo que podrá saber si sus API están funcionando sin problemas o errores.

Características de rendimiento de red

Desde las redes en las que se ejecutan sus aplicaciones en todo el mundo, hasta los servicios a los que están conectadas, la supervisión de la red de New Relic Mobile ayuda a comprender lo que está sucediendo con su aplicación móvil en los entornos complejos en los que se utiliza. New Relic Mobile le brindará:

Obtenga una vista general de la relación de rendimiento que tiene su aplicación con los servicios conectados y el nivel de influencia que cada servicio tiene sobre los demás.

Analice el rendimiento de las principales solicitudes HTTP de su aplicación en relación con el tiempo de respuesta, solicitudes por minuto, tiempo total o tamaño total de la solicitud.

Para cada punto final específico, obtenga gráficos detallados del tiempo de respuesta, el rendimiento promedio y el promedio de datos transferidos.

Conozca los tipos y la frecuencia de los errores HTTP que ocurren en su aplicación. Averigüe más para obtener el cuerpo de la respuesta, el sistema operativo, la versión de la aplicación, la marca de tiempo y el número de incidencias únicas para un tipo de error individual.

Estos informes le muestran qué hosts causan fallas en la red y qué tipos ocurren con mayor frecuencia, además de proporcionarle un cuerpo de respuesta para cada error que ocurrió.

El código de colores le permite encontrar fácilmente los tiempos de respuesta más lentos, las tasas más altas de fallas de red, la mayor cantidad de usuarios y los datos transferidos por país. Entra en un país específico para ver el tiempo promedio de respuesta, las llamadas / minuto, el volumen de tráfico y los tipos de fallas de red que se producen.

Estos informes proporcionan vistas de nivel de resumen sobre el recuento de dispositivos, el tiempo de respuesta y las tasas de error para WIFI y para cada operador en el que se ejecuta su aplicación. También proporciona informes de tendencias específicas del operador sobre el tiempo de respuesta, fallas de red y volumen de tráfico.

Informes de errores


Los informes de errores proporcionan información sobre los bloqueos de aplicaciones con métricas detalladas, así como el seguimiento de las interacciones de los usuarios que brindan visibilidad a nivel de código de los casos con fallas, por ejemplo: 

Una descripción general de todos los bloqueos de una aplicación, incluido el porcentaje de sesiones que se bloquearon, las comparaciones semanales, el número real de usuarios afectados y los detalles de los bloqueos resueltos y no resueltos. También puede proporciona detalles para analizar tendencias de frecuencia y desgloses por dispositivo, sistema operativo y versión de la aplicación.

Con Interaction Trails, New Relic detectará automáticamente el rastro de interacciones que llevaron a una falla, proporcionando visibilidad a nivel de código de los eventos que ocurrieron antes de la falla, lo que permite una solución de problemas más inteligente y requiere el mínimo esfuerzo requerido por parte del desarrollador.

Crea una alerta de todos y cada uno de los bloqueos críticos que ocurren dentro de una aplicación y la envía vía e-mail.

En resumen, con las ventajas que ofrece New Relic Mobile, podrá asegurarse de que los errores en su aplicación móvil tendrán un impacto mínimo en su reputación y en la percepción de los clientes hacia su negocio. Ya sea que necesite diagnosticar el rendimiento de sistemas operativos, dispositivos, versiones, o servicios de terceros, New Relic Mobile le ofrece una perspectiva en tiempo real de cómo se está comportando su aplicación móvil. 

Permítanos mostrarle los beneficios que New Relic puede brindar a su organización.

Contáctanos

Por favor introduce tus datos y nos pondremos en contacto contigo.

Monitoree la experiencia de usuario con New Relic Browser

¿Sabías que alrededor del 90% del tiempo de carga de páginas web ocurre en el navegador?

Las características de rendimiento de carga de una página proporcionan un contexto para interpretar los factores que afectan su rendimiento del tiempo de carga (usualmente se denomina “monitorización del usuario real” o RUM por sus siglas en inglés).  Con la herramienta Browser de New Relic tendrás muchas oportunidades para profundizar en los datos de las vistas de página únicas para solucionar problemas de rendimiento, independientemente del marco de JavaScript que utilice.

Esta poderosa instrumentación puede incluso capturar interacciones más allá del cambio de ruta, se pueden personalizar a través de una API, lo que permite un monitoreo adaptado a la arquitectura de su aplicación.

Haga la información de su software accesible a todos los grupos dentro de su organización y provea un conjunto de datos de rendimiento de navegador consistente, que desarrolladores, personal de operación, gerentes de producto, y soporte técnico puedan usar para tomar mejores decisiones y asegurar un mejor rendimiento con las ventajas que Browser ofrece, como:

Desglose geográfico y de navegadores

Contexto de la experiencia de usuarios finales

Monitoreo más allá de tiempos de carga de páginas

Visibilidad de extremo a extremo

Acceda en cualquier lugar, en cualquier momento

Permítanos mostrarle los beneficios que New Relic puede brindar a su organización.

Contáctanos

Por favor introduce tus datos y nos pondremos en contacto contigo.

Participa en la Conferencia “Gartner Infraestructura de TI, Operaciones & Estrategias Cloud del 2019” en México

Los líderes de infraestructura y operaciones (I&O) actualizan sus conocimientos en los talleres y conferencias que ofrecerán los expertos de Gartner.

Se acerca la conferencia “Gartner: Infraestructura de TI, Operaciones y Estrategias Cloud del 2019” en México. El evento busca ofrecer las herramientas para crear exitosas estrategias de cloud, IoT, inteligencia artificial y machine learning.  

Las tecnologías de la información y las estrategias cloud, IoT, inteligencia artificial, machine learning son -y seguirán siendo- temas fundamentales para todas las empresas que quieran asegurar su futuro, ya que el camino a la modernización no tiene marcha atrás. Actualmente, las opciones para abordar el tema son muchas, pero Gartner representa la cúspide de la innovación y profesionalismo al respecto.

Esta firma consultora y de investigación de TI ha facilitado la adopción de tecnologías desde hace más de 50 años a las empresas de todo el mundo, gracias a sus continuas investigaciones de las tendencias del mercado. Actualmente cuenta con más de 300,000 clientes en más de 11,000 organizaciones de 110 países.

¿Qué papel juega Gartner en el mundo TI?

Gartner ha logrado establecer su prestigio gracias a un sistema único llamado “Cuadrante mágico de Gartner”, una especie de ránking de fabricantes o distribuidores de las mejores soluciones y productos tecnológicos, que elige a los participantes en función de la integridad de su visión empresarial y su capacidad de ejecución de los servicios que ofrecen.

En este cuadrante puedes consultar las tendencias tecnológicas del momento, qué soluciones o productos son líderes en el mercado o cuáles son los mejores proveedores de acuerdo a la experiencia de los clientes.

Si quieres saber exactamente cómo funciona el Cuadrante mágico te recomendamos este artículo.

¿Qué encontrarás en esta conferencia?

El tema de la evolución de la infraestructura y las nuevas formas de ejecutar operaciones TI se mueven a gran velocidad, es por ello que son el eje central de las transformaciones y decisiones que toman las empresas que buscan ser innovadoras. En ese sentido, es vital encontrar soluciones que permitan resolver problemas del negocio con la mayor agilidad posible y con estrategias personalizadas.

Por ello, este evento ofrece distintas formas de aprender e interactuar con los temas que se exponen en 4 categorías:

1.- “Pregunte al experto”

Esta actividad está diseñada para que puedas resolver tus dudas con información de primera mano. Por ejemplo, ¿necesitas saber todo acerca del monitoreo?, ¿quiénes son los proveedores clave de este servicio?, o ¿cómo puedes optimizar una estrategia? Los expertos en el ramo te responderán a detalle.

2.- Keynote

¿Sabes si la nube es más costeable que las estrategias monolíticas? Esta sesión te ayudará a evaluar y analizar los costos en la nube para evitar gastos excesivos.

3-. Sesiones tracks

Estas charlas despejarán por completo las dudas o inquietudes de las operaciones TI actuales y su comportamiento hacia el 2023, con temas como:

4.- Sesiones Cuadrantes Mágicos

Si ya sabes que necesitas adoptar nuevas tecnologías para beneficiar o resolver inconvenientes en tu organización, Gartner te facilita el proceso. Como mencionamos, su Cuadrante Mágico podrá decirte qué tecnologías son mejores para tu negocio, qué proveedores se ajustan a tus necesidades y todo con base en tus necesidades específicas. En esta conferencia se presentarán:

También podrás asistir a talleres interactivos, clínicas, sesiones recomendadas por tipos de industria, sesiones con proveedores de soluciones, área de exhibiciones, así como también consultar casos de estudio con usuarios finales y crecer tu networking.

Conoce los servicios de New Relic

Durante el 2018, New Relic obtuvo el Gartner Peer Insights Customer Choice, un reconocimiento otorgado por los clientes que Gartner a guiado en su proceso de adopción de nuevas tecnologías; las herramientas de monitoreo de rendimiento de aplicaciones han posicionado a New Relic como líder en el cuadrante mágico de APM hasta nuestros días. 

Este año Menta y New Relic tendrán presencia durante el evento. Podrás conocer sus servicios de monitoreo de desempeño de aplicaciones, sintético, de infraestructura dinámica y de aplicaciones móviles, a través de demostraciones personalizadas y ejecutadas por expertos.

Además, contaremos con un a mesa redonda en la que aprenderá el método desde cómo crear software hasta asociarse con proveedores para crear su negocio digital.  
Una charla centrada en la Co-innovación: cuando construye un software, llega el momento de agregar valor aprovechando plataformas PaaS, AI, DevOps y OpenSource para crear un algo único, adecuado a su negocio y sus clientes.

Esta mesa estará a cargo de Rey Pérez Bio, quien liderea el equipo técnico de Ingeniería de Soluciones en New Relic en Ámerica Latina. Su experiencia en la industria incluye servicios públicos, ventas minoristas y fabricación. Rey tiene una maestría en ingeniería de software de la Universidad de Monmouth y una licenciatura en ingeniería eléctrica de la Universidad de Massachusetts en Amherst. 

¿Te gustaría asistir?

Nos interesa que logres tus objetivos de modernización a través de este evento, por eso compartimos un código de promoción por 2,000 pesos al adquirir tu entrada. El código es: MIOCS_menta.

¿Te gustaría conocer los beneficios que New Relic puede brindar a tu organización? Agenda un demo.

Contáctanos

Por favor introduce tus datos y nos pondremos en contacto contigo.

Tips para mejorar la resiliencia en tu infraestructura

Desplegar planes de prevención de riesgo constantemente y monitorear los diferentes entornos de tu ecosistema digital, te ayudará a reducir los riesgos que representan serios incidentes en tus aplicaciones.

El riesgo de sufrir vulnerabilidades en las aplicaciones y sus entornos, son parte de la cotidianidad de la era digital y nadie está a salvo de enfrentarse a uno, pero la forma en la que se hace frente a esta problemática marca la diferencia entre perderlo todo o librar el riesgo minimizando los daños. Las compañías que han entendido esta situación suelen ser ciber resilientes.

¿Para qué sirve la resiliencia tecnológica?

A grandes rasgos, la resiliencia es el conjunto de prácticas que contrarrestan posibles vulnerabilidades cibernéticas en el menor tiempo posible, previniendo la mayor cantidad de daños con la colaboración e intercambio de información entre ecosistemas digitales dentro de la organización y de proveedores o servicios externos.

Es fundamental tener en cuenta que las fugas de datos o las exposiciones involuntarias de información no sólo son producto de ataques externos, también pueden ser ocasionados por fallas dentro de la propia empresa; es decir, el riesgo está latente dentro y fuera de la organización, pero, con ayuda de esta tecnología, se puede tener una panorama completo de riesgos.

Te puede interesar: Beneficia a tu negocio con la resiliencia tecnológica.

¿Estrategia de seguridad es igual a ciber resiliente?

Imagina la clásica torre Jenga en la que el objetivo es hacerla tan alta como sea posible colocando una pieza sobre otra, pero, ¿qué sucede cada vez que alguien añade una de esas piezas? A veces toda la torre se tambalea o en el peor de los casos colapsa, porque el jugador no se aseguró de verificar adecuadamente cada lado de la torre para no dañarla con su próxima jugada.

Exactamente eso es lo que pasa cuando tu estrategia de seguridad no es cíber resiliente. Hay partes de tu estructura que están vigiladas pero otras no. Puede que con cada nueva implementación a tu sitio, otra parte del mismo quede expuesta, aunque no sea esa la intención. Por ello, es necesario tener un amplio panorama de todo lo que sucede, cambia o se transforma dentro de una infraestructura.

Si quieres mejorar los procesos de reducción de riesgo de tu empresa con ayuda la de resiliencia tecnológica, te dejamos 5 pasos para lograrlo fácilmente:

1.- Evalúa tu situación actual

Lo primero que necesitas hacer para mejorar la resiliencia de tu sitio, es realizar una evaluación actual y completa del estado en el que se encuentra por dentro. Vale la pena hacerse algunas preguntas como: ¿es susceptible a fallas de configuración?, ¿hay datos privados o sensibles almacenados fuera de mi infraestructura?, ¿se tiene control de cambio en todos los puntos del ecosistema?, ¿qué les gustaría prevenir?, ¿sabes si los datos que compartes con colaboradores externos están asegurados?, ¿las empresas de terceros que intervienen en tu sitio, tienen métodos confiables?

Al finalizar este análisis podrás establecer un plan estratégico definido y creado especialmente para las necesidades de tu infraestructura y tu negocio en general.

2. No dejes la prevención del riesgo únicamente en manos del área IT

Pensar que el departamento de sistemas debe tener todas las soluciones para asegurar la infraestructura del negocio, es igual a oponerse a que la compañía se modernice y evolucione. Es como derribar la torre por un descuido.

La prevención de riesgo debe tener una escala a nivel corporativo, es decir, los diferentes departamentos que la componen corren riesgos distintos respecto a la información sensible con la que operan, y si un equipo IT no sabe cuáles son las prioridades del modelo de negocios, ¿cómo sabrá qué debe priorizar en sus procesos de monitoreo o creación de estrategias?

Te puede interesar: ¿Qué es una compañía moderna de software?

3.- Elige las herramientas tecnológicas adecuadas para tu negocio

Aunque no existe una fórmula para tener un sitio 100% seguro, la forma más eficiente para acercarse a ello es contar con una estrategia que provea al negocio de las tecnologías adecuadas para hacerlo.  

Una vez que se presenta un riesgo, el lapso entre su identificación y el tiempo que se toma para resolverlo es decisivo para aminorar sus afectaciones en el sistema. Si una empresa no cuenta con las herramientas adecuadas y un plan basado en el cumplimiento de estándares la reacción frente a cualquier vulnerabilidad será lenta y, por ende, inservible.

Vale la pena recordar que Menta Network y la empresa estadounidense UpGuard tienen una alianza en México para ofrecer servicios de monitoreo de resiliencia tecnológica, permitiendo identificar riesgos rápidamente, confirmar el cumplimiento de estándares y asegurar la estabilidad de su negocio digital.

4.- Monitorea tu infraestructura constantemente

En anteriores ocasiones hemos hablado sobre las ventajas de monitorear tus aplicaciones como los expertos, pero no está demás recordar que para la resiliencia esta práctica es fundamental, porque la estrategia no es enfrentar ataques o corregir problemas, sino prevenirlos.

Con el monitoreo sabrás exactamente en dónde se puede originar un problema y anticipar un plan de emergencia para restaurar tus servicios, o prevenir la fuga de información en el menor tiempo posible. Además, te permite crear antecedentes de información para estar listo ante posibles situaciones similares con muchas ventajas.

5.- Actualiza tus estrategias constantemente

Si tu plan de ciber resiliencia marcha en orden, es decir, tu ecosistema está monitoreado, los proveedores se mantienen bajo supervisión y se cuenta con planes de soluciones inmediatas para los riesgos previstos, lo más importante es nunca bajar la guardia.

Según el último informe del Índice de Ciberseguridad Global (ICG) de la Unión Internacional de Telecomunicaciones, las empresas mexicanas planean incrementar su presupuesto en 68% durante este 2019 en materia de infraestructura de seguridad, ya que se estima que cada día se presentan más de 800 millones de malwares en el mundo y según AV-TEST, diariamente aumenta la cifra.

Cuando se detecta una vulnerabilidad en el entorno corporativo, se debe analizar y el equipo tecnológico debe enfocar sus esfuerzos en conocer a fondo otros puntos vulnerables que se puedan fortalecer, comenzando así un nuevo ciclo de mejora en la gestión de seguridad de la organización.

Simplifica la seguridad de tu infraestructura y permite que nuestros expertos te muestren cómo funciona el Monitoreo de Resiliencia Tecnológica en tu negocio. Agenda una demostración aquí.

Contáctanos

Por favor introduce tus datos y nos pondremos en contacto contigo.

¿Qué servicio de IaaS le conviene a tu negocio?

La IaaS es un servicio en la nube proporcionado por un tercero, que alberga, administra y da mantenimiento a la infraestructura de empresas que buscan reducir costos y tiempos en sus operaciones.

Hoy en día los negocios están siempre en búsqueda de tecnologías que les permitan facilitar sus procesos y mejor aún, ahorrar costos de operaciones. La nube llegó para quedarse y los servicios que ofrece son amplios y cumplen con estas dos características. Uno de ellos puede hacer que tu empresa optimice sus actividades en distintos niveles.

La “infraestructura como servicio”, mejor conocida por sus siglas en inglés como IaaS, permite albergar la infraestructura de cualquier negocio en la nube y operarla desde ahí, lo que se traduce en reducción de costos de mantenimiento y abre la puerta a profesionistas que se especializan en el cloud computing. El IaaS también permite crear, configurar y probar entornos de pruebas para anticipar los resultados o posibles percances que puedan presentarse durante algún evento especial antes de que suceda.

Las compañías modernas de software que utilizan este servicio obtienen otros beneficios en distintas áreas, por ejemplo, imagina que tu sitio se enfrentará a un evento especial en el que recibirá más usuarios de lo normal. 

IaaS: la opción para ahorrar en almacenamiento

Este servicio es utilizado por organizaciones de todos tamaños, desde la NASA hasta pequeños sitios de e-Commerce, ya que su fortaleza es que permite ahorrar dinero. ¿Cómo? Puedes ejecutar sitios web desde ahí, almacenar copias de seguridad (y recuperarlas); su infraestructura es perfecta para albergar aplicaciones y sus recursos.

Por ejemplo, supongamos que tu empresa utiliza la minería de datos o macrodatos, la IaaS es una opción económica para hacerlo, pues sólo pagas por el espacio que realmente necesitas. Es decir, no tienes que seguir pagando por hardwares físicos, ahora tendrías que hacerlo con el proveedor de cloud que te proporcione este servicio y básicamente ellos se encargarán de configurarlo y mantenerlo con las especificaciones que tu plataforma requiera, así que además, ahorras tiempo.

Seguridad en el manejo de la información

Otro punto a favor del IaaS es que al no ser ni utilizar elementos físicos, te permite acceder a los datos que necesites desde cualquier lugar y de forma inmediata. Todo bajo los estándares de seguridad que tú elijas para este requerimiento. Así que si falla un servidor, como en el caso de los centros de almacenamiento de datos físicos o monolíticos, tu información no se puede perder, ni puede transferirse.

¿Sabes si la información de tu sitio está en peligro? Este artículo puede interesarte.  

¿Listo para mudarte a la nube?

Tomar la decisión de contratar este servicio puede parecer difícil cuando se necesita hacer una elección. Por ello, creamos una lista con las marcas líderes de en este mercado:

1.- Amazon EC2

Amazon es pionero en el mercado de los servicios cloud, se destaca porque ofrece apoyo técnico y mucha documentación si eres nuevo en el tema.

Sus ventajas:

AWS puede mejorar el rendimiento de tu infraestructura en la nube, te mostramos cómo.

2.- Microsoft Azure

Desde el 2012, Microsoft lanzó al mercado Azure Virtual Machine y rápidamente se convirtió en una de las opciones preferidas por los desarrolladores porque se actualiza constantemente para ofrecer ventajas sobre sus competidores.

Sus ventajas:

3.- Google Compute Engine

Si tu empresa es cloud-native, te recomendamos usar este servicio ya que sus máquinas virtuales se ubican en los mismo centros de datos de Google y su red mundial de fibra óptica.

Sus ventajas:

4.- IBM Cloud Private

Es una plataforma para desarrollar y administrar cargas de trabajo y aplicaciones en contenedores.

¿Quieres aprender más sobre contenedores y microservicios? Checa este artículo.

Sus ventajas:

5.- Alibaba Cloud

Alibaba Cloud está posicionándose como una de las herramientas favoritas cuando de cloud computer se trata. Ofrece alojamiento web flexible y económico, lo que abre la puerta para convertirse en la elección de las Pymes que buscan mudarse a la nube. Su alojamiento es veloz y confiable con una fiabilidad de datos del 99.999%.

Sus ventajas:

La IaaS es solo una de las tres categorías principales del cloud computing, le siguen el software como servicio (SaaS) y la plataforma como servicio (PaaS) que pueden ser complementarias unas de otras.

Independientemente de la marca que elijas para contratar IaaS, considera que los beneficios generales de este servicio te permitirán mantener sistemas de funcionamiento, aplicaciones y almacenamiento albergados en la web. Además de ahorrarte la gestión de la infraestructura de tu sitio, mantendrás el dominio de los sistemas operacionales.

Si ya decidiste que es hora de mudarte a la nube, estamos listos para asesorarte, agenda un demo gratis aquí.

Contáctanos

Por favor introduce tus datos y nos pondremos en contacto contigo.

Las 5 mejores herramientas del 2019 para DevOps

Facilita y mejora el trabajo de tu equipo DevOps con las mejores herramientas del 2019.

Hoy en día cualquier empresa que se considere moderna, tiene un equipo DevOps. Esto es un síntoma de que la colaboración entre desarrolladores y los equipos de gestión de proyectos debe ser cada vez más estrecha si se tienen fines de desarrollo de software en común.

Según el estudio DORA (DevOps Research and Assessment) de Google, los equipos DevOps ofrecen a las empresas beneficios como tiempos de entrega 2,555 veces más rápidos utilizando las tecnologías correctas. Por eso hicimos un listado de las 5 herramientas que serán indispensables en este 2019 para que tu equipo DevOps pueda cumplir todas sus metas y mejore sus tiempos.

(Checa algunos consejos para mejorar el rendimiento de tu equipo DevOps en este artículo).

5.- Ansible

Durante este 2019 escucharás hablar de esta herramienta más de lo que te imaginas, ya que te ayudará a automatizar el aprovisionamiento de software, de configuraciones (a través de playbooks o de estructuras de directorios) y del despliegue de aplicaciones. El plus: es de código abierto, prácticamente te permite automatizar cualquier elemento de una infraestructura. 

Esta herramienta trabaja con dos tipos de servidores, el controlador (el equipo desde donde se dirige la orquestación de contenedores) y los nodos dirigidos por el controlador a través de SSH.

También te permite estandarizar los sistemas operativos y administrar servicios centralizados. Entre sus principales ventajas podrás notar que su instalación es muy sencilla (aunque para tareas complejas utiliza lenguaje YAML); no utiliza agentes o bases de datos y se integra fácilmente con Amazon, OpenStack o RackSpace.

4.- Kubernetes

Con tan solo 4 años desde su aparición, Kubernetes ya es considerada una de las mejores herramientas de orquestación lógica de contenedores a gran escala.

Si la estrategia de migración a la nube de tu empresa va viento en popa, tu siguiente paso es aumentar recursos y Kubernetes te permitirá automatizar el proceso de distribución, programación y administración de cientos de contenedores desde múltiples computadoras.

Funciona a través de un clúster que se divide en un máster y varios nodos de trabajo. El máster establece las reglas predefinidas y ordena lógicamente a los contenedores en sus nodos de trabajo, así cuando uno está inactivo o falla, los reorganiza automáticamente.

Te puede interesar: Orquestación de contenedores

3.- Jenkins

Jenkins se ha posicionado como el principal servidor de automatización de código abierto en el mercado gracias a los cientos de complementos que le permiten crear, implementar y automatizar cualquier proyecto.

Actualmente, ofrece más de 1,000 complementos, por lo que se integra con casi todas las herramientas DevOps y te permite crear configuraciones personalizadas. Aunque está basado en Java se ejecuta automáticamente en Windows, Mac OS X y Linux.

Es particularmente útil en las automatización de tareas repetidas, así que te ayudará a encontrar y prevenir problemas rápidamente.

2.- Docker

Indiscutiblemente, Docker es la suite de distribución de contenedores más popular desde su lanzamiento ya que fue la primera en orquestar el funcionamiento distribuido y automatizado de sus implementaciones.

Si aún no das el paso de migrar a la nube, Docker va a facilitarte el proceso y puede, en conjunto con AWS o Google Cloud, aislar aplicaciones en contenedores para garantizar su seguridad. Además de que sus contenedores son portátiles y puedes ejecutarlos en cualquier plataforma sin problemas.

También puedes integrarlo con Jenkins y mejorar los tiempos de trabajo.

1.- APM

Esta herramienta se ha posicionado como una de las mejores en cuanto a estrategias de monitoreo se refiere. ¿Y por qué es importante monitorear tu infraestructura en todo momento? Fácil, es la única manera de garantizar el correcto funcionamiento de tu sitio y asegurar una excelente experiencia de uso a tus clientes.

Por ejemplo, la suite de monitoreo de rendimiento de aplicaciones (APM) de New Relic, acaba de recibir el distintivo Gartner Customer's Choice 2019, gracias a que permite a los usuarios mejorar sus procesos y prevenir posibles fallos en sus sitios.

Con esta herramienta, los equipos DevOps pueden obtener visibilidad total de las infraestructuras dinámicas, reducir el tiempo de monitoreo de sus aplicaciones y de los servicios externos. Además de generar alertas inteligentes y crear informes personalizados con datos específicos y métricas importantes para cada usuario.

¿Te gustaría probar alguna de estas herramientas en tu propio ecosistema?  Agenda un demo con nuestros expertos y descubre cómo pueden beneficiar a tu negocio.

Contáctanos

Por favor introduce tus datos y nos pondremos en contacto contigo.

New Relic y Menta Network llevaron a cabo el primer Workshop de 2019 en México

El taller tuvo por objetivo ofrecer a los responsables tecnológicos de empresas líderes una visión sobre las nuevas características de seguridad y monitoreo.

En días recientes se celebró el Workshop “Implementa una aplicación Node .js en Kubernetes y monitorea punta a punta”, con la finalidad de ofrecer a los responsables tecnológicos de empresas líderes una visión general de los nuevos avances en el monitoreo y en la seguridad de aplicaciones.

El evento tuvo como anfitriones a la firma New Relic y a su partner en México, Menta Network. El encuentro se celebró en la CDMX y contó con la presencia diversos Devs y Sysadmins de empresas como Gandhi, Grupo Gigante, Mercado Libre y Xcaret, entre otras.

“El día de hoy estamos colaborando con New Relic, el fabricante de las soluciones, impartiendo un taller de monitoreo de las aplicaciones en Kubernetes”, explicó Mauricio Herrera, Director de Menta Network. Uno de los objetivo centrales del encuentro era implementar una aplicación Node.js en Kubernetes para poder monitorearla de punta a punta.

Después de las palabras de bienvenida y la presentación de la plataforma de New Relic por parte de Mauricio Herrera y Fernando López, Sales Manager para Latinoamérica de New Relic, el Director de Tecnología de Menta Network, Ernesto Mendoza Blanco arrancó la sesión con una introducción sobre cómo crear la aplicación, así como a la cantidad de usos posibles de la misma.

¿Qué son y cómo funcionan Docker y Kubernetes?

Aparentemente tanto Docker como Kubernetes son tecnologías muy similares, ambas ayudan a correr aplicaciones para contenedores. Sin embargo, si se mira más de cerca, podrá verse que operan en niveles distintos e, incluso, se puede trabajar con ambas al mismo tiempo.

Para entender tanto a Docker como a Kubernetes es esencial construir y correr una infraestructura de nube moderna. Una vez ahí, se sabe exactamente cuando se corre un contenedor. Es predecible. Se repite y es inmutable. No hay errores inesperados cuando te diriges a una nueva máquina, o entre ambientes. Todos los códigos de las aplicaciones, bibliotecas y dependencias, están empacados juntos en un contenedor, como un artefacto inamovible. Se puede pensar en correr un contenedor como una máquina virtual sin la sobrecarga de girar un sistema operativo completo. Por este motivo, agrupar cualquier aplicación en un contenedor frente a una máquina virtual mejorará significativamente el tiempo de inicio.

¿Cómo interactúan Docker y Kubernetes con la plataforma de New Relic?

Ahora que ya sabemos cómo operan Docker y Kubernetes es necesario señalar la forma en la que esto se relaciona con New Relic. Si bien los contenedores se destacan por abstraer la mayor parte del trabajo que se asocia a la administración de las cargas de trabajo también hay algunas complejidades. En Kubernetes existe una capa adicional entre la aplicación y la infraestructura subyacente. Esto ocasiona que pueda resultar desalentador monitorear el desempeño y la salud de estos entornos. Sobre todo cuando se trata de solucionar los problemas que ocurren, especialmente en organizaciones a gran escala.

Necesidades y casos de uso

Alfonso Sánchez, SRE de Menta Network, cree que lo más rescatable del Workshop fue el haber escuchado las necesidades y los casos de uso de los ingenieros, pues les permitió resolver estas dudas y mostrarles cómo estas herramientas pueden apoyar su trabajo diario.

Además, Ernesto Mendoza, Director de Tecnología de Menta, consideró relevante la práctica de instrumentar New Relic en una infraestructura moderna, sobre todo por la múltiples ventajas que entornos como Docker y Kubernetes pueden aportar a los equipos de TI. También considera valiosos estas jornadas de trabajo para los asistentes pues éstos aprenden cómo con New Relic es posible evitar tener puntos ciegos en la operación de sistemas simples y complejos.

Por su parte, Andrés García, ingeniero de soluciones de Menta Network, habló sobre los registros de despliegues de código, los cuales son útiles para dar un seguimiento sobre los cambios que se presentan en las distintas versiones cuando son liberadas a producción. Con este registro es posible saber cuál era el desempeño de nuestras aplicaciones antes y después de la liberación y de esta forma podemos hacer una comparativa  para determinar si el impacto es positivo o negativo.

Al finalizar la jornada, los asistentes destacaron las ventajas de interactuar con los dueños de la tecnología y soluciones, para despejar las dudas en tiempo real las dudas que se presentan en su día a día.  

Si estás buscando una solución de monitoreo que se adapte a tus necesidades y te interesa lo que ocurrió en este Workshop. Acércate a los expertos.

Contáctanos

Por favor introduce tus datos y nos pondremos en contacto contigo.

Lo que necesitas saber sobre los ‘canary deployments’ o despliegues de canario

Los despliegues canario pueden ser de gran utilidad, ya que te permiten observar el impacto de tu despliegue con una incidencia baja de usuarios.

Es común llevar a cabo actualizaciones de código que, aunque hayan sido puestas a prueba, podrán tener un impacto no previsto en ambientes de producción. Por esta razón existe una gran incertidumbre para muchos programadores al momento de hacer un nuevo despliegue. Lo anterior porque, sin importar la estrategia que se utilice, no siempre se puede prever qué va a pasar en un ambiente productivo. Lo que sí es posible es minimizar el riesgo del despliegue ¿Cómo? Con canary deployments o despliegues canario.

Sin importar si tienes una aplicación web o móvil, los despliegues de canario funcionan en los dos casos. Otra ventaja es que pueden adaptarse a distintas infraestructuras, ya sea monolítica, en la nube o una infraestructura híbrida; incluso, se puede utilizar con contenedores como Docker y Kubernetes.

¿Cómo funcionan los canary deployments?

Cuando quieres lanzar código nuevo en tu aplicación, pero quieres reducir el riesgo de alguna falla, es cuando se utiliza un canario. De este modo, podrás asegurarte de estar enviando una prueba que podrás lanzar a todos tus usuarios una vez que estés seguro de que funciona correctamente. Sólo se trata de elegir al canario. Por comodidad muchos eligen al 5% de su tráfico. De esta forma, si algo llegar a fallar únicamente ese 5% se vería afectado. También es posible incluir otros canarios con diferente alcance de tráfico; así se incrementa la confianza en los nuevos cambios.

Luego de que te asegures de que los cambios funcionan correctamente se puede hacer el despliegue para el total de usuarios. En este caso ya no sería necesario el canario, ya que sólo sirvió para tener certeza de que todo marchaba correctamente.

Despliegues canario para distintas infraestructuras

Ahora bien, probablemente estés pensando que el siguiente paso es saber cómo hacer los despliegues canario para diferentes infraestructuras. ¡Estamos totalmente de acuerdo! A continuación, algunos ejemplos.

Balanceador de carga

En caso de que quieras hacer un despliegue canario con balanceador de carga, necesitarás dos de éstos. De este modo, el balanceador A recibirá el 95% del tráfico, mientras el B recibirá el 5% restante, por poner un ejemplo. Este último, el B, es el que servirá para llevar a cabo despliegues canario, lo que quiere decir que primero se actualizarán los servidores que están detrás. Es importante mencionar que no resulta relevante en este punto el número de servidores, ya que el tráfico se divide entre los balanceadores de carga y no entre los servidores.

Una vez que los servidores se hayan terminado de actualizar es conveniente supervisar y probar durante algún tiempo. En caso de que los resultados del balanceador de carga B no sean los esperados, es posible retroceder hasta alcanzar el resultado deseado para poder finalizar el lanzamiento. En cambio, si todo marcha bien, se pueden actualizar los servidores que están detrás del balanceador A.

Amazon Web Services

Para hacer despliegues canario con Amazon Web Services se puede emplear el servicio Route 53 que permite dividir el tráfico entre 95/5, justo como lo hicimos antes. También se pueden utilizar grupos auto escalables. La ventaja con estos es que solo necesita un balanceador de carga elástico (ELB) porque todos los grupos auto escalables (ASG’s) estarán apuntando al mismo ELB, lo que balancea la carga entre ASG’s. Entonces digamos que un ASG tiene nueve instancias (tres por cada zona de disponibilidad). Un segundo ASG únicamente tiene una instancia. Eso te da un total de diez instancias, por lo que si usamos el segundo ASG como canario, entonces tenemos 1/10 instancias para ese propósito.

Algunas buenas prácticas a las que deben acompañar los despliegues

Recuerda siempre monitorear

De nada sirve emplear una estrategia de despliegue canario si no contamos con las herramientas de monitoreo adecuadas para observar lo que sucede antes, durante y después de un despliegue. Por esa razón, lo ideal en todo proceso es seleccionar la estrategia de monitoreo adecuada , ya que esto es tan importante como planear y ejecutar una actualización.

Por ello una herramienta de monitoreo de rendimiento de la aplicación, como APM (Application Performance Management, por sus siglas en inglés), así como de Usuarios Reales (RUM) es un apoyo ideal para un equipo de tecnología al momento de monitorear métricas de rendimiento críticas y diagnosticar problemas rápidamente, lo que incluye los tiempos de respuesta del servidor después de las implementaciones. Esto se debe a que los cambios en la aplicación o en la arquitectura del sistema pueden afectar dramáticamente la experiencia de los usuarios.

De igual forma, mediante las alertas de inteligencia de datos se pueden establecer notificaciones tipo NRQL, lenguaje de consulta de dicha herramienta, con lo que se pueden establecer alertas con un criterio del tipo “select average(duration) from transaction” o promedio seleccionado de transacción. Para un caso como éste, la plataforma nos pediría rangos para establecer la alerta. En el ejemplo utilizado tenemos los tiempos promedios de respuesta, con lo que podremos configurar una alerta que nos notifique cuándo el tiempo de respuesta es mayor a ‘n’ cantidad de segundos.

En resumen, los despliegues canario son recomendados para mantener controladas las actualizaciones, ya que, al concentrarse en un pequeño porcentaje de tus visitantes, el impacto de un error sería mínimo, pues sólo afectaría al porcentaje de usuarios que se haya determinado previamente.

Si quieres implementar los despliegues canario sin olvidarte de la importancia del monitoreo, acércate a los expertos.

Contáctanos

Por favor introduce tus datos y nos pondremos en contacto contigo.

6 cosas que New Relic cree sobre el monitoreo moderno

A tus clientes no les interesa cómo construyes tu software, sólo les interesa que tu aplicación funcione correctamente.

Traducido de: 6 Things New Relic Believes About Modern Monitoring https://blog.newrelic.com/technology/monitoring-truths-apm/

 

En el proceso de modernizar tu software, adoptar tecnologías como servicios en la nube, contenedores, tejidos de servicio, etcétera, puede ser tentador enfocarse en monitorear esas partes nuevas en lugar de concentrarse en la experiencia de usuario que estás entregando. Pero a tus clientes no les interesa cómo construyes tu software. A ellos solo les interesa que funcione y lo haga bien.

Desafortunadamente, esta máxima tan simple puede perderse en los detalles del día a día (y, a veces, en el caos) del desarrollo y las operaciones de software modernas. Para ayudar a mantenernos enfocados en lo que realmente importa, hemos construido la plataforma de New Relic en torno a seis principios centrales que creemos que definen el rol de monitorear en una empresa moderna. Trabajamos cada día para asegurarnos de que nuestra plataforma, así como los productos y características que ofrecemos, se adhieran a estos principios, para que puedas continuar deleitando a tus clientes.

1. La aplicación es lo que les importa a tus clientes

Cuando evalúes tus prioridades para monitorear tu tecnología, recuerda que lo único que ven tus clientes y, por lo tanto lo único que les interesa es el rendimiento de la aplicación que están usando. Lo que sea que esté sucediendo de tu lado, la aplicación es donde la liga encuentra el camino.

Esta mentalidad centrada en el cliente está incorporada al ADN de New Relic. Por esa razón, hemos creado una solución APM de implementación que elimina el manual de instrumentación de tus aplicaciones y proporciona una instrumentación profunda e interconectada de la experiencia de tus clientes. La mentalidad centrada en el cliente es la razón por la que ofrecemos 8 idiomas y más de 200 marcos de programación que le brindan una velocidad altamente granular a sus aplicaciones. Por esa razón, más de tres millones de sitios web son monitoreados con New Relic Browser, por ejemplo, los cuales representan el 7% de los 1,000 sitios principales en internet.

Para facilitar esa transición de la arquitectura que tienes a la que te gustaría tener, creemos que necesitas un rastreo amplio y profundo para enfrentar entornos híbridos complejos. Creemos que sus equipos necesitan herramientas que les ayuden a encontrar rápidamente la aguja en el pajar (o en varios pajares) durante una interrupción, por esa razón ofrecemos análisis de datos de eventos altamente granulares a escala (tomando dos mil millones de puntos de datos y consultando más de un billón de puntos de datos cada minuto).

2. El verdadero Software-como-servicio no debe requerir ningún trabajo de tu parte

Los equipos modernos de software deberían pasar tiempo escribiendo código o manteniendo software crítico para el cliente, sin realizar tareas complicadas o repetitivas. El monitoreo debe empoderar a los equipos, no sobrecargarlos.

Solo una verdadera arquitectura de software como servicio (SaaS) puede hacer que eso suceda.

Igual de importante es que no puedes monitorear ambientes auto escalables en la nube a menos que tu plataforma de monitoreo pueda escalar al mismo tiempo. Las arquitecturas on-premise, de un solo cliente y las que están albergadas en un solo host sencillamente no pueden entregar esto mismo. Necesitas mantener a tu equipo enfocado en entregar valor a tus clientes, no en escalar una plataforma de monitoreo. Tienes peces más grandes que atrapar.

Los beneficios de una verdadera arquitectura SaaS multiusuario van más allá de no tener que comprar servidores para escalar tu monitoreo. Una verdadera solución SaaS, como New Relic, te ayuda a evitar la preocupación, la molestia y el gasto de mantener, actualizar, y administrar la infraestructura dedicada que se necesita para monitorear tus aplicaciones. En lugar de forzarte a instalar parches y actualizaciones como algunas soluciones alojadas en un solo host, automáticamente implementamos soluciones para nuestros usuarios.

Lanzamos más de 170 nuevas características en el último trimestre, para todos nuestros usuarios. No habríamos podido hacerlo de no ser por nuestro verdadero modelo de entrega SaaS. Y como somos multi-tenant, podemos ayudarte a capturar y analizar los datos que sean más críticos y que produzcan funciones de inteligencia real.

3. Una plataforma de monitoreo moderna debería enfocarse también en software moderno.

Un número de nuestros clientes cada vez mayor participa activamente en un cambio tectónico de arquitecturas de aplicaciones monolíticas heredadas hacia la exploración y adopción de tecnologías y prácticas modernas: infraestructura en la nube, DevOps, CI/CD, contenedores, sin servidores y más.

No es casualidad que los clientes de New Relic están a la vanguardia del juego cuando se trata de adoptar métodos de desarrollo de software de vanguardia. Por ejemplo, un cliente típico de New Relic ha migrado el 43% de su aplicación a la nube, comparado con el 10% promedio de sus pares dentro de la industria. Cuando se trata de no usar servidores y de contenedores una cuarta parte de los clientes de New Relic utiliza AWS Lambda, y dos tercios usa Docker. Y cerca de la mitad de nuestros clientes más grandes entregan 10 veces más cada mes.

Claramente, una plataforma moderna de monitoreo de aplicaciones tiene que alentar y complementar estas tendencias. Por esa razón la plataforma ofrece visibilidad centrada en más de 50 servicios en la nube, incluyendo Kubernetes, Docker, y los productos sin servidores de Amazon Web Services como AWS Lambda.

Por supuesto que aún ofrecemos muchísimo soporte para marcos y tecnologías de “legado“ y admitimos tomar datos de una amplia variedad de otras fuentes para ayudarte a superar la transición a las arquitecturas modernas. Pero la mayor parte de nuestro enfoque se encuentra en las tecnologías modernas, porque ahí es donde creemos que nuestros clientes quieren ir.

4. Tus equipos necesitan inteligencia y analítica para encontrar y arreglar cualquier problema rápido.

En los complejos entornos tecnológicos de hoy en día, una interrupción o un problema de rendimiento es como mirar una aguja en múltiples pajares, todo mientras el reloj no deja de marcar el potencial, posiblemente significativo de las pérdidas de ingresos. Una plataforma moderna APM podría ayudar a minimizar estas amenazas para tus ingresos y la experiencia de los usuarios. Necesitas inteligencia oportuna y específica que pueda ayudarte a determinar de dónde proviene el error, y luego ayudarte a asimilar la falla y arreglarla tan pronto como sea posible

Hacia el final, la plataforma de New Relic, incluyendo New Relic Insights y New Relic Query Language (NRQL), ofrece lo que creemos que es la base de alertas más flexible, poderosa y rigurosa de la industria: define cualquier KPI, y obtén inteligencia inmediata de lo que es normal, y lo que no, en tu aplicación.

Muchas capacidades vanguardistas de New Relic admiten este esfuerzo. El análisis de causa-raíz en las alertas muestra a tus desarrolladores e ingenieros de operaciones exactamente dónde está el problema, incluso si se encuentra en otro sistema. Mientras tanto, outlier detection ilustra dónde se desvía de lo normal el rendimiento y proporciona información sobre qué corregir. Y los perfiles de error inteligente le otorgan visibilidad visibilidad a los errores de tu aplicación para que puedas identificar fácilmente qué los está causando. Finalmente, obtén tiempo real, personaliza las recomendaciones de tu infraestructura valores atípicos, problemas de rendimiento y mucho más a través de tarjetas de radar.

5. Tu plataforma de monitoreo debe ser abierta y extensible.

Para poder trabajar tan rápida y confiablemente como sea posible, los equipos DevOps necesitan tener datos dentro y fuera de su plataforma APM, e integrarlos con los procesos y flujos de trabajo de tu equipo, previamente existentes. Durante la última década, y en tanto hemos expandido el portafolio de productos de New Relic, nuestra plataforma se ha hecho más extensible. Ese movimiento culminó en el FutureStack18: San Francisco con el anuncio del Programa para el Desarrollador de New Relic: un viaje hacia la apertura, la simplificación y el compromiso.

Nuestro objetivo es ofrecer un conjunto completo de APIs que cubra los datos que llegan y los que salen de nuestra plataforma, de formas que puedan respaldar los flujos de trabajo existentes. Esto es, deberías ser capaz de implementar un nuevo panel de control y una plantilla de alerta como parte del código fuente de una aplicación, no como un complemento de posventa.

Adicionalmente, tenemos clientes que construyen sus runbooks alrededor de New Relic. En una verdadera cultura DevOps, monitorear debería estar codificado de la misma forma que cualquier otro proceso, especialmente por los equipos modernos de software que necesitan moverse rápido.

¿Necesitas todavía más extensibilidad? New Relic ofrece SDKs que te permiten construir tus propias integraciones e integrarlas con marcos o servicios especializados. Todo forma parte de lo que consideramos la mejor plataforma de desarrollo en nuestra industria, y te permite compartir las mejores prácticas en la cima de la plataforma de New Relic con una comunidad de más de 110,000 usuarios.

6. Tus equipos necesitan una plataforma de monitoreo que es fácil de adoptar e implementar, reforzada con soporte de clase mundial.

Incluso la plataforma de monitoreo más poderosa no es suficientemente buena si no se utiliza. Por esa razón tomamos ventaja de nuestra arquitectura SaaS nativa para hacer que New Relic sea fácil de aprender, rápida de instalar, e intuitiva para usarse. Operamos a una escala tremenda, y algunas de las compañías más grandes y mejor reguladas confían en nosotros para mantener una plataforma APM confiable y de alta disponibilidad con espacio para acomodar sus días más ocupados.

Ofrecemos apoyo y escala oficial a nivel empresarial. Nuestra facilidad de adopción  y de uso se demuestra a través de nuestro compromiso continuo de darle a nuestros clientes mayor valor más rápido: implementa el agente y comienza a tener visibilidad en minutos.

Nuestro equipo de producto tiene mucha experiencia en el manejo de esto, y compartimos nuestros conocimientos en nuestras FutureTalks y en una gran variedad de presentaciones y eventos de la industria, conocimiento técnico online, incluyendo el blog de New Relic, y muchos otros canales. Igual de importante es que apoyamos a los foros y las comunidades públicas, incluyendo nuestro nuevo programa para Desarrolladores para alentar a las legiones de clientes de New Relic a compartir sus mejores prácticas con otros.

Todo esto lo respaldamos con un creciente número de soluciones globales para clientes y grupos de éxito que cuenta con siglos de experiencia acumulada en monitoreo  y un enfoque de implementación centrado en soluciones. Para asegurarte de que puedes obtener soporte cuando lo necesitas, ofrecemos este servicio 24/7/365, administradores de éxito de clientes dedicados y SLA de 1 a 3 horas para responder los tickets y problemas de soporte.

La línea de fondo

Si estás persiguiendo una estrategia de monitoreo y escogiendo una plataforma de monitoreo, necesitas preguntarte: “¿Estamos abordando estos seis principios básicos?” Si no, tus equipos podrían sufrir; tus clientes podrían sufrir; y al final, tu negocio podría sufrir.

Recuerda, a tus clientes no les interesan las novedades que se hayan integrado a tu ambiente tecnológico. No les interesa qué tan seguido implementas software nuevo, o incluso qué tan bien manejan tus equipos los incidentes y las interrupciones. Ellos solo quieren que tus productos y servicios online entreguen una gran experiencia y que sea consistente. Si no lo haces, seguramente tus competidores lo harán.

Si quieres diseñar una nueva estrategia de monitoreo basada en estos principios, pero aún no sabes cómo. Acércate. Nosotros te apoyamos.

Contáctanos

Por favor introduce tus datos y nos pondremos en contacto contigo.

Elixir y Java, los lenguajes favoritos de las programadoras

En México, cada vez más mujeres destacan en el ámbito de la programación, la organización Woman Who Code es un ejemplo de ello.

Esto quedó demostrado en el Meetup de “Women Who Code“ (@WWCodeCDMX), celebrado el pasado 23 de enero en las oficinas de WeWork en la CDMX. El objetivo de esta reunión, denominada “Backend: Un mundo de posibilidades“, ofreció un panorama acerca de algunos de los lenguajes de programación que más se están utilizando en este momento.

From Zero to Hero with Elixir

Loyda Pineda (@loydiux) quien, como muchos asistentes, tiene predilección por Java como lenguaje de programación, compartió que de acuerdo a su experiencia profesional, considera que Elixir tiene un papel muy relevante en la actualidad. Pero, ¿cuál es la razón?

Antes de entrar de lleno en el tema, Loyda habló acerca de Erlang, un lenguaje que se utiliza para construir sistemas escalables. Nació en 1986 y fue creado en Ericsson por Joe Armstrong. Erlang se utiliza principalmente en telecomunicaciones, bancos y telefonía. Sin embargo, en comparación con Elixir, no es tan sencillo de aprender.

José Valim creo Elixir en 2011. Entre sus principales ventajas se encuentra su modelo de concurrencia, concurrency oriented (actor-model), tolerancia a fallas, capacidad de monitoreo, funciones recursivas, bibliotecas fáciles de descargar, así como buenos tutoriales en caso de que seas nuevo y quieras empezar. Además, se puede integrar fácilmente con otros lenguajes y al ser más sencillo de aprender se puede utilizar menos código y por lo tanto menos memoria.

Cualquier interesado en aprender Elixir, podría consultar Elixir in Action y The Little Elixir, libros que Loyda recomendó para acercarse a este lenguaje.

Mexico City JVM

La comunidad de Java en la Ciudad de México también se hizo presente en este Meetup. Estuvo representada por Eduardo Zarate, quien comentó que actualmente se cree que Java es un lenguaje que va de salida; sin embargo, muchas empresas grandes que son relativamente nuevas lo siguen utilizando. Por ejemplo: Tumblr, Uber, Airbnb, Paypal y Linkedin. Por lo tanto, este lenguaje aún puede abrir muy buenas oportunidades laborales,Los miembros de la comunidad Java organizan Meetups y talleres el último lunes de cada mes (síguelos en cuenta de Twitter @jvm_mx para enterarte de todos sus eventos).

El meetup culminó con dos charlas muy inspiradoras, la primera a cargo de Maricela Sánchez Miranda, quien compartió sus experiencias personales como programadora de Python. Y motivó a la audiencia, mayoritariamente mujeres interesadas en lenguajes y temas tecnológicos, a aprender cosas nuevas sin miedo.

Luego, Daniela Rocchi, modelo internacional, presentó su proyecto “Beauty in Red“, que tiene por objetivo romper los estereotipos de la belleza femenina incentivar a las mujeres a mostrarse tal cual son, además de dar voz a las historias que las hacen únicas.

Algunos consejos para asegurar el éxito de tu equipo DevOps

Tanto la gente como su cultura son una pieza clave para alcanzar los mejores resultados con DevOps.

Alcanzar el éxito deseado mediante una nueva y prometedora metodología de trabajo no es tarea sencilla. Cuando los equipos de TI han trabajado bajo una misma dinámica por un largo tiempo es difícil adoptar una nueva forma de proceder, sin importar que pueda ser de gran ayuda, como es el caso de DevOps. Incluso, es posible que algunos equipos de tecnología aún se pregunten si realmente vale la pena migrar su estrategia tradicional a DevOps. “¿Por qué sería necesario probar algo diferente?”, quizá se cuestionen.

En este sentido, en 2018 se crearon dos informes que tienen por finalidad identificar los rasgos que hacen exitoso a un equipo DevOps y separarlos de aquellas cuestiones que pueden detener una buena transformación tecnológica. El primero es State of DevOps Report de Puppet y Splunk, el otro es DevOps Research and Assesment (DORA).

¿Qué califican estos estudios para determinar si una acción es benéfica?

En primera instancia y hablando de números, el estudio DORA determinó que cada vez se hace más grande la brecha que existe entre las compañías que tienen un equipo DevOps funcional y las que no. En comparación con quienes tienen un rendimiento más bajo, podemos decir que las empresas denominadas como élite cuentan con:

46 veces más despliegues de código.

Probablemente estés pensando “esta brecha si que es grande“ y, en efecto lo es, por ese motivo estos estudios pretenden que las compañías tomen conciencia de que sus iniciativas DevOps pueden marcar una gran diferencia de la forma en la que hacen despliegues que van desde 1 a 6 meses de entrega, sin mencionar el tiempo que toma detectar alguna anomalía que puede ser hasta de 6 meses.

Antes de pasar a la sección en donde explicamos algunas buenas prácticas para los equipos DevOps, es necesario señalar que más que la tecnología es importante considerar a las personas que están trabajando en esta área. Ya que tanto la gente como su cultura son piezas clave para alcanzar los mejores resultados con DevOps.

1. Ser capaz de autogestionar su estrategia de monitoreo

Un rasgo importante cuando se trata de un equipo DevOps debe ser mantenerse al tanto de cómo configurar su propia estrategia, tanto para monitorear así como para administrar sus alertas y los servicios que manejan.

Lo anterior se debe a que los equipos capacitados que ejecutan aplicaciones y servicios en producción pueden responder a la interrogante de cómo es un buen servicio. Además, podrán determinar cuando no esté funcionando correctamente y definir de qué forma sabrán cuando algo esté fallando. Entender sobre estrategias de monitoreo no corresponde únicamente a los anteriores equipos Ops o a los actuales DevOps, sino que debe ser una tarea de todos los equipos que trabajen en TI.

A las ventajas ya mencionadas se suma el hecho de que es indispensable para los equipos DevOps contar con una mayor responsabilidad respecto a cómo opera su aplicación, ya que de esta forma podrán obtener retroalimentación ininterrumpida que facilite la rendición de cuentas. Por otra parte, en un paso previo, es posible definir KPI’s conjuntas para poder tener equipos basados en datos.

Los beneficios de este enfoque son cuantificables, de modo que podemos decir, de acuerdo al estudio de Puppet, que el 47% de las compañías que tienen equipos de élite DevOps son capaces de definir su propia estrategia de monitoreo para sus aplicaciones y servicios en producción, en comparación con el 2% de las compañías que no cuentan con estos equipos.

2. Monitoreo y observabilidad son claves para las entregas constantes

Monitorear es una parte fundamental en los modelos de entrega continua que forma parte de las métricas clave de los equipos DevOps. Algunos estudios de DORA señalan que las aplicaciones que se monitorean de forma proactiva, así como las infraestructuras, utilizan toda esta información para tomar decisiones de negocio, las cuales se relacionan con el rendimiento de la entrega de software.

En cuanto a las iniciativas para la entrega continua dentro de una organización, podemos decir que una solución integral de monitoreo y observación contribuye positivamente. Por otra parte, el estudio también concluyó que la automatización de pruebas o pruebas continuas contribuyeron al éxito en los modelos de entrega continua dentro de muchas organizaciones.

3. Contar con una infraestructura de nube correcta impulsará el éxito de DevOps

En tiempos donde la arquitectura de microservicios y los contenedores son cada vez más populares, resulta primordial contar con una infraestructura de nube adecuada. De esta forma, las organizaciones que prestaron atención a las cinco características primordiales de la nube (autoservicio a pedido, acceso amplio a la red, agrupación de recursos, elasticidad rápida y servicio medido) tenían 23 veces más posibilidades de estar en el grupo élite.

Probablemente ahora estés pensando “Bingo, mi empresa cuenta con infraestructura en la nube“. Sin embargo, cabe mencionar que no es suficiente con estar en la nube, hace falta adoptar las prácticas correctas que nos permitirán ingresar a las compañías élite y, todavía más importante, que garantizarán mejores procesos con nuestros equipos de TI.

Como hemos podido ver, hacer una transición con los equipos de TI no resulta tarea sencilla, ya que se trata de modificar muchos procesos y de cambiar toda una cultura al mismo tiempo. Sin embargo, siempre es bueno comenzar por dar un primer paso y hacer un listado de qué necesito y cómo voy a llegar al equipo DevOps de ensueño, para lo cual algunos de estos consejos pueden ser de mucha ayuda.

Si quieres implementar un equipo DevOps en tu compañía, pero no estás seguro de cuál es la mejor forma para hacerlo, platica con los expertos.

Contáctanos

Por favor introduce tus datos y nos pondremos en contacto contigo.

Comenzando con infraestructura de New Relic: mejores prácticas que te llevarán al éxito

Infraestructura de New Relic ofrece una gama de soluciones poderosa a los desafíos visibles de tu organización.

Traducido de: Getting Started with New Relic Infrastructure: Best Practices That Set You up for Success por el equipo de comunidad de New Relic https://blog.newrelic.com/product-news/new-relic-infrastructure-getting-started-best-practices/

Este post es adaptado de una serie de de guías de mejores prácticas que refleja el trabajo del equipo de comunidad de New Relic con cientos de clientes, identificando desafíos y acercándose a soluciones accionables para organizaciones que están comenzando a utilizar Infraestructura de New Relic. Revisa nuestra guía para comenzar con APM de New Relic y descubre la última guía de buenas prácticas ofrecidas del equipo de la comunidad de New Relic.

Mejorar el desempeño de una aplicación involucra más que únicamente el software de la compañía. También demanda visibilidad en la infraestructura de la aplicación: los servidores, hosts, los recursos de almacenamiento y red de soporte, que potencian sus aplicaciones y las vuelven disponibles a los usuarios.

Infraestructura de New Relic ofrece una gama de soluciones poderosa a los desafíos visibles de la infraestructura de tu organización. Infraestructura te permite ver el uso de recursos del host, localmente o en la nube, y también te permite monitorear eventos en tus hosts, métricas de inventario y disponibilidad de red o almacenamiento. La infraestructura facilita el seguimiento de todos estos recursos y  la correlación de los cambios con posibles impactos en el host y el rendimiento de la aplicación.

En esta entrada, te mostraremos cómo configurar la infraestructura de New Relic para aprovechar al máximo esta visibilidad adicional en su entorno. (Después de revisar estas buenas prácticas y cuando sea posible, realmente trabajar con ellas dentro de su organización. Estarás listo para demostrar tus nuevas habilidades llevando a cabo nuestro examen de mejores prácticas de infraestructura)

Sumerjámonos en la lista de buenas prácticas, organizadas en función de las capacidades de infraestructura y las tareas que abordan.

Organizarse y empezar

Crear una convención de nomenclatura. Comencemos con dos de los consejos más importantes para los usuarios de infraestructura de New Relic: decide un esquema para nombrar y utilízalo consistentemente.

Primero, un esquema para nombrar de manera sencilla todos los elementos en tu cuenta puede reducir significativamente el tiempo que pasas buscando información pertinente. Cuando diseñas un esquema de nombres y lo aplicas consistentemente dentro de una cuenta específica de New Relic. Por ejemplo,—el nombre del host puede proporcionar la información que necesitas para encontrar el problema e identificar a la persona correcta para repararlo.

Si quieres saber más acerca de tener un esquema de nombres al de tu entorno de infraestructura puedes encontrar información en nuestro documento: Actualización de nombres en su archivo de configuración de infraestructura.

Implementar una estructura de etiquetado

Las etiquetas son esenciales para organizar los hosts dentro de su entorno. Permiten detectar problemas más fácilmente al ordenar y filtrar los grupos de hosts; por ejemplo, puedes añadir el mismo atributo a un número de hosts para identificarlos después, usando la infraestructura UI o las consultas de NRQL.

Si tus hosts están en Amazon Web Services (AWS), entonces la integración de la infraestructura de Amazon EC2 con New Relic hace el proceso de implementación de etiquetado simple. Cualquier etiqueta de EC2 que agregues a tu host dentro de AWS se transferirá a New Relic, permitiendo que agrupes tus hosts sin configuración extra.

Si no estás usando AWS EC2, infraestructura de New Relic soporta más de 50 integraciones adicionales en otras nubes y hosts, además ofrece atributos personalizados que se pueden utilizar dependiendo de las necesidades de tu organización.

Obtén más información acerca de la implementación de etiquetado utilizando la integración de AWS EC2 o atributos personalizados en nuestra documentación:

Integración de monitoreo de AWS EC2

Configuración de agente de infraestructura: atributos personalizados

Crea un conjunto de filtros

Los conjuntos de filtros te permiten dirigir a cualquier número de hosts basados en una variedad de atributos, incluyendo etiquetas, nombres de hosts, etc. Luego, puedes establecer conjuntos de filtros con condiciones de alerta, lo que te permite ahorrar el tiempo que normalmente se necesita para aplicar una condición a múltiples hosts de forma manual. También puedes modificar los gráficos en la interfaz de usuario de infraestructura para centrarte en un conjunto de filtros específico, lo que te permite concentrarte en los hosts que más te interesan.

Obtén más información sobre el uso de conjuntos de filtros de infraestructura en nuestros documentos: Conjuntos de filtros: Organiza tus hosts.

Entendiendo tu interfaz de usuario

Aplica un filtro

Por default, la interfaz de usuario de infraestructura de New Relic te muestra datos de todos los hosts de informes. Dependiendo del número de hosts que estás monitoreando, aplicar un conjunto de filtros en tu interfaz de usuario puede volver tus datos de monitoreo más fáciles de evaluar e interpretar.

Puedes crear un conjunto de filtros que se apliquen a los nombres de los hosts, etiquetas EC2, o cualquier otro atributo que sea importante para ti. Cuando los aplicas, la interfaz de usuario se enfocará únicamente en los nombres de los hosts que coincidan. Cuando aplicas un conjunto de filtros se transmite a todas las partes de interfaz de usuario de la infraestructura, manteniéndolo informado únicamente sobre los hosts que necesita conocer.

Obtén más información acerca de los conjuntos de filtros de infraestructura en universidad New Relic: Usa tus conjuntos de filtros y grupos en infraestructura de New Relic.

Haciendo los datos procesables

Usando consultas de New Relic Insights.

Insights de New Relic te otorga una manera poderosa para hacer preguntas sobre tus datos, y esto es especialmente cierto para los usuarios de infraestructura de New Relic. Trabajamos duro, por ejemplo, para asegurarnos de que los datos de la infraestructura sean rastreados como datos basados en eventos que puedes consultar rápida y fácilmente, y que cualquier gráfico creado dentro de infraestructura también esté disponible dentro de Insights en un solo clic.

Adicionalmente, cuando configuras las integraciones de infraestructura, el proceso de configuración crea automáticamente una serie de paneles de Insights, ayudando a mantener dichas integraciones más valiosas, más rápidamente, para ti.

Obtén más información sobre los datos compartidos y las vistas dentro de Infraestructura de New Relic e Insights en nuestra documentación: Comparte datos de infraestructura y vistas en Insights.

Actualiza las alertas de New Relic

Las alertas son un factor crítico para el proceso de monitoreo: ¿Cuál es el objetivo de monitorear si no sabes cuándo tus aplicaciones o tu infraestructura están teniendo problemas?. Las alertas de New Relic te permiten configurar las notificaciones utilizando una variedad de plataformas de comunicación y mensajería (Slack, OpsGenie, PagerDuty, etc) así como un webhook genérico al que puedes enviar notificaciones.

Cuando empiezas con las alertas de infraestructura, una de las primeras condiciones que recomendamos es una condición de “Host sin reportar“.

Obtén más información sobre las mejores prácticas de alertas, incluyendo consejos sobre cómo configurar una condición de “Host sin reportar“ con los siguientes recursos:

Guía para una alerta efectiva en la práctica

Introducción a las alertas de APM

Crea una condición de infraestructura de “Host sin reportar“

Monitorea tus apps, y sus hosts, en un solo lugar

Los mapas de estado brindan una vista de alto nivel de la salud del host y la aplicación en relación con los demás, priorizados por el estado de salud. En cuanto tengas suscripción tanto  a APM como a infraestructura, puedes usar los mapas de estado para obtener una visibilidad de los problemas potenciales, haciéndolos más fácil de encontrar, diagnosticar y arreglar más fácilmente.

Aprende más acerca de los mapas de salud de New Relic en el video demo, o en los documentos de New Relic: Introducción a los mapas de salud.

https://www.youtube.com/watch?v=8HEyNCJMurA

¿Listo para aprender más?
¿Estás buscando las mejores prácticas y consejos para infraestructura? Revisa la página subir de infraestructura en el centro de New Relic Explorers para obtener una gran cantidad de recursos generados por la comunidad sobre estos y otros temas relacionados. Cuando sienta que está listo, pruebe sus nuevas habilidades de infraestructura tomando nuestro quiz de mejores prácticas de infraestructura y obteniendo su credencial de competencia.

Si estás interesado en obtener estos recursos para mejorar la infraestructura de tu aplicación, acércate a los expertos.

Contáctanos

Por favor introduce tus datos y nos pondremos en contacto contigo.

¿Sabes si la información de tu empresa que manejan terceros está comprometida?

Existe el riesgo de que los datos e información de la empresa, al ser compartidos con servicios externos, se encuentren vulnerables. Conoce de qué forma puedes monitorear esa información.

Cuando se pretende combatir el riesgo cibernético dentro de cualquier compañía, lo primero es proteger los sistemas propios de la empresa, así como su presencia web. Sin embargo, muchas veces se olvidan los servicios de terceros, quienes también tienen acceso a datos importantes. Por esta razón es importante generar una estrategia de monitoreo que eleve la seguridad con dichos proveedores, ya que no se encuentran bajo el control de la empresa. Estamos hablando de servicios de hosting, proveedores PaaS e IaaS, de DNS, de CDN, servicios de e-Commerce, entre muchos otros.

Por lo anterior, existe el riesgo de que los datos e información de la empresa, al ser compartidos o almacenados por terceros, estén en riesgo, sin importar la inversión que se haya realizado en seguridad interna.

Es por ello que a continuación revisaremos las formas más comunes en que la información de las empresas puede ser vulnerada a través de servicios de terceros y cómo enfrentar este riesgo. De esta forma podrás asegurarte de contar con un plan integral de ciberseguridad que contemple todos los flancos.

1. El riesgo comienza en el lugar menos visible

En caso de que un atacante esté planeando robar datos de una organización, puede hacerlo sin generar sospechas haciéndose pasar por un acceso legítimo. Por ejemplo, puede recurrir a un proveedor pequeño, como un tercero, con protocolos de seguridad menos estrictos. Desde ahí, luego, podría acceder a la información de la organización.

2. El riesgo se extiende más allá de los proveedores principales

Es importante tener en cuenta que el riesgo no se agota únicamente con los servicios de terceros, ya que estas empresas también pueden contar con sus propios servicios de terceros conocidos como “terceros de segundo nivel“. Es necesario conocer y monitorear la manera en la que los proveedores administran sus propios servicios de terceros. Por otra parte, es importante considerar a los proveedores que tienen sedes en el extranjero, ya que tienen una cultura y prácticas empresariales distintas.

3. Cada empresa es responsable de su propia seguridad

Con los cambios en las metodologías y formas de manejar los servicios actualmente, las organizaciones pueden tener dudas respecto a cuál es el alcance completo del riesgo cibernético; lo que, por supuesto, se relaciona directamente con los terceros. Aún en el caso de que un riesgo se deba a la poca seguridad de un tercero, esta organización no será la principal responsable ante algún incidente que pueda presentarse. La razón es porque difícilmente la empresa principal podrá demostrar que tomó las previsiones necesarias para administrar el riesgo de terceros. Por otra parte, si dicha empresa no logró verificar la seguridad de un proveedor mediante, por ejemplo, una evaluación de riesgo cibernético, lo más probable es que no haya tomado ninguna precaución.

4. El riesgo se debe mitigar a lo largo del ciclo de vida de los datos

Los datos almacenado en los proveedores de servicios que una organización deja de utilizar al terminar la relación contractual, pese a no tener relación alguna con la empresa, pueden continuar siendo un riesgo potencial. Por esta razón, si se trata de soluciones en la nube de terceros, por ejemplo, no sólo se debe entender cómo se almacenan los datos, sino también cómo se van a manejar cuando termine la relación entre ambas partes.

5. La ciberseguridad tradicional puede quedarse corta

El Instituto de Ingeniería de Software señala que, en ocasiones, la práctica tradicional de seguridad de la información trata a la información de riesgos de terceros sólo como un complemento a las actividades se seguridad alternas. Muchas veces, los departamentos encargados de mantener la seguridad administran de manera independiente, tanto el riesgo interno como el de terceros, y sólo reaccionan a lo que pueda surgir en el camino. Esto da como resultado una solución que puede ser útil a corto plazo, pero no da una perspectiva completa del riesgo cibernético y puede dejar abiertas vulnerabilidades aún desconocidas.

Como hemos podido ver hasta aquí, un enfoque que contemple la seguridad de las empresa debería tener en cuenta tanto el comportamiento de terceros como sus relaciones tecnológicas dentro del entorno digital. Para que esto pueda ser una realidad, se necesita que las organizaciones evalúen a sus proveedores mediante el uso de monitoreo de riesgo cibernético. Es cierto que alcanzar ese nivel de confianza es un gran reto, pero con algunas innovaciones como la resiliencia tecnológica es posible gestionar estos riesgos.

Si quieres asegurar la información y datos de tu empresa compartidos con servicios de terceros, platica con nuestros expertos y conoce la mejor forma para lograrlo.

Contáctanos

Por favor introduce tus datos y nos pondremos en contacto contigo.

¿Cuáles son las ventajas de implementar “Distributed Tracing“?

Aprende qué es “Distributed Tracing“ y cómo ayuda a visualizar, capturar y analizar a través de arquitecturas complejas.

“Distributed Tracing“ es una nueva función de inteligencia que fue dada a conocer en septiembre pasado en el Future Stack de New Relic, en San Francisco. Está diseñada para ayudar a los equipos que trabajan con ambientes modernos a visualizar, capturar y analizar a través de arquitecturas complejas, donde están incluidas tanto las monolíticas como microservicios.

Cualquier usuario de APM puede habilitar esta nueva característica, solo se necesita actualizar los agentes y habilitar el seguimientos distribuido en sus configuraciones. Es importante mencionar que el soporte es para Java, .NET, Node.js, Python, Golang, Ruby y próximamente PHP. Aquí es posible reunir los datos de rastreo que se recopilan en entornos políglotas en un gráfico de dispersión detallado y visualizaciones en cascada.

¿Por qué es importante contar con “Distributed Tracing“?

Cuando se trata de una aplicación web, llamémosla RZXV, que vende entradas para eventos muy concurridos, como conciertos, puestas en escena y eventos deportivos, es necesario que se encuentre en estado óptimo. Actualmente existen muchas opciones de compra y en caso de que los usuarios encuentren alguna falla, rápidamente podrían acudir a cualquier otro de los servicios disponibles, lo que resultaría en una pérdida para la compañía en cuestión.

En un software tan complejo como el de RZXV es común que las peticiones atraviesen un largo camino de elementos de servicio. Si existe algún problema con uno de estos elementos en el trayecto esto puede afectar significativamente el tiempo total de respuesta para dicha solicitud. Lo que estaría provocando pasar de una buena experiencia de usuario a una negativa.L

os equipos de software que trabajan en ambientes donde hay muchos servicios involucrados para dar respuesta a una petición, necesitan entender de forma clara el desempeño de cada servicio, tanto en sentido ascendente como descendente. De esta forma podrán resolver con mayor facilidad los problemas que se presenten. Lo importante es que se pueda medir la salud general del sistema y se prioricen áreas de alto valor para mejorar.

¿Por qué el software moderno es complejo?

Para entender la importancia del “Distributed Tracing“ debemos voltear a ver cómo han ido cambiando los ambientes de software en años recientes. Las compañías modernas de software trabajan ahora con arquitecturas de microservicios, contenedores y plataformas en la nube pública lo que les permite construir, escalar y operar las aplicaciones críticas de sus negocios.

Recordemos que los ambientes de software tradicionales incluían únicamente algunos servicios de gran tamaño, lo que facilitaba la identificación del problema en cuanto éste ocurría. Así, los desarrolladores de estructuras monolíticas podían ir directamente al servicio que fallaba para detectar cuellos de botella o errores críticos.

En cambio, las aplicaciones actuales se componen de diversos servicios que se encuentran en infraestructuras efímeras. Algunos de éstos pueden ser grandes monolitos construidos con tecnologías de legado, mientras que otros son clusters con microservicios dinámicos más pequeños. En cualquiera de los casos, además de las ventajas que traen los servicios a la compañía, los cuales hemos mencionado más arriba, también nos pueden traer algunas desventajas. En primera, la diversidad de lenguaje puede ser amplia, además, el ambiente operativo y la propiedad de los sistemas ocasiona que haya una gran cantidad de tareas por completar para los equipos que intentan gestionar estos servicios.

Ahora bien, el impacto del cambio de arquitectura monolítica a microservicios es muy importante, no solo porque modifica la forma de construir o hacer despliegues, sino por el reto de monitorear dichas arquitecturas. Para asegurarse de que todo está funcionando correctamente hace falta que los equipos DevOps estén bien enterados de cómo pueden optimizar su código en todos los elementos de servicio que comprenden un ecosistema. Ya que, en caso de que exista un problema esta será la vía más rápida para determinar cómo, cuándo y por qué ocurre.  Si sucediera que una serie de hechos desafortunados se alinearan, entonces el sistema colapsaría sin que se tuvieran las herramientas adecuadas para solucionar este inconveniente mayor.

¿En qué consiste el “Distributed Tracing“?

Las partes que componen al “Distributed Tracing“ son principalmente cuatro: es una forma de instrumentar, propagar contexto, registrar y visualizar solicitudes a través de sistemas complejos y distribuidos.

Instrumenta

La configuración de “Distributed Tracing“ se auto instrumenta con el código de la aplicación utilizando distintos agentes que funcionan con muchos lenguajes en distintas bibliotecas y marcos. Se equipa cada servicio involucrado en la solicitud ya sea con monolitos o con microservicios. Además se crean temporizaciones para cada servicio y se envía cada operación medida como un intervalo a la plataforma de origen (APM).

También se añade información importante respecto a la solución de cada tramo. Por ejemplo, cuando la instrumentación crea un intervalo que representa una operación de consulta de base de datos incluye la conexión a base de datos y la consulta SQL como atributos en el intervalo.

Propaga contexto

La plataforma tiene la capacidad de instruir automáticamente sus servicios para crear un ID único para cada una de las solicitudes entrantes. Además, propaga el ID de rastreo, así como la información necesaria de correlación, como el “contexto de rastreo“ en toda la llamada. Por ejemplo cuando un servicio hace una llamada a otro servicio, la plataforma de APM agrega contexto de rastreo al encabezado de solicitud HTTP para que el próximo servicio lo utilice. La auto instrumentación permite eliminar el trabajo de administrar y propagar el contexto, pero, si se requiere instrumentación manual, el agente de la plataforma permite extraer e inyectar contexto de seguimiento.

Registrar

Los agentes de la plataforma de APM envían datos de rastreo al servicio de SaaS, de donde se toman y almacenan los datos que se utilizan en inteligencia de datos. En esta parte es donde se realiza el trabajo más difícil. Ya que toma y almacena grandes cantidades de métricas, eventos y otros tipos de telemetría en una plataforma escalable. De esta forma, las empresas solo tienen que preocuparse por desarrollar su negocio y no por administrar su plataforma de monitoreo.

Visualizar rastros

Finalmente, todo lo anterior se combina en la experiencia de usuario de APM, donde a través de visualizaciones de seguimiento se podrá comprender ¿por qué una solicitud específica es lenta?, ¿dónde se originó un error?, ¿dónde se puede optimizar el código para mejorar la experiencia del cliente? Esto cuenta, además, con una capacidad avanzada de filtrado de seguimiento tanto de APM como de otras herramientas como inteligencia de datos o monitoreo de usuarios reales (RUM).

Ayudar a los equipos que manejan las aplicaciones de tu empresa es muy importante, ya que les permite optimizar sus tiempos, para poder dedicarse de lleno a mejorar el negocio y no solo a administrar sus servicio de monitoreo. Esto es cada vez más accesible gracias a herramientas como APM y la recién adquirida característica de “Distributed Tracing“.

Ahora que sabes todas las ventajas de “Distributed Tracing“ seguramente querrás incluirlo en tu aplicación. Platica con los expertos.

Contáctanos

Por favor introduce tus datos y nos pondremos en contacto contigo.

Guía Global: los mejores eventos y conferencias para desarrolladores de software en 2019

Si quieres saber cuáles serán los mejores eventos de la industria para desarrolladores de software el próximo año, no te pierdas esta guía.

Traducido de: Best Software Developer Events and Conferences: A Global Guide por B.J. Hinshaw https://blog.newrelic.com/culture/best-developer-events-conferences/

Cuando se trata de eventos de la industria para desarrolladores de software, siempre aparecen nuevos eventos destacados dentro de una agenda anual previamente llena. ¿Cómo va a saber un ingeniero a que hackatons tiene que asistir y qué conferencias debería perderse?

Para ayudarte a planear viajes en los meses que están por venir, aquí está nuestra cronológica, comprensiva y regularmente actualizada lista de los eventos más increíbles para desarrolladores de software e ingenieros alrededor del mundo.

Enero 2019

EmTech Asia

Enero 22- 23, 2019

Singapur

1,795 – 2,795 dólares

@EmTechAsia #EmTechAsia

“Donde tecnología, negocio y cultura convergen“. Desde su creación en 1999, EmTech se ha establecido como una conferencia internacional influyente de tecnologías emergentes. Organizado por el MIT Technology Review, este evento es famoso por su característica Innovadores de menos de 35, que en el pasado han incluido algunas luminarias como Larry Page y Sergey Brin, por no mencionar a Mark Zuckerberg. También habrá muchos otros oradores interesantes, incluida Samantha Payne, COO de Open Bionics.

 

Febrero 2019

Africa Tech Summit

Febrero 13-15, 2019

Kigali, Rwanda

200 – 550 dólares

@AfricaTechSummit #ATSKGL

Junto a su evento hermano con sede en Londres, esta conferencia en la capital de Ruanda reúne a cientos interesados de todo África para explorar las últimas tendencias tecnológicas. El objetivo de los organizadores es proporcionar “perspectivas, redes y oportunidades de negocio para África, así como líderes internacionales de tecnología e inversionistas que desean impulsar el crecimiento en África“,

Developer Week SF Bay Area

Febrero 20-24, 2019

Oakland, California

50 – 1,495 dólares

@DeveloperWeek

En caso de que necesites un recordatorio, esta es la conferencia y serie de eventos de desarrolladores más grande del mundo con más de 8,000 devs hackeando más de 200 tecnologías. Si el CTO World Congress and Hiring Mixer no te tienta, ¿qué te parece la oportunidad de ganar 100,000 dólares en efectivo y otros premios en el hackaton? ¿O las diversas sub conferencias de dos días que incluyen inteligencia artificial, blockchain  y microservicios? Eso es lo que pensaba.

 

Marzo 2019

QCon London

Marzo 4-8, 2019

Londres

545 – 2,829 libras

@qconlondon #qconlondon

Los detalles acerca de los oradores siguen siendo escasos para la edición 2019 de esta conferencia para desarrolladores profesionales, pero las pistas ya se han anunciado. Incluyen “Arquitecturas de las que siempre te has preguntado“, “No $%@! la cultura“ y “Seguridad de las partes principales“. Espera un fuerte enfoque “riesgos para la empresa“ y un compromiso con “ingenieros sobre evangelistas, practicantes  por encima de entrenadores y líderes de equipo sobre consultores“. ¿Intrigado? Echa un vistazo a este ingenioso (y persuasivo) video, “Por qué la gente regresa a QCon London“

DevNexus

March 6-8, 2019

Atlanta

370 – 695 dólares

@devnexus #devnexus

Considerada como “ la conferencia de los desarrolladores profesionales” DevNexu se reúne por decimotercera vez para conectar a desarrolladores de todo el mundo, brindar educación asequible y promover valores de código abierto. El evento de 2019 traerá a más de 2200 asistentes para una experiencia que durará tres días, empezando por un día opcional de 12 sesiones prácticas de taller, seguido de dos días de presentaciones y demostraciones en vivo sobre los temas más relevantes de la industria, si no “te uniste a solution” en 2018, deberías considerarlo para el 2019.

 

Abril 2019

Google Cloud Next ‘19

April 9-11, 2019

San Francisco

Price TBD

@googlecloud #GoogleNext19

El evento clave para la plataforma de nube empresarial de Google. Next’18 fue una exhibición global de inspiración, innovación y educación que conectó a los grandes pensadores con los hacedores. La edición 2019 promete ser igual de interesante.

Dublin Tech Summit

Abril 10-11, 2019

Dublín, Irlanda

188 libras esterlinas (216 dólares) (precio de compra temprana)

@DubTechSummit

Orgullosamente anunciándose como la conferencia de más rápido crecimiento en Europa, Dublin Tech Summit promete más de 10,000 líderes, fundadores e influencers de todo el mundo. Dos días de “crecimiento y desarrollo, intercambio de conocimiento, contactos divertidos y por supuesto…¡todo el mundo! Los oradores confirmados incluyen al CTO de la NASA, Douglas Terrier, Cassie Kozyrkov, de Google, y Elena Gomez, de Zendesk.

 

Mayo 2019

I/O 2019

Mayo 2019 (tentativo)

Locación por definir

Precio por definir

@googledevs #io19

Con la emoción del I/O 2018 todavía resonando, tal vez es demasiado pronto para mirar hacia el próximo año. O quizá, tú sabes, no es así. El gran evento de desarrollo de Google siempre es una maravilla, con sesiones altamente técnicas balanceadas con keynotes impartidas por grandes personalidades y nuevos productos emocionantes. Mantén los oídos abiertos para esta edición, ¡las entradas se están agotando muy rápido!

PyCon

Mayo 1-9, 2019

Cleveland, Ohio

100 – 550 dólares

@pycon #pycon

PyCon es la reunión anual más grande de la comunidad Python, dedicada a la diversidad y la asequibilidad. Los tutoriales y sprints son siempre la parte central de la diversión, al igual que las “lightning talks” y las sesiones póster. También hay una feria de empleos. Y, por supuesto está la comida de PyLadies.

Devoxx UK

Mayo 8-10, 2019

Londres, Inglaterra

Precio por definir

@DevoxxUK

“De desarrolladores, para desarrolladores.”¿Qué más podrías querer? Los eventos Devoxx siempre son acerca de la comunidad y las ediciones 2018-19 (con reuniones en París, Cracovia, Amberes y Casablanca así como está otra en Londres) daremos la bienvenida a más de 12,000 devs en el momento que concluya.

ACE Conference!

Mayo 23- 24, 2019

Cracovia, Polonia

Precio por definir

@aceconf #aceconf

Desde 2010, ACE! Ha sido la conferencia regional más grande de su tipo en Europa Central. Quienes participan saben mucho sobre “Construir mejor software, construir mejores productos”, por lo que seguramente será un buen evento.

 

Junio 2019

WWDC19

Junio 2019 (tentativo)

San Jose, California (tentativo)

Precio (por definir)

#WWDC

Es muy pronto para saber exactamente lo que pasará en la edición 2019 de Apple Worlwide Developer Conference. Pero si las experiencias pasadas sirven sirven de guía, será épica. Nuestro consejo: tenlo en mente cuando planees las vacaciones de verano del próximo año, si logras conseguir boleto.

 

Julio 2019

RISE

Julio 8-11, 2019

Hong Kong

De 340 dólares en adelante

@RISEConfHQ #RISEConf

Del equipo detrás del Web Summit viene RISE, una reunión de las compañías más grandes del mundo y los startups más interesantes. Con más de 15,000 asistentes y más de 350 oradores esperados, es un evento realmente masivo. “Vibrante y electrizante” de acuerdo con Bloomberg. Suena muy divertido ¿cierto?

OSCON

Julio 15-18, 2019

Portland, Oregon

Precio por definir (el registro abre en marzo del 2019)

@oscon #OSCON

Cuando se trata de código abierto OSCON es “donde todas las piezas se unen: desarrolladores, innovadores, gente del negocio e inversionistas”. El evento del 2018, que tuvo lugar en julio en Portland, Oregon juntó a Jessica Deen de Microsoft y a Mack Hendricks de Flyball’s. Aunque todavía es muy pronto para los detalles, la entrega del 2019 está obligada a ofrecer otro increíble viaje a través del ecosistema completo de código abierto.

¿Cómo integrar la inteligencia artificial a las estrategias de monitoreo?

La IA es capaz de hacer predicciones con base en datos de tu aplicación que ya tienes disponibles.

La inteligencia artificial cada vez cobra un papel más relevante en las estrategias de monitoreo. Esto se debe, entre muchas otras razones, a que ayuda a predecir el comportamiento que tendrán las aplicaciones. Es decir, permite anticipar inconvenientes y problemas que puedan presentarse para brindar la mejor experiencia posible a los usuarios.

Implementa ya la IA en tus estrategias de monitoreo, platica con los expertos.

Contáctanos

Por favor introduce tus datos y nos pondremos en contacto contigo.

Aspectos de tu aplicación web a los que tienes que poner atención para este Buen Fin

¿Quieres tener las mejores herramientas para asegurar el correcto funcionamiento de tu aplicación en este Buen Fin?

La fiebre por las compras finalmente está aquí. Este año el Buen Fin tendrá lugar del 16 al 19 de noviembre, además de las ventas del Black Friday y Cyber Monday que son exclusivamente online y tendrán lugar el 23 y 26 de noviembre respectivamente. Mientras llega el tan esperado evento para algunos, es posible que otros, como los equipos de TI de numerosas empresas, teman por su llegada. ¿La razón? Quejas de usuarios, sitio lento, inaccesibilidad a la pasarela de pagos, entre otros incidentes relacionados con los procesos de compra online. Si estás familiarizado con alguna de estas pesadillas, y quieres evitarlas a toda costa, te recomendamos seguir leyendo.

A continuación algunos aspectos a los que vale la pena prestar atención, para poder ofrecer el mejor servicio a tus usuarios. No olvidemos que cada día la competencia crece y por eso, es imperativo estar lo más actualizados posible.

Instrumentación flexible y resultados accesibles en dashboards

Resulta de gran ayuda para los equipos encargados de mantener las aplicaciones funcionando correctamente tener flexibilidad para recopilar datos adicionales que puedan satisfacer necesidades específicas, de acuerdo a cada industria.

Lo significativo de los datos es que pueden complementarse con varias fuentes de información. Por ello, lo recomendable es una APM (Application Performance Management, por sus siglas en inglés), que es una práctica que monitorea el rendimiento y la disponibilidad del software. Usarla frecuentemente nos permite determinar cuándo una aplicación está operando de manera normal y cuándo no. Esto te ayudará a obtener la información que necesitas para tener bajo control el monitoreo de tu aplicación. Incluye dashboards personalizables que resultan accesibles para todos en el equipo.

Correlación de la aplicación con la experiencia de usuario final

Actualmente los equipos encargados de las aplicaciones necesitan evaluar el impacto del rendimiento del cliente en todos los niveles, desde el frontend hasta el lado del servidor. ¿Qué herramientas necesitamos para obtener esta información? Con monitoreo de usuarios reales podrás saber cuál es el comportamiento de los usuarios mientras están usando tu aplicación. Por otra parte, el monitoreo sintético utiliza un script que marca qué acciones se van a realizar para poder detectar fallas o problemas. Además, el monitoreo de aplicaciones móviles te permitirá saber cuánto tiempo pasan los usuarios en la aplicación o el número de veces que ven una pantalla, por ejemplo.

Mantén conectados la aplicación y el rendimiento de la infraestructura

Muchas compañías han optado por cambiar sus infraestructuras de monolíticas a dinámicas. De esta forma, cada vez más la salud de una aplicación se relaciona con la de su nueva infraestructura. Con monitoreo de infraestructura dinámica tendrás una vista prioritaria y de alta densidad de las aplicaciones, con un vínculo claro a los hosts de los que dependen. Si el problema se encuentra en el host, fácilmente los ingenieros pueden acudir a esta herramienta para poder solucionar el problema.

Transacciones de datos completos y detallados

Una gran ventaja al momento de monitorear una aplicación, para poder mantener cada aspecto con un correcto funcionamiento, es que las distintas herramientas puedan convivir entre sí. En el caso de inteligencia de datos resulta muy valioso encontrar múltiples tipos de datos para contar y medir cada solicitud individual. De esta forma se contará con visibilidad de rendimiento incluyendo métricas, datos de eventos, rastreo de transacciones y consultas SQL. Además, el lenguaje de consulta personalizado de la herramienta permite consultar y explorar los datos de forma iterativa en tiempo real.

Construido para escalar

Sin importar si se trata, como en este caso, del Buen Fin, Hot Sale o algún otro evento de este  tipo, la arquitectura que tiene la plataforma de las herramientas que hemos descrito es SaaS (Software as a Service) lo que significa que no tienes que preocuparte por provisionar o configurar nuevos servidores para manejar los picos de tráfico que comúnmente se presentan. Por otra parte, las mediciones de capacidad de respuesta podrán ayudarte emulando una carga específica de usuarios que hagan acciones específicas, como añadir un producto al carrito o buscar una categoría en particular con la finalidad de que puedas conocer cómo será el comportamiento de tu aplicación, incluso antes del gran día.

 

Como hemos podido ver, contar con las herramientas adecuadas para asegurar que todo esté funcionando correctamente alrededor de una aplicación es de gran ayuda, ya que, se puede acceder a las métricas en poco tiempo, lo que facilitará las ventas en línea e impactará en las calificaciones de los clientes. Todo esto, sin importar que el número de usuarios tenga picos en diversos momentos, pues la aplicación estará lista para estos eventos.

Si quieres implementar APM, inteligencia de datos o RUM y obtener los mejores resultados en tus ventas del Buen Fin, acércate a los expertos.

Contáctanos

Por favor introduce tus datos y nos pondremos en contacto contigo.

Ocho momentos clave en el Meetup “Data Nerds MX Otoño 2018”

Los datos son lo más importante para las empresas en este momento.

Los datos son lo más importante para las empresas en este momento. Esto quedó claro en el Meetup “Data Nerds MX Otoño 2018”, celebrado el pasado 6 de noviembre. El evento tuvo por objetivo resaltar el potencial que tienen algunas herramientas de New Relic enfocadas a explotar los datos de las aplicaciones web con las que trabajan.

La charla se dividió en 3 partes. La primera estuvo a cargo de Ernesto Mendoza, Director de Tecnología de Menta Network, quien habló de la importancia de Insights para recolectar y analizar datos. Le siguió Aarón Limón, Senior Software Engineer de Punto Clave, quien hizo un recorrido por las mejoras en los medios de pago electrónicos que maneja esta empresa mexicana desde que comenzaron a utilizar APM de New Relic. Finalmente, tocó el turno de Carolina Fócil, Data Scientist de Menta Network, quien compartió algunas novedades que se presentaron en el “Future Stack” de New Relic, celebrado el pasado 11 de septiembre en San Francisco, California.

Para darle voz a los especialistas y sus ponencias, a continuación algunos momentos estelares del Meetup, que tuvo por sede un restaurante de la colonia Roma.

Dentro de la primera charla, “Insights: el poder oculto de tus datos”, Ernesto Mendoza, Director de TI de Menta Network, empresa de consultoría dedicada al aseguramiento de la calidad de plataformas tecnológicas, nos dejó algunas ideas sobre la importancia de los datos.

Caso práctico sobre los precios de los los combustibles, basado en “Insights”

En la segunda ponencia, Aarón Limón, Senior Software Engineer de la firma de medios de pago electrónicos, Punto Clave, habló sobre los caso de éxito de esta empresa y sus principales retos.

Y para hablar sobre el futuro y sobre qué características adicionales nos traerá New Relic en sus distintos servicios, Carolina Fócil, Data Scientist de Menta Network, nos ofreció un amplio panorama. Aquí algunas ideas.

Finalmente Mauricio Herrera, Director General de Menta Network, dio a conocer el sitio datanerds.mx, lugar de encuentro para usuarios e interesados en la tecnología de New Relic, donde es posible encontrar noticias, foros de discusión y eventos.

Si quieres enterarte de futuros eventos visita el sitio de Data Nerds o síguelos en Facebook, o en Twitter.

Si estás interesado en contar con estos servicios para tu aplicación web, acércate a los expertos.

Contáctanos

Por favor introduce tus datos y nos pondremos en contacto contigo.

¿Cuál es el rol de un SRE?

La funciones que llevan a cabo los SRE dependen del tamaño de la empresa, así como de sus prioridades. Sin embargo, podemos decir que en buena medida se encargan de automatizar sistemas complejos.

Site Reliability Engineer (SRE) es una posición relativamente nueva en las empresas de tecnología. Surgió en Google hace aproximadamente 15 años. Pero ¿cuáles son las principales funciones de un SRE? Algunos creen que esta posición es como la de DevOps. En cambio, otros piensan que es muy distinta. Google da respuesta a esta interrogante. En un video titulado “What's the Difference Between DevOps and SRE?” (¿Cuál es la diferencia entre DevOps y SRE), Liz Fong-Jones y Seth Vargo, SRE y Advocate Developer de esta empresa, respectivamente, lo resumen de la siguiente manera: DevOps es una filosofía y SRE es una manera prescriptiva de entender dicha filosofía. A continuación, más información.  

¿Cómo surgieron los SRE?

Para entender mejor de qué va el puesto de SRE vayámonos un poco atrás, antes de que existiera dicha posición. Hace algunos años había mucha tensión entre desarrolladores y operadores. Los primeros se preocupaban por lanzar su código para que pudiera estar al alcance de los operadores, quienes deberían mantenerlo en producción. Es entonces cuando comenzaron los problemas. Los operadores entendían poco acerca de las líneas del código que recibían; por su parte, los desarrolladores tenían una idea vaga de cuáles eran las prácticas operativas y de infraestructura. ¿Qué daba esto por resultado? Los desarrolladores estaban preocupados por las características y la velocidad, mientras sus compañeros operadores buscaban la estabilidad, lo que significa, en muchas ocasiones, ir más despacio. Por supuesto, esto generaba fricciones entre este par de roles en las empresas.

Debido a los problemas organizacionales se creó DevOps, una serie de prácticas diseñadas para contrarrestar la grandes diferencias que había entre desarrolladores, operadores y otras partes del ciclo de trabajo tecnológico. Dichas prácticas se pueden dividir en 5 partes: reducir los problemas de organización, aceptar que fallar es normal, implementar el cambio gradual, manejar herramientas de apalancamiento, automatización y, ahora también, medirlo todo.

¿Cómo es un puesto de SRE en el mundo real?

Es cierto que todavía al día de hoy no es completamente claro cuáles son las responsabilidades de alguien que desempeña este rol. Esto depende mucho del tamaño de la empresa, así como de sus prioridades. Sin embargo, algo común entre los SRE es tratar de automatizar todo cuanto sea posible en sistemas computacionales complejos que operan a gran escala.

Ahora bien, como ya mencionamos, es complicado delimitar con precisión cuáles son las tareas que desempeña alguien en este puesto; sin embargo, algo en lo que podemos tener un criterio común es en las aptitudes que estos ingenieros deben tener.

Un buen SRE requiere de una mezcla tanto de habilidades enfocadas al trabajo, como de habilidades personales. Esto significa que no varían las cualidades, sin importar si el SRE es gerente o ejecutivo. Su rol se basa en que exista consistencia en articular metas y expectativas; justo ahí entran en juego las habilidades personales. Alguien puede ser muy bueno en automatización, conocer gran variedad de lenguajes de programación y estar muy influenciado en aplicación de protocolos de red, pero no es suficiente para ser un buen SRE. Se necesita saber qué pregunta formular, no basta con saber cómo aplicar cada tecnología para resolver un problema. Esto requiere ser adepto a la resolución de problemas, trabajar como parte de un equipo y tener habilidades de comunicación excepcionales (lo que cuadra muy bien con las prácticas DevOps que mencionamos anteriormente).

Mientras la entrega de software se vuelve la norma, los SRE están adquiriendo puestos como líderes en muchas organizaciones. Cada vez más empresas, como Dropbox, Twitter y Apple (e incluso también empresas más pequeñas), ven necesario que exista un SRE entre sus filas.

¿Quieres contratar a un SRE? Esto es lo que debes saber

Un SRE es responsable de la disponibilidad, desempeño, monitoreo y respuestas a incidentes, entre otras cosas de las plataformas y servicios que la compañía tiene y de las que opera. En el caso de empresas grandes muy probablemente se requiera a una persona que se especialice en un área, ya que en caso de desconocer algún otro tema habrá alguien más en el equipo que tome ese lugar. Mientras tanto, para las empresas más pequeñas hace falta tener conocimientos generales de diversos temas, ya que es más complicado tener a un especialista en cada ámbito.

Podemos concluir que, aunque los SRE son una posición relativamente nueva en las empresas de tecnología, cada vez tienen un papel más protagónico, ya que muchos tienen la función de líderes. Algunas características esenciales de este puesto son las habilidades de comunicación y resolución de problemas, además, por supuesto, de las competencias de TI (recopilar y analizar la información de diagnóstico y el registro; monitoreo y revisión proactivo del rendimiento de la aplicación).

Si estás pensando en buscar oportunidades en esta área es bueno que consideres cómo surgió este puesto de trabajo: la falta de compatibilidad entre desarrolladores y operadores. De esta forma podrás darte cuenta que se requieren habilidades de ambos. Alguien que alterne entre las operaciones y desarrollo de TI, al tiempo que es capaz de manejar a un equipo que entregue software y características innovadoras de alto rendimiento.

La mejor manera de medir el riesgo cibernético

Riesgo cibernético y ciberseguridad son problemas complejos que han obstaculizado la transformación digital desde que comenzó. La manera en la que se mide este riesgo determina el contexto en el cual los resultados son vistos; por esta razón la transparencia es tan importante para las clasificaciones de seguridad: el alcance del riesgo que se evalúa debe ser conocido.

Traducción de: The Best Way to Measure Cyber Risk del blog de UpGuard

https://www.upguard.com/blog/the-best-way-to-measure-cyber-risk

La tecnología de la información ha cambiado la manera en la que la gente hace negocios. Para mejorar, ha traído velocidad, escala y funcionalidad a todos los aspectos comerciales y de comunicación. Desafortunadamente, también ha traído los riesgos de la exposición, violación y pérdida de datos. El daño que se puede hacer a una empresa a través de su tecnología se conoce como riesgo cibernético, y con las cada vez mayores consecuencias de estos incidentes, manejar el riesgo cibernético, especialmente a través de servicios de terceros, rápidamente se está convirtiendo en un aspecto crítico de cualquier organización. La naturaleza especializada del riesgo cibernético requiere de una traducción de los detalles técnicos a términos de negocio. Las clasificaciones de seguridad y las evaluaciones de riesgo cibernético sirven para este propósito, de la misma forma que un puntaje de crédito evalúa el riesgo para un préstamo. Pero las metodologías empleadas por las soluciones en este espacio varían tanto como lo hacen sus resultados.

La metodología importa

Riesgo cibernético y ciberseguridad son problemas complejos que han obstaculizado la transformación digital desde que comenzó. La manera en la que se mide este riesgo determina el contexto en el cual los resultados son vistos; por esta razón la transparencia es tan importante para las clasificaciones de seguridad: el alcance del riesgo que se evalúa debe ser conocido. Algunas soluciones utilizan lo que se conoce como “reputación IP”, para evaluar el riesgo. Este método supervisa las solicitudes de malware de honeypots y otros sensores e intenta asignarlas a organizaciones basadas en el espacio de direcciones IP registradas. UpGuard sigue la “resiliencia cibernética“ que mide configuraciones, mejores prácticas y otros aspectos conocidos de las operaciones digitales y la seguridad de una organización.

Reputación IP

Señales de malware

Como mencionamos más arriba, la forma principal en la que se recolectan los datos para las soluciones basadas en la reputación IP es que se establecen honeypots, o sistemas intencionalmente inseguros, para recopilar datos sobre los ataques que sufren, incluidas sus direcciones IP de origen. Como cualquiera que haya instalado un sistema inseguro en internet sabe, los ataques ocurren todo el tiempo, y los honeypots atrapan una porción de esos ataques simplemente por ser vulnerables. Sin embargo, el tipo de malware que ataca de manera suficientemente aleatoria como para afectar los honeypots sólo representa una fracción del

total de malware en circulación. El rasomware y otros programas maliciosos críticos para el negocio, por lo general son muy específicos ya que utilizan sistemas como el phishing y sistemas vulnerables para instalarse en una empresa donde hay datos valiosos y no sólo cualquier computadora conectada a internet.

Atribución IP

Una vez que se ha registrado la dirección IP de origen de un ataque se verifica en una asignación del espacio de direcciones IP en Internet. Esencialmente cada dirección IP habita en un espacio que está asociado a un propietario. Si bien algunas compañías sólo pueden usar algunas direcciones IP de internet, algunas otras tienen cientos de miles o más. Sin embargo, la atribución de IP exacta ha sido un problema continuo por muchas razones.

 

 

La metodología de reputación IP depende de la atribución para asociar conducta con una entidad específica. Pero a menos que esa atribución sea precisa y refleje las amenazas reales planteadas a una compañía por un proveedor, el análisis de riesgo completo se vuelve sujeto de error, y peor aún, los puntos ciegos en los que el riesgo se percibe como que está siendo manejado, pero no es totalmente comprendido.

Vector de amenaza única

Aún si la actividad de atribución del malware fuera un método confiable, se vería una sola amenaza entre las muchas que enfrenta cualquier negocio digital. Aunque el malware juega un rol importante en la cadena de ciberataques, las formas en las que entra en una organización abarca varios vectores diferentes. Además los ciberataques sólo cuentan para una pequeña porción de datos expuestos y los incidentes de interrupción del servicio: la causa número uno es una mala configuración algo que una reputación IP basada en análisis de riesgo nunca detectará.

Resiliencia

Huella de internet

En lugar de usar la propiedad de una dirección Ip para determinar los límites de una organización, UpGuard busca su huella de internet. Al analizar todos los vectores orientados a internet mediante los cuales el riesgo cibernético ingresa a una organización, UpGuard mide a las organizaciones por ellas mismas, su postura frente a ataques y configuraciones erróneas. Al recopilar cada dominio de internet y sitio web que pertenece a la compañía. UpGuard analiza cada una por factores de riesgo relevantes, mejores prácticas de seguridad y configuración apropiada, agregándolos a CSTAR, una clasificación de seguridad estándar para la industria que refleja la postura del tiempo real actual de una organización en contra del riesgo cibernético.

Configuraciones erróneas

El “hacking“ de un número de incidentes de exposición de datos y cortes de servicio sorprendentemente bajo. En su mayoría estos están causados por configuraciones erróneas: ya sean configuraciones predeterminadas o configuraciones que de manera inadvertida exponen los recursos a un riesgo innecesario. Un ejemplo de de mala configuración sería almacenar datos confidenciales en la nube y accidentalmente ponerlos públicos en internet. UpGuard puede escanear en busca de configuraciones erróneas presentes en la huella de internet, porque las mejores prácticas dictan cómo los servidores y servicios deben fortalecerse para prevenir ataques. Al comparar la postura del proveedor con estas pautas, UpGuard rápidamente identifica problemas y ofrece una guía para su resolución.

Todos los vectores para la exposición y el incumplimiento

UpGuard organiza su evaluación por amenaza, por lo que las compañías saben exactamente qué vectores son los más peligrosos para cada uno de sus proveedores. Esto incluye ataques comunes como:

 

 

Amenazas no cubiertas por la reputación IP

Fuga en la nube

A medida que los proveedores emplean tecnologías en la nube, los datos que almacenan allí corren el riesgo de exponerse a todo el internet. Olvida el hacking; un depósito mal configurado puede filtrar una base de datos completa sin necesidad de una contraseña para obtenerla. El equipo de UpGuard Cyber ​​Risk ha investigado y documentado estos incumplimientos para mostrar qué tan vulnerable es la información cuando no se maneja adecuadamente. No importa qué tan buena sea su reputación IP, un servidor de nube mal configurado o una instancia de almacenamiento puede poner en riesgo a toda tu empresa.

Software vulnerable y sin parches

Prácticamente todos los ataques exitosos explotan las vulnerabilidades que se han conocido y tenían parches disponibles durante todo un año. El hecho de no actualizar las aplicaciones de internet es un indicador líder del riesgo cibernético. Este vector es intocable por los métodos de reputación IP, porque es una debilidad en la infraestructura legítima, no un agente colocado ahí por algún tercero malintencionado. Si las organizaciones desean priorizar el manejo del riesgo cibernético por lo crítico de la amenaza, el software que no tiene parches así como el que está mal configurado deberían ser la prioridad número uno.

Susceptibilidad al phishing

Algunas formas de ingeniería social típicamente preceden a los ciberataques. El phishing o el spear phishing altamente enfocado, utilizan correos electrónicos fraudulentos para que la gente caiga y envíe su información, documentos e incluso dinero a un tercero criminal. Pero los correos electrónicos de suplantación de identidad pueden ser interceptados y pueden ser puestos en cuarentena antes de que le lleguen a un ser humano si las defensas apropiadas están configuradas y en su lugar. UpGuard revisa cada dominio para cada proveedor de forma que pueda asegurarse que estos mecanismos están funcionando y están en su lugar.

Conclusión

Decidir qué metodología se ajusta mejor a tus necesidades depende de los objetivos de tu iniciativa de riesgo cibernético. La reputación IP algunas veces puede detectar señales de malware que se atribuyen al espacio de dirección que posee una compañía, pero la estrategia de resiliencia cibernética de UpGuard analiza la huella en internet de cada compañía y examina todos los vectores por los que ocurre la exposición de datos y la interrupción de servicios, incluyendo las configuraciones erróneas, una de las principales causas de ataques exitosos y que no se detecta por las tácticas de reputación IP.

CyberRisk de UpGuard ofrece la evaluación externa más completa de la huella de internet de un proveedor. A cada compañía se le asigna una clasificación de seguridad CSTAR para la visibilidad de alto nivel en el riesgo de terceros. A diferencia de las soluciones de reputación IP, UpGuard también proporciona los detalles técnicos necesarios para cada riesgo detectado, así como información de control de compensación. CyberRisk también automatiza el proceso del cuestionario, para que las certificaciones de los proveedores se puedan entregar, almacenar y organizar automáticamente, junto con sus evaluaciones y calificaciones. UpGuard administra todo el proceso de riesgo cibernético de terceros, de extremo a extremo.

Si quieres implementar una herramienta de ciberseguridad en tu aplicación, acércate a los expertos.

Contáctanos

Por favor introduce tus datos y nos pondremos en contacto contigo.

Conoce las herramientas para el monitoreo de infraestructura dinámica

Conoce el monitoreo de infraestructura y el monitoreo de resiliencia tecnológica. La primera es capaz de monitorear el desempeño y la funcionalidad, mientras la segunda ayuda a identificar riesgos cibernéticos.

Cuando se tiene una empresa que tiene internet como canal de negocios, tan importante como el producto es estar pendientes de la infraestructura, ya que sólo de esta manera se podrá crear, probar y desplegar sin ningún inconveniente.

En esta ocasión describiremos 2 herramientas para el monitoreo de infraestructuras dinámicas. La primera es capaz de monitorear el desempeño y la funcionalidad, mientras la segunda ayuda a identificar riesgos cibernéticos.

Monitoreo de infraestructura

El monitoreo de infraestructura ofrece un servicio dinámico y flexible, para monitorear todos los aspectos de la infraestructura que operan servicios de nube en un servidor. La infraestructura capacita a los equipos de operaciones modernas a tomar decisiones inteligentes sobre sistemas complejos, desde un centro de datos en sitio hasta numerosas instancias de Amazon Elastic Compute Cloud (Amazon EC2), Google Cloud o Microsoft Azure.

Las métricas reales y los analíticos reducen el tiempo medio de resolución (MTTR) mediante la conexión de los cambios del rendimiento del host y hasta los cambios en su configuración. Los agentes de monitoreo se agregan y eliminan de forma automática desde la interfaz a medida que se crean y destruyen, al igual que las instancias de cómputo. Además, es posible visualizar cada cambio a través de una página de eventos.

La interfaz de usuario de monitoreo de infraestructura cubre completamente la arquitectura de una aplicación:

– Los gráficos de rendimiento unificados combinan todos los hosts en una sola vista.

– Los filtros permiten aislar los componentes que resulten más relevantes para cada caso, por ejemplo, una región particular de Amazon EC2 o un atributo personalizado que identifica a un equipo de desarrollo.

– El inventario permite rastrear y buscar cada paquete en cada host.

– Las alertas integradas te aseguran que serás notificado acerca de los problemas relevantes para ti o tu equipo antes de presentarse situaciones críticas.

Algunas otras características clave sobre el monitoreo de infraestructura incluyen acceso a inteligencia de datos mediante dashboards personalizados. Además, es posible seleccionar y compartir los tableros de infraestructura existentes, así como analizar los datos de NRQL.

De forma similar, tener instalado APM en los hosts monitoreados permite tener la capacidad de solucionar problemas de rendimiento sin importar dónde ocurran; sea de lado del servidor o de la aplicación. Otra ventaja importante es que se pueden recopilar y mostrar los datos en menos de 5 segundos, lo que significa que puedes saber lo que está ocurriendo en tiempo real.

Monitoreo de resiliencia tecnológica

Para cualquier negocio digital es importante contar con estabilidad, así como identificar riesgos rápidamente. Esto porque es común encontrar inconsistencias que ocasionen cortes o fallas, las cuales pueden deberse a faltas de seguridad no detectadas, vulnerabilidades del software, inconsistencias en el ambiente o alteraciones en la configuración.

Optimiza tus acciones

Descubre tus sistemas: Podrás encontrar y escanear automáticamente miles de activos, desde escritorios a servidores, de bases de datos a dispositivos de red. Con esto podrás descubrir una vista completa de tu entorno de TI.

Monitorear y rastrear cambios: Haz un seguimiento de los cambios de tus sistemas a través del tiempo, para que puedas validar los objetivos esperados. Además, podrás capturar dónde se encuentra tu configuración a la deriva y evitar vulnerabilidades de seguridad.

Automatizar el cumplimiento: Utiliza políticas configurables para mantener tus sistemas compatibles con las mejores prácticas de seguridad y requisitos reglamentarios como PCI-DSS y NERC.

Integra: Con las integraciones nativas, podrás incluir sistemas como AWS, Splunk, Jira, Slack, entre otros.

 

Tanto la seguridad de cualquier aplicación, así como estar al tanto de que la infraestructura que se utiliza es la adecuada y está funcionando correctamente, son clave cuando se trata de infraestructuras dinámicas. Para esto, tanto el monitoreo de infraestructura como el de resiliencia tecnológica, arriba descritos, pueden ser de gran ayuda para la viabilidad tecnológica de tu negocio.

¿Necesitas de un experto para incluir estas herramientas de monitoreo a tu infraestructura dinámica?

Contáctanos

Por favor introduce tus datos y nos pondremos en contacto contigo.

¿Por qué es importante que tu empresa invierta en infraestructura?

Así como un producto es importante para cualquier negocio, para atraer clientes y diferenciarte de la competencia, la infraestructura también debería de serlo.

Es viernes en la noche y el equipo de Tecnología identifica un bug que debe ser atendido. La reparación está lista para desplegarse y de pronto un servidor colapsa. ¿Qué haces en ese caso? ¿Sabes si hay servidores redundantes a los que puedas cambiar? ¿Sabes qué hay en tu servidor o cómo recrearlo? Si la respuesta es no, te resultará conveniente continuar leyendo.

Así como un producto es importante para tu negocio, para atraer clientes y diferenciarte de la competencia, la infraestructura también debería de serlo. Es decir, es crítico tener una  infraestructura que contenga todo lo que se necesita para crear, probar y desplegar. De otra forma, resulta muy complicado mantenerse a flote.

En el mejor escenario, supongamos que con cada actualización de versiones se instala una versión de prueba en 12 tipos diferentes de máquinas virtuales, para tener una calificación previa al lanzamiento. Además de los servidores de prueba, hay servidores de base de datos, máquinas de aplicación y servidores de archivos. Si no existiera forma de mantenerlos o recrearlos fácilmente los problemas de depuración y recuperación de fallas se volverían muy complicados.

¿Qué pasa si mantenemos una infraestructura obsoleta? Si permitimos que la calidad de la infraestructura caduque, esto puede traer problemas al momento de modificar, experimentar y usar. Si existe temor en estos aspectos, hay también falta de confianza, lo que ocasionará que se opte por no utilizar esa infraestructura.

El panorama anterior contrasta con uno distinto, en cual hay al menos 20 máquinas virtuales que se utilizan a diario y permite entregar software de calidad para los clientes de cualquier empresa. Donde casi todos tienen imágenes o scripts de respaldo, las cuales pueden usarse para restaurar la conexión a un estado deseado.

Es importante señalar que no hay una receta única que pueda darte el resultado esperado para tu infraestructura,no sucede con las herramientas y menos en un marco específico. Es necesario diseñar una estrategia apropiada para cada organización.

Prevé problemas de seguridad

Como escribimos anteriormente, mientras las empresas crecen, los temas de seguridad, conectividad y productividad en general son cada vez más demandados e, incluso, cuestionados. Esto debido a que los ataques en empresas pequeñas han incrementado en un 300% desde 2012. Recordemos que los puntos de entrada de una seguridad en línea débil pueden poner en riesgo los datos más importantes de la empresa.

¿Tu infraestructura es capaz de soportar las demandas de tu empresa?

Menos del 10% de las empresas confirman que su infraestructura de TI está preparada para satisfacer las demandas en la nube y dispositivos móviles. Una de las principales ventajas de contar con una estrategia sólida es que permite un intercambio eficiente de información hacia toda la compañía. Una infraestructura bien pensada es capaz de reducir las barreras y las inconsistencias que son inherentes a la organización.

Beneficia a tu empresa del manejo inteligente de la infraestructura

Asegurarte de tener una infraestructura de TI confiable y segura resulta rudimentario. Hace falta tener además una estrategia precisa y con objetivos medibles. Es entonces cuando entra en juego la inversión, no sólo de hardware o software, sino también del personal correcto, así como de servicios de red. Todo esto puede ser la diferencia entre una empresa rentable y una que esté a punto de naufragar.

Recopila datos en tiempo real: Con una solución como APM podrás monitorear el rendimiento y la disponibilidad de tu software. De forma que puedas determinar si tu aplicación de e-Commerce o banca en línea está funcionando correctamente.

Analítica a gran escala: ¿No sería genial poder utilizar tu propia plataforma de negocio en la perspectiva del cliente? Eso es posible gracias al monitoreo sintético, que te permite identificar los fallos que podrían experimentar los usuarios incluso antes de que ocurran. De esta forma podrás ofrecer una mejor experiencia de usuario.

Auditoría instantánea de riesgo: La compleja labor de auditar el riesgo cibernético, que consistente en evaluar versiones de software, configuraciones, políticas internas, usuarios, bitácoras y estados de red, que normalmente toma semanas a un equipo de expertos, podría reducirse a unos cuantos minutos con una solución como el monitoreo de riesgo cibernético. 

Velocidad en el mercado: En esta nueva etapa de la era digital, donde cada día las compañías están optando más y más por la modernización es necesario estar a la altura. Las cosas se mueven muy rápido y es mejor saber en todo momento cuál es el siguiente paso y cómo podemos mejorar. ¿Qué productos les interesan a mis clientes? ¿Hay una nueva forma de pago que valdría la pena incluir? ¿La forma en la que estoy publicitando mis productos es la adecuada?

Como hemos revisado, es indispensable tener claridad en todo momento de lo que necesita tu  organización en términos tecnológicos, para continuar mejorando y mantenerla a flote, esto es una de las mejores prácticas que puedes llevar a cabo para que tu negocio crezca.

Si quieres tener éxito en tu propia estrategia de infraestructura. Acércate a nosotros.

Contáctanos

Por favor introduce tus datos y nos pondremos en contacto contigo.

El Girl Tech Fest MX 2018 apuesta por la inclusión de mujeres en la tecnología

¿Crees que programar es complicado? Pregúntale a las niñas que participaron en el Girl Tech Fest MX 2018.

El pasado 6 de octubre, profesionistas del sector tecnológico llevaron a cabo la primera edición de Girl Tech Fest en la Ciudad de México. Su objetivo es acercar a niñas desde temprana edad a la programación de forma simple y divertida, esto para generar un impacto en su desarrollo profesional que las motive a elegir carreras tecnológicas o relacionadas con la computación en el futuro.

Actualmente en México, solo 1 de cada 10 ingenieros es mujer, cifra que ha despertado el interés de diversas empresas y organizaciones por contribuir a equilibrar este panorama. Tania Pérez, Sandra Flores, Dulce Navarrete y Jessica Pérez, se dieron a la tarea de dar vida a dicho evento inspirado en un análogo que se ha llevado a cabo por 4 años consecutivos en Oslo, Noruega con una convocatoria de hasta 1500 niñas por edición.

A lo largo de 5 horas, las niñas aprendieron cómo hacer un programa en una tarjeta madre para contar sus pasos; crearon caras felices y tristes y finalmente jugaron piedra, papel o tijeras con la ayuda de bloques y lenguajes de programación como Java Script y Python.

Un segundo ejercicio tuvo por objetivo que un zombie se encontrara con un girasol, a estilo del popular juego Plantas vs Zombies, las niñas tuvieron que programar el camino más corto y evitar los obstáculos que se presentaran. No en todos los casos resultó sencillo encontrar una ruta corta, pero finalmente fue un reto que todas pudieron superar.

Por otro lado, Sandra aconsejó a las niñas descubrir sus cualidades e identificar qué les impide crecer para convertir sus limitantes en puntos a su favor, es decir, conocerse bien a sí mismas y así acercarse a una carrera exitosa.

Más tarde, cuando las organizadoras preguntaron a las niñas “¿qué quieren ser de grandes?“ ellas tuvieron toda clase de respuestas: arquitecta, mercadóloga, chef, antropóloga, etc. ¿Por qué no se inclinan por alguna carrera en ingeniería? De acuerdo a las coordinadoras se debe a la poca interacción de las niñas con la tecnología desde temprana edad.

En ese tenor, tanto Sandra Flores como Dulce Navarrete nos compartieron su experiencia de laboral en un ámbito mayormente liderado por hombres. Dulce considera que como ingeniera aporta una visión distinta al momento de resolver un problema cotidiano en el trabajo. Mientras Sandra aconsejó a las niñas: descubre tus cualidades y luego identifica tus áreas de oportunidad para que puedas crecer de manera personal, eso te acercará a una carrera exitosa. 

El futuro es la programación

¿Te has fijado en cómo cada vez más, la tecnología ejerce una fuerte influencia en nuestras vidas? Actualmente la programación se ha vuelto parte de nuestro día a día y, por supuesto, esta tendencia seguirá a la alza. Por esta razón cada vez más profesionistas de muchos ámbitos están adquiriendo habilidades de este tipo.

Por ejemplo, mucho se habla de que en el futuro la inteligencia artificial remplazará a un gran número de trabajadores de diversos sectores. Aunque es probable que esto suceda, dicho ajuste creará nuevas oportunidades para que profesionistas de áreas como las humanidades y otras que aún no se relacionan directamente con la programación, puedan seguir ocupando espacios si desarrollan habilidades técnicas que los mantengan actualizados.

El Girl Tech Fest MX pretende llevarse a cabo cada año, y para no perder la oportunidad de que asista tu hija, sobrina o hermana, te recomendamos revisar el sitio https://girltechfestmx.com para más información.

Algunas reflexiones sobre el estado actual de la Inteligencia Artificial

¿Piensas que dentro de poco tu trabajo será reemplazado por una máquina gracias a la IA? mejor descubre cuál es el panorama real en este ámbito.

Traducido de: A Few Thoughts on the Current State of Artificial Intelligence por Dan Rufener https://blog.newrelic.com/engineering/state-of-artificial-intelligence/

Muchas personas parecen pensar que la inteligencia artificial nos está llevando a alguna clase de apocalipsis-robot o a una nueva tecno-utopía. Como ingeniero de software de New Relic que trabaja en proyectos de Inteligencia Artificial, estoy pendiente (y me entretengo) con esos miedos y expectativas de cómo la IA puede afectar a nuestra sociedad.

No creo que vayamos a estar en algunos de los anteriores escenarios pronto. Pero en el medio de esas perspectivas extremas están todas las formas reales en las que la IA mejora nuestras vidas. Por ejemplo, la IA nos ha bendecido recibiendo el 99.9% del spam de Gmail en nuestras bandejas de entrada por años. Un proyecto piloto con semáforos inteligentes operado con IA está reduciendo el tiempo de espera en un 40%. Entre más y más industrias experimentan con IA, su impacto en nuestro día a día continuará aumentando.

Entonces ¿dónde estamos exactamente con la IA, y hacia dónde vamos?

IA en el nombre de la ciencia y la industria

Mientras nuestra relación futura con la inteligencia artificial parece incierta, podemos fundamentar nuestro pensamiento observando el estado actual de todo lo relacionado con IA. Por ejemplo, recientemente atendí la Conferencia Internacional para Representaciones de Aprendizaje (ICLR), donde obtuve algunas pistas interesantes sobre lo que podría venir después en IA.

La conferencia en Vancouver, Columbia Británica, ha crecido exponencialmente en años recientes, tanto en número de asistentes como en el número de trabajos presentados, entonces no resulta sorprendente enterarse de que los investigadores continúan dedicando esfuerzos a la fabricación de máquinas más inteligentes.

En un trabajo titulado Zero-Shot Visual Imitation, los investigadores describen una técnica que desarrollaron la cual permite que un robot ate un nudo y navegue en la oficina después de una sola demostración, sin una guía específica. Y en una presentación sobre la formación de redes neuronales profundas, los asistentes vieron cómo una bicicleta autónoma puede seguir a las personas por ella misma.

Además de estos ejemplos que ilustran el progreso de la IA, la conferencia también reveló que los enfoques estándar de IA tienen algunas fallas graves. De hecho, en una presentación se dijo que el 90% de los investigadores de machine learning a los que se les preguntó están de acuerdo en que hay al menos una ligera crisis de “reproducibilidad” en el campo.

Incluso en tanto la IA va evolucionando, los humanos claramente siguen teniendo ventaja en muchos ámbitos. Los investigadores de LabSix, por ejemplo, imprimieron un modelo 3D de una tortuga y engañaron a una computadora para que pensara que era un rifle.

Sin embargo, aunque las máquinas aún carecen de “inteligencia general“ se están volviendo más inteligentes y suficientemente capaces de impactar de forma seria en la sociedad, especialmente influenciando la economía. En un artículo sobre ¿Qué puede hacer machine learning? Implicaciones para la fuerza laboral, los investigadores del MIT y la Oficina Nacional de Investigación Económica dicen que mientras esperamos más cambios en la automatización, probablemente no habrá un reemplazo generalizado para todos los trabajadores en un futuro cercano. “Las máquinas no pueden llevar a cabo la totalidad de las tareas que pueden hacer los humanos“ declaran. Las máquinas tienen una competencia que es “dramáticamente más estrecha y más frágil que la toma de decisiones humanas“.

La investigación podría aplicarse al monitoreo de rendimiento digital

Si bien muchos de los avances presentados en la conferencia de ICLR no son necesariamente relevantes para el monitoreo de desempeño digital y el espacio de la gestión, un par de ideas sí son relevantes. Considera los experimentos en salud de los investigadores de la Universidad de Johns Hopkins quienes utilizan datos de series de tiempo para determinar el riesgo de muerte por neumonía en los pacientes. ¿Las mismas estrategias de IA que se utilizan para mantener a los pacientes vivos podrían ayudar a los equipos DevOps a mantener las apps y los hosts funcionando correctamente? A pesar de las grandes diferencias entre los casos de uso, creo que es una posibilidad real. El machine learning se preocupa más por la forma de los datos que por el contenido específico. La técnica utilizada en la investigación de la universidad Johns Hopkins funciona con series de datos genéricos (de los cuales los clientes de New Relic tienen en abundancia) y no le interesa si los datos son sobre personas o sobre máquinas.

¿O qué hay acerca de la nueva tecnología de IA que aprende a comprender los datos lo suficientemente bien como para llenar los vacíos donde faltan y definir regiones donde los datos son confusos en las muestras de datos utilizadas para generar modelos de distribución compleja? Dicha tecnología podría ayudarnos con la detección anómala o a estimar datos de monitoreo de puntos ciegos.

¿Qué significa esto para la travesía de New Relic en IA?

Las soluciones de monitoreo han estado recolectando y visualizando datos de software de forma incremental por más de una década ahora, pero en tanto los sistemas se hacen más complejos, las técnicas antiguas no siempre pueden mantenerse al día. Las herramientas como New Relic ahora pueden recolectar datos de forma simultánea entre cientos de hosts y microservicios interconectados. Con ese nivel de complejidad, ya no es suficiente arrojar datos a la pantalla y dejar que el usuario los examine para encontrar el significado y determinar la acción adecuada.

Cuando nuestros clientes experimentan incidentes en nuestro software, eso puede costarles mucho tiempo, esfuerzo, y potencial pérdida de ganancias. Estas altas apuestas requieren algo más de los proveedores de monitoreo. Nuestros clientes necesitan sistemas inteligentes que estén analizando continuamente y buscando conductas anómalas, para que ellos puedan hacer predicciones y ordenar los datos en grupos dinámicos. Ésta es la magia que los consumidores pronto esperarán de la tecnología impulsada por la Inteligenia Artificial. Si nuestras máquinas pudieran asumir el deber de analizar, podríamos transferir la información a nuestros usuarios en el último minuto posible, donde únicamente la maestría del humano y la toma de decisiones pueden ser suficientes para maximizar la eficiencia de los usuarios.

New Relic ya ha hecho progreso en este frente, y hemos aprendido mucho de nuestros primeros pasos con la IA. Hemos construido herramientas dentro de nuestros ecosistemas que nos pueden decir si las cosas se están comportando con normalidad o no. Los perfiles de error, por ejemplo, usan medidas estadísticas para detectar los errores que se desvían más dramáticamente de las transacciones sin errores en su aplicación. Los perfiles proveen detalles visuales acerca de las diferencias en la frecuencia de los valores por evento, mostrando donde debes mantener la atención sin hacer clic manualmente en todas las dimensiones. La alerta dinámica de base permite a los usuarios establecer umbrales de alerta para una métrica de aplicación en particular basándose en una línea de base predictiva para esa métrica.

Aún estamos trabajando para lograr la precisión de la ejecución y predicción confiable necesaria para crear vistas globales que estén preparadas para los sistemas de salud complejos actuales y futuros. Estamos trabajando en algunos prototipos prometedores y estamos enfocados en avanzar al futuro de AIOps. Utilizando un enfoque basado en datos para la IA, tomamos medidas para validar nuestro pensamiento con nuestros clientes en cada paso a lo largo del camino.

Continuamos en la evolución de nuestra plataforma de desempeño de monitoreo digital para mejorar drásticamente la efectividad de nuestros usuarios.

¡Te invitamos a seguir nuestro progreso, y a prepararte para un futuro emocionante!

Si te interesa monitorear el estado de tus aplicaciones con tecnología basada en IA, acércate con nosotros.

Contáctanos

Por favor introduce tus datos y nos pondremos en contacto contigo.

Qué infraestructura es la más utilizada para los proyectos de Big Data

¿Estás por comenzar un proyecto de Big Data y quieres saber qué infraestructura es la que debes utilizar? Conócelas.

Cuando hablamos de Big Data es difícil dar una definición certera. Esto se debe principalmente a que no hay un consenso respecto a la cantidad de datos que se tiene que manejar para ser considerados como “Big“ o grandes. Lo que alguien podría considerar como Big Data, para otra persona podría tratarse de una cantidad estándar de datos. Algunos otros también han definido este término como cualquier tipo de datos que estén distribuidos a través de sistemas múltiples. En algunos casos, ésta puede ser una buena definición. Los sistemas distribuidos suelen producir muchos más datos que los sistemas localizados; involucran más equipo, más servicios y más aplicaciones, lo que se traduce también en más datos. Sin embargo, es posible tener sistemas distribuidos que no involucran muchos datos.

Hay otras perspectivas desde las cuales se puede definir Big Data, por ejemplo en relación con small data. Esta definición toma en cuenta todos aquellos datos que se analizan con herramientas avanzadas. Mientras small data se interpreta de formas menos sofisticadas. El inconveniente con esta visión es que si defines Big Data como los datos que sólo pueden ser analizados por Hadoop o alguna otra plataforma de analítica compleja, corres el riesgo de excluir de la definición a los conjuntos de datos que se procesan con R, por ejemplo.

Probablemente no exista una definición generalizada, sin embargo, es posible ver Big Data, desde distintos ángulos. Lo que es algo a resaltar, porque significa que no solamente lo podemos ver en términos cuantificables.

Ahora bien, la infraestructura es la piedra angular de la arquitectura de Big Data. ¿Por qué? Porque el almacenamiento, procesamiento y análisis de sus datos es imperativo en cualquier proyecto de esta índole; para lo que es necesario contar con las herramientas adecuadas. A continuación examinaremos algunos enfoques de infraestructura: qué son, cómo funcionan y para qué se utiliza mejor cada uno.

Hadoop

No podemos hablar de Big Data, sin mencionar a Hadoop, un framework open source para procesar, almacenar y analizar datos. El principio fundamental detrás de Hadoop es que en lugar de abordar un bloque monolítico de datos en una sola oportunidad, es más eficiente dividir y distribuir los datos en varias partes. Lo anterior ocasiona que se puedan procesar y analizar diferentes partes de forma simultánea.

Aunque es común imaginar a Hadoop como una única entidad, esto es solo un mito. En realidad, Hadoop es un ecosistema completo de diferentes productos; en buena medida presididos por la fundación de software Apache. Algunos de sus componentes son HDFS, MapReduce, YARN y Spark.

Las ventajas más importantes de Hadoop son su efectividad en tiempos y costos. En los costos, ya que, como open source, es gratuito y está disponible para que cualquiera pueda usarla. Además, puede correr con hardware de bajo costo. Por otra parte, puede procesar múltiples partes del conjunto de datos al mismo tiempo, lo que lo hace una herramienta relativamente rápida para el análisis retrospectivo y en profundidad. Si bien el código abierto tiene algunos inconvenientes, la fundación Apache actualiza constantemente el ecosistema de Hadoop. Pero, si aún así existiera un problema en el código, y no hay una fuente para la resolución de problemas, existen versiones comerciales como Cloudera.

NoSQL

Este término viene de Not Only SQL y se utiliza para cubrir un rango de distintas tecnologías de base de datos. Las bases de datos NoSQL son expertas en procesar datos dinámicos, semi estructurados y con baja latencia, lo que hace que estén mejor adaptados para un ambiente de Big Data.

Las diferentes fortalezas y usos de Hadoop y NoSQL frecuentemente se describen como “operacional“ y “analítica“, respectivamente.

NoSQL es más adecuado para tareas operativas, cargas de trabajo interactivas basadas en criterios selectivos donde los datos se pueden procesar en tiempo real. Mientras tanto, Hadoop es más apropiado para el análisis en profundidad de alto rendimiento en retrospectiva, donde se aprovechan la mayor parte o todos los datos. A pesar de que Hadoop y NoSQL se utilizan para distintos propósitos es común que se comercialicen de forma simultánea. Incluso, algunas bases de datos de NoSQL, como HBase, fueron diseñadas primariamente para trabajar con Hadoop.

Infraestructura como servicio


Infraestructura como servicio (IaaS) se refiere a diversos productos que se venden como servicios y se entregan en una red. Mientras que, con la nube, tus analistas sólo necesitan acceso a una aplicación, un servicio basado en la web, donde están alojados todos los recursos y programas necesarios. Una gran ventaja de tener la infraestructura en la nube es que los costos se reducen significativamente, ya que generalmente solo pagas por lo que usas y desde ahí puedes escalar hasta cubrir completamente tus necesidades. Es un servicio que ofrece Amazon Web Services (AWS), Google Cloud Platform (GPC) y otras compañías. Además, otra ventaja de la nube es que te permite saber más rápido lo que está ocurriendo, para poder solucionarlo de manera más eficiente.

Claro que tener tus datos alojados en un servicio de terceros ocasiona que te preguntes acerca de la seguridad. Ésta es la razón por la que muchos prefieren tener su información confidencial en una ubicación privada y utilizan la nube para datos menos privados. Además, es importante recordar que existen formas de elevar el nivel de seguridad de tus datos que se encuentran en la nube.

Otra ventaja de contar con una infraestructura en la nube es que puedes utilizar servicios de monitoreo, los cuales a través de una sola plataforma, como es el caso de inteligencia de datos te permiten tener la información precisa que necesitas en cualquier momento, ya que, mediante el uso de la auto-instrumentación se recolectan millones de métricas y eventos que provienen del software, la infraestructura, los visitantes y el ecosistema tecnológico. Al tener estos datos al alcance de la nube resulta sencillo también hacer consultas que sean necesarias en muy poco tiempo.

Como hemos podido revisar, Big Data no tiene una definición única. Sin embargo, es importante tener la infraestructura adecuada para manejar los datos que aquí se reúnen, además de poder contar con una herramienta capaz de otorgar análisis rápidos.

¿Te gustaría descubrir cómo una estrategia de Big Data te puede ayudar a mejorar tu negocio?

Contáctanos

Por favor introduce tus datos y nos pondremos en contacto contigo.

¿Cuál es la importancia de una buena experiencia de usuario?

De nada sirve gastar mucho tiempo y dinero en una interfaz gráfica maravillosa si tus clientes no pueden completar un proceso en tu aplicación web.

¿Por qué brindar una buena experiencia de usuario? Cuando hablamos sobre este tema y nos referimos a un negocio digital la respuesta parece evidente: porque queremos conservar a nuestros clientes. Y sí, por supuesto, esto es de suma importancia. De nada sirve haber gastado mucho tiempo y dinero en una interfaz gráfica maravillosa para un e-Commerce si la aplicación no va a cumplir su función: desde completar una compra en línea hasta recibir lo que pediste en la puerta de tu casa.

Supongamos que Mariana, una diseñadora que trabaja en una agencia de publicidad, está planeando sus muy ansiadas y próximas vacaciones a un paraíso del Caribe. En una oportunidad, entra a la página de la tienda“ZYW” para buscar un nuevo traje de baño. Selecciona 3 y los añade al carrito, pero al momento de escoger pago con tarjeta de crédito, le aparece un error. Se detiene un momento y decide intentarlo nuevamente: pudo tratarse de su conexión a internet, piensa. Nuevamente encuentra el error en el mismo punto. ¿ZYW está brindando una buena experiencia de usuario? Es claro que no. Pero aquí quizá hay una pregunta más importante ¿ZYW sabe que sus usuarios experimentan estos problemas, es decir, sabe que sus usuarios están poco satisfechos? ¿Sabe la empresa en qué momento los usuarios están abandonando su sitio? Probablemente no lo sabe, lo que desde luego es crítico.

Ahora imagina que sumado a lo anterior Mariana se da cuenta de que el mismo día de la compra alguien logró acceder a los datos de su tarjeta de crédito e hizo varias compras. El último lugar donde dio sus datos fue, exactamente ZYW. Razón por demás suficiente para no confiar en ellos, poner una queja en sus redes sociales y escribir comentarios negativos de la tienda a todos sus conocidos. La tienda no solamente tiene problemas al brindar una buena experiencia de usuario, tampoco tiene una estrategia de ciberseguridad.

Una vez pasado el trago amargo, aquí vienen las buenas noticias. ¡Hay manera de brindar una buena experiencia de usuario! Para esto, lo primero que debes saber es que necesitas más que únicamente desarrolladores de software brillantes. Es necesario que cuentes con un equipo multidisciplinario que tenga una estrategia unificada de gestión de experiencia de usuario y una visión completa del desempeño de tu software (para lo cual la métrica APDEX puede ser una gran aliada). Ahora bien ¿cómo lo vamos a conseguir? La solución debe proveer de datos a quien los necesite, cuando los necesite, en la forma que los necesite.

El primer paso es APM

APM te brinda métricas sobre el desempeño de tu aplicación en tiempo real. Esto será de gran ayuda para ver el desempeño de la aplicación en líneas de código específicas. Podrás ver cómo está conectado cada servicio y obtener la información que necesitas para resolver tus problemas rápidamente. Además, con monitoreo de infraestructura dinámica podrás vincular los datos de APM con los que aquí se recaben, de forma que obtengas un contexto completo. Por ejemplo, puedes reconocer las transacciones que tengan un mayor porcentaje de error. De esa forma, en estas transacciones puedes identificar qué clase de error están teniendo e incluso el mensaje con el que se está respondiendo. Estas fallas ocurren cuando hay timeouts, es decir errores por exceder tiempos de espera. Lo que se resume en que uno o varios usuarios estuvieron esperando para ver una página, luego de “x“ cantidad de tiempo y finalmente apareció un mensaje señalando el fallo.

Crea más visibilidad para el frontend con datos de usuarios reales

Se estima que el código en el lado del cliente que se ejecuta en el navegador es el responsable hasta del 90% del tiempo de espera del usuario. Sin embargo, se conoce poco de lo que pasa en el navegador, especialmente si se trata de aplicaciones de una sola página. Con monitoreo de usuarios reales (RUM, por sus siglas en inglés) se puede obtener una mayor visibilidad de lo que sucede en las aplicaciones web, en cada punto de la cadena, con una integración tal que permite a los desarrolladores de frontend y a los de backend colaborar de forma efectiva. Con esta herramienta se puede saber en cualquier momento cómo es la experiencia de los usuarios : desde cuánto tiempo está tardando en cargar la página, hasta comprender los errores que se produjeron. Los resultados permitirán la creación de experiencias digitales más rápidas y atractivas para los clientes.

Dale a tus aplicaciones móviles los requerimientos necesarios

Lanzar una aplicación móvil es una decisión arriesgada. Los constantes despliegues de código y el gran impacto, a veces dramático, de las calificaciones en las descargas de los usuarios ocasionan que haya mucha presión sobre los equipos de aplicaciones móviles. Aunado a esto, una vez que ya se encuentran en el mundo real, los desarrolladores pierden el foco en el desempeño. ¿Se cae la app? ¿por qué razón?¿cómo interactúan los usuarios con la aplicación? ¿de cuánto es el consumo de recursos?

Con monitoreo de aplicaciones móviles podrás obtener los datos de desempeño que necesitas para asegurarte que tus clientes tengan una gran experiencia, incluidos datos de rendimiento sobre redes y servicios de terceros; tendencias de frecuencia; información sobre errores HTTP, etcétera. Incluso puedes rastrear y analizar las tendencias de implementación para que, con cada actualización que lances, la aplicación mejore. Esto no es todo, además, el monitoreo ofrece una solución integral para desarrolladores móviles, desarrolladores backend y operaciones para monitorear, administrar y mejorar el rendimiento extremo a extremo de las aplicaciones móviles.

Implementa monitoreo sintético

El monitoreo sintético te permitirá asegurar que tu sitio web está activo, y los servicios críticos y transacciones con los clientes estén disponibles y funcionando correctamente en diferentes geografías y plataformas. Mientras que, con inteligencia de datos podrás monitorear el comportamiento del usuario de forma que sea posible ayudar a validar la disponibilidad, funcionalidad y el rendimiento para que pueda hacerse siempre un análisis de última hora en su aplicación.

Unificar el conocimiento

La clave para mantener una gran experiencia digital para los clientes es hacer los datos relevantes fácilmente accesibles a cualquiera que los necesite en la empresa. Crear y difundir una “única fuente de verdad” beneficia a todas las partes interesadas (desarrolladores, ingenieros de operaciones, ventas, marketing, gestión de productos, servicio al cliente,  ejecutivos) a colaborar de forma más eficiente, rápida y uniforme.

Todas las herramientas que hemos mencionado comparten una poderosa plataforma fácil de usar: inteligencia de datos, la cual está diseñada para tener un único panel de vista que permita analizar los datos enviados de dichas herramientas. De esta forma, es más fácil ayudar a los interesados y comprender mejor lo que los clientes están experimentando.

Asegúrate no sólo de brindar una buena experiencia de usuario, sino la mejor. Conoce las herramientas que te ayudarán a lograrlo: APM, inteligencia de datos, monitoreo sintético, RUM.

Contáctanos

Por favor introduce tus datos y nos pondremos en contacto contigo.

¿Qué es una compañía moderna de software?

Ser una compañía moderna de software realmente es una amalgama multifacética que incorpora diversos factores de cómo las organizaciones crean, envían y mantienen software.

Traducido de: What Is a Modern Software Company? por Victor Soares https://blog.newrelic.com/technology/modern-software-company/

¿Qué significa ser una “compañía moderna de software“? ¿Significa que eres un startup nativo de la nube que construye las interfaces de usuario más increíbles de la web? ¿Significa que tienes un logotipo genial y un equipo de desarrollo excepcional trabajando en los frameworks más vanguardistas?

Ser una compañía moderna de software es un poco más complicado que todo eso. Después de todo, ninguna compañía utiliza los juguetes más actuales y los grados de adopción de tecnología varían ampliamente, desde las pruebas de concepto hasta implementaciones de producción completa. Entonces tal vez –solo tal vez– ser una compañía moderna de software realmente es una amalgama multifacética que incorpora diversos factores de cómo las organizaciones crean, envían y mantienen software.

¿Tecnología + cultura = moderna?

Tampoco es únicamente respecto a la tecnología. ¿Qué pasa si la compañía moderna de software representa una combinación particular de tecnología y cultura? Claro, la tecnología es una parte muy importante de lo que vuelve a una operación de software moderna. Las compañías modernas frecuentemente habitan en la nube, corren contenedores, usan orquestación, y emplean toda clase de patrones de arquitectura interesantes, desde microservicios hasta navegación de cargas basada en colas y arquitectura sin servidores.

Pero el aspecto cultural es igual de crítico. Las verdaderas compañías modernas de software utilizan el tipo de buenas prácticas que describe Gene Kim en DevOps Handbook y el libro de Google Site Reliability Engineering, desde equipos de desarrollo que poseen el código que crean hasta la integración continua/despliegue permanente de actualizaciones de software.

Entonces ¿qué tal si definimos una compañía moderna de software como líder en el uso de nuevas tecnologías y cultura para entregar valor al cliente de una forma más ágil?

Por qué importa ser “moderno“

Volverte una compañía moderna de software no es únicamente un asunto semántico. Las compañías modernas de software demuestran una mayor habilidad para desarrollar y evolucionar rápidamente para mantenerse al día con las necesidades y expectativas de los clientes. Esto es el caso tanto en un solo momento como a lo largo del tiempo.

Manejar eficientemente el tráfico de los e-Commerce durante las horas pico, por ejemplo, demanda recursos de frontend y backend dinámicamente escalables. De forma similar, dedicar la máxima cantidad de recursos limitados a innovación en lugar de al trabajo agotador significa invertir en herramientas y automatización para eliminar trabajos repetitivos que las computadoras pueden llevar a cabo de forma más adecuada y para mantener las cosas funcionando de la forma más eficiente y predictiva posible.

Entonces, ¿por qué no todo el mundo hace esto? ¿Por qué no todas las compañías emplean las últimas herramientas y procesos en un esfuerzo por convertirse en una empresa de software moderna? Bueno, resulta que el cambio es realmente difícil.

No es sencillo volverse moderno

En los años noventas, por ejemplo, el desarrollo en cascada era la forma normal de ejecución en los proyectos: mucha gente pasó meses definiendo documentos de 100 páginas con requisitos funcionales y creando diseños.

Desafortunadamente, los ingenieros no hablaron con la gente que estaba creando los requisitos iniciales más de lo que lo hicieron con los clientes reales. No es de extrañarse que al final de la cascada, los equipos a menudo enfrentaran fallas –los proyectos estaban por encima de lo presupuestado o, aún peor, los ingenieros encontraron que había productos y servicios que los clientes ni siquiera querían, no les gustaban o no iban a usar. Fue un desastre.

Como respuesta, en 2001 un grupo de ingenieros se reunieron para escribir el Manifiesto Ágil. (Dato curioso: Ward Cunningham de la empresa New Relic estaba en esa sala.) Estaban tratando de resolver algunos de los peores errores a los que nos enfrentábamos construyendo software en esos días. A pesar de los duros cambios requeridos, para 2010 muchas compañías de software eran compañías de software ágil (la definición de compañía moderna de software de ese momento) y muchas de las que nos se volvieran ágiles ya no existían.

Hoy en día, así como el concepto de compañía moderna de software sigue evolucionando, necesitamos nuevas maneras de medir dónde las empresas caen en el camino hacia un moderno desarrollo de software.

“Modernidad“ es un espectro

Desafortunadamente, no hay un único indicador que nos permita saber qué tan “moderna“ es una compañía de software. No es una cuestión de tamaño o edad, por ejemplo. De hecho, las compañías modernas de software actuales van desde startups nuevas hasta empresas establecidas. Emplean una amplia variedad de tecnologías de vanguardia y adoptan una gama considerable de mejores prácticas culturales. Igual de importante es que muchos de estos rasgos no son binarios sino que siguen un espectro de legado por un lado y moderno por el otro.

Por ejemplo, una pregunta podría ser dónde reside la mayor parte de la infraestructura de una empresa: ¿en la nube o en un centro de datos privado? Si la respuesta se inclina a la nube, los consideramos más modernos. Si la respuesta es completamente en un centro de datos privado, eso tiende a acercarlo más al estatus de legado.

Entonces ¿dónde están los aspectos clave que determinan si una organización en particular se encuentra en el espectro de “compañía moderna de software“? La tabla de abajo ofrece algunos ejemplos:

Legado Moderno
Centro de datos privado Centro de datos público/privado, nativo de la nube
Despliegues manualess poco frecuentes CI/CD (por lo menos diariamente)
Despliegue de la producción completa Despliegues canario/azul-verde
Aplicaciones monolíticas Arquitectura de microservicios
Servidores físicos Máquinas virtuales
Máquinas virtuales Contenedores
Contenedores Funciones sin servidor
Despliegues manuales de contenedores Orquestación de contenedores
Monitoreos sólo con Ops Equipos de observabilidad
Tener Devs y Ops por separado DevOps y SRE incrustados
Girar servidores manualmente Autoescala dinámica
Monitoreo de desempeño vía quejas de Twitter SLAs internos
Rastrear sólo métricas internas Enfoque en la experiencia digital de cliente
Monitorear partes específicas del sistema Monitorear todo
Monitoreo directo de fábrica Instrumentación personalizada
Ir de bomberazo en bomberazo Inversiones en reducción de trabajo
Recuperación de incidente reactivos Organizar simulacros
Sin soluciones de monitoreo APM, infraestructura, móvil, navegador y monitoreo sintético

Date cuenta de que algunas prácticas -como el uso de máquinas virtuales, por ejemplo- caen en ambos extremos de varios ejes, dependiendo de con qué los compares. Eso en realidad tiene sentido, ya que una organización que adopta contenedores debería ser considerada más moderna que una que dependa de las máquinas virtuales, pero menos moderna que una empresa que deja de tener servidores.

Obviamente, no hay algo como una “puntuación moderna de software“. Sin embargo, entre más impulse una empresa las tecnologías clave y las mejores prácticas culturales, más moderna se vuelve. Igual de importante es que, el concepto de una organización moderna de software es dinámico, cambia a través del tiempo a medida que las prácticas de vanguardia se generalizan y aparecen nuevas tecnologías.

Esperamos que los factores aquí enlistados puedan ayudarte a ver el lugar de tu organización en el espectro de software moderno, y sugerir caminos para ser aún más modernos. Si quieres que la confianza se mueva rápidamente y se mantenga a la vanguardia del ritmo cada vez más acelerado del cambio tecnológico, sin mencionar a tu competencia, volverse una compañía moderna de software ya no es opcional.

¿Quieres comenzar la transformación de tu compañía hacia una moderna? Comienza por implementar una estrategia completa de monitoreo.

Contáctanos

Por favor introduce tus datos y nos pondremos en contacto contigo.

Cinco ideas sobre la adopción de microservicios y arquitecturas de contenedores

Las plataformas de contenedores democratizan algunas capacidades radicalmente poderosas, y vale la pena tomarlas en serio.

Traducido de: Five Thoughts About Adopting Microservice and Container Architectures por Jonathan Owens https://blog.newrelic.com/technology/five-thoughts-about-adopting-microservices/

Como ingeniero de integridad tecnológica líder (Site Reliability Engineer) para el proyecto Container Fabric de New Relic (nuestra plataforma interna de orquestación de contenedores y tiempo de ejecución), paso mucho tiempo respondiendo preguntas de clientes existentes y potenciales sobre cómo usamos y administramos los contenedores para crear una plataforma compuesta de docenas de microservicios.

Definitivamente nosotros nos consideramos de los primeros adoptantes de contenedores y comenzamos a empaquetar servicios con ellos casi tan pronto como Docker lanzó su primera versión lista para producción en el verano de 2014. Muchos de los clientes con los que he hablado ahora están empezando –o pensando en empezar– tales caminos, y quieren saber todo lo que nosotros sabemos. Quieren saber cómo lo hacemos funcionar y cómo lo diseñamos. Pero parte del proceso, que me gustaría resaltar, es lo que necesitan saber sobre dónde tuvimos que luchar a lo largo del camino.

Con esto en mente, aquí hay 5 conclusiones clave que me gustaría compartir con cualquiera que pondere los contenedores y microservicios:

1. Nunca pares de desarrollar

Toma tu proyecto de adopción seriamente y trátalo como un producto. Dale un nombre, incluso el de una marca interna, y una clara visión del producto. Debe ser administrado y se le debe dotar de vida.

Nuestra versión actual de Container Fabric no es nuestro primer intento de orquestación y entrega interna. Construimos nuestra versión original en 2014 y una vez que llegamos a todo lo que pensamos que necesitábamos, dejamos de desarrollarla. No teníamos una visión completa para una plataforma de implementación, como un producto que nuestros desarrolladores disfrutarían usando, y construimos algo que satisfacía únicamente nuestra necesidad de una capa de abstracción consistente.

Pasaron 2 años antes de que comenzáramos a reinvertir en la plataforma de contenedores. Nuestra primera versión no dejó de ser útil, pero fallamos en captar muchas de las mejoras incrementales que surgieron durante el rápido desarrollo de esta fase en Docker.

Uno de nuestros clientes de más tiempo emprendió un proceso similar de orquestación de contenedores/microservicios por el mismo periodo de tiempo, y están mucho más avanzados de lo que nosotros estamos al día de hoy. Cuando les preguntamos cómo llegaron tan lejos, su respuesta fue dolorosamente simple: “Simplemente nunca dejamos de trabajar en eso.“

2. Constrúyelo paso a paso y empieza con los primeros adoptantes

Cuando estás cambiando a contenedores, adoptar una nueva tecnología (como Kubernetes) no significa que saltes hasta el extremo más profundo y muevas toda tu flota de producción a clusters gigantes de alta disponibilidad. ¿No es más fácil construir cada cosa pieza por pieza?

Cuando comenzamos con Container Fabric, restringimos nuestro despliegue al caso de uso más simple que pudiéramos ofrecer: servicios HTTP sin estado, sin persistencia, sin protocolos no HTTP y con un solo esquema de implementación. Esto redujo la huella de la función de la plataforma a una que sabíamos, podía servir de manera efectiva en un plazo razonable.

Esto era importante porque una plataforma de programación de contenedores no ofrece todo. Todavía necesitábamos monitorear la plataforma, implementar cambios, manejar secretos, configurar el equilibrio de carga automático y capturar registros: todo lo que viene con una plataforma de servicios enriquecida. Restringir el tipo de servicio objetivo hizo más fácil para nosotros razonar sobre los componentes de la plataforma.

Entonces, si estás seguro de que la orquestación de contenedores es lo que tú necesitas, analiza detenidamente qué es lo que la plataforma de contenedores ofrece y piensa en qué le falta. ¿Qué tendrás que construir encima de esta plataforma para apoyar la particularidad de tus servicios y tu infraestructura en su contexto?

También, debes entender la cultura y disponibilidad de tus equipos. ¿Quiénes son los primeros adoptantes en tu compañía? ¿Qué equipos están preparados para cambiar a un nuevo paradigma? ¿Qué equipos están construyendo servicios que encajarían bien con una arquitectura de microservicios? ¿Qué equipos están atrapados con los legados de monolitos y necesitan más tiempo, planeación y experimentación?

3. Un solo tamaño no ajusta para todo

Cuando se trata de contenedores y microservicios, algunos sistemas simplemente no se ajustan al modelo, y es más fácil si reconoces esto desde el principio. La tecnología en nuevos sistemas frecuentemente es tan nueva que el esfuerzo de portar viejos sistemas puede ser más problemático de lo que vale.

Nuestra plataforma continúa sirviendo primordialmente servicios HTTP, pero también estamos comenzando a manejar más servicios de procesamiento de flujo. Seguimos sin hacer almacenamiento o bases de datos persistentes. (El equipo de base de datos maneja esto con Megabase.) A algunas partes de la plataforma de New Relic podría tomarles años moverse a Container Fabric, si alguna vez las movemos. ¡Y está bien! Las plataformas de contenedores no tienen el monopolio de buenas prácticas de implementación.

Las últimas tecnologías y arquitecturas se tratan de iteración rápida y control descentralizado, por lo que si esas cuestiones no son cruciales para las metas de tu negocio, sólo deja que esos viejos sistemas heredados sigan avanzando hasta que tengas una necesidad lógica de negocios para migrarlos.

4. Los cambios de tecnología son cambios organizacionales

Es fácil empezar a usar una tecnología antes de pensar cómo utilizar esa tecnología. Las nuevas arquitecturas típicamente requieren de nuevo conocimiento de arquitectura y nuevas ideas sobre cómo implementar sistemas. Los patrones de microservicios afectan las arquitecturas de ambos, de los software y de las organizaciones que las utilizan.

A medida que los equipos de New Relic movían sus servicios al Container Fabric, la carga de trabajo de sus operaciones solía reducirse. En algunos casos, los equipos se deshicieron de una considerable carga de trabajo, liberándolos para trabajar en otros proyectos que encontraron más gratificantes. Éste es el mejor caso de automatización, el que elimina una carga de trabajo pesada y estamos encantados de verlo. Los equipos que han migrado obtienen más libertad para construir software que encante a nuestros clientes.

Las organizaciones que estén considerando moverse a una arquitectura de contenedores y microservicios deberían preguntarse a sí mismos las siguientes cuestiones:

¿Qué producto provee tu grupo de operaciones a los desarrolladores y qué capa de abstracción conlleva ese producto?

¿Ése es el correcto para tu negocio o los contenedores se ajustan mejor?

¿Los contenedores son mejores, tanto que están deseando cambiar la abstracción y, por lo tanto, el producto completo que tu equipo de operación ofrece, para utilizarlo?

¿Estás listo para crear nuevos puestos para administrar la escala y la confiabilidad de esta nueva abstracción?

Ninguna organización hace un cambio como éste de la noche a la mañana. La travesía desde una nueva arquitectura idealizada hasta el primer despliegue de producción requiere cambiar muchas mentes y crear nuevos procesos, lo que no siempre es divertido.

5. Recuerda, construir software es una experiencia humana

Una plataforma de contenedores rica y compleja necesita cientos de años-persona de experiencia para construir, mantener y escalar. Estas plataformas y arquitecturas requieren que aceptes nuevos contextos y exijas que tu organización acepte concesiones en su diseño a medida que te adaptas en el caso de uso. Adoptar una arquitectura de microservicios en contenedores es una gran labor que probablemente cambie el equilibrio de trabajo a lo largo de todos tus equipos; afectará la forma en la que ocupan el tiempo; puede que hasta cambie la felicidad que experimentan en sus trabajos. A menos que realmente consideres los aspectos humanos de adopción de la plataforma, la migración va a ser mucho más difícil de lo que necesita ser.

Por nuestra estructura organizacional, nos hemos posicionado bien para una migración exitosa. Cada servicio en New Relic es propiedad de un equipo: ellos lo planean, programan, despliegan y operan. Esta estructura ha estado vigente por años y la plataforma Container Fabric hace el trabajo de estos equipos propietarios aún más simple, los que les permite avanzar en la abstracción de las capas y acercarse a los objetivos de negocio.

La promesa de los contenedores, y especialmente de sus plataformas de programación, frecuentemente se lee como “así es como todo el mundo debería desarrollar software; está lleno de magia“. Y frecuentemente eso es cierto: las plataformas de contenedores democratizan algunas capacidades radicalmente poderosas, y vale la pena tomarlas en serio. Pero recuerda que todas resolvieron un problema de productividad en una plataforma de forma tajante. Necesitas racionalizar si esa forma puede también ser la tuya.

¿Tu empresa está lista para construir una plataforma de contenedores rica y compleja?

Contáctanos

Por favor introduce tus datos y nos pondremos en contacto contigo.

¿Por qué la URL de tu sitio web todavía no comienza con “HTTPS“?

Si quieres brindar a tus usuarios una mayor confiabilidad en tu sitio, no dejes de incluir un certificado SSL para obtener la leyenda de “sitio seguro“.

Desde hace 2 años ha habido rumores acerca de la postura de Google para forzar el encriptamiento HTTPS. En 2017 esta compañía comenzó a advertir a los propietarios de los sitios que, en caso de no contar con un certificado SSL se mostraría un mensaje a los usuarios de que era un sitio no seguro. Como muchos de ustedes saben, a partir de julio de este año ya se muestra dicho mensaje, el cual advierte a cualquiera que su equipo podría resultar dañado de continuar navegando ahí. Si aún no estás seguro de la importancia de contar con este certificado, continúa leyendo.

 

¿Cómo funciona?

Los certificados SSL ayudan a reducir los ciberdelitos que, en muchos casos, se llevan a cabo a partir de las lagunas de seguridad que hay en los navegadores web. Por ejemplo, si la conexión entre el navegador del usuario y el servidor no es segura, un hacker con una habilidad considerable podría robar información sensible como números de tarjetas de crédito o números de télefono, mientras alguien está llenando un formulario en línea. Lo que resultaría en pérdidas para un e-commerce ya que los usuarios no confiarán más en dicho sitio.

¿Por qué es importante tener un certificado SSL?

En el caso de que todavía necesitas más razones para optar por un certificado SSL, aquí hay algunas más:

Seguridad para todos tus subdominios: Un tipo particular de certificado SSL, conocido como Wildcard te permite mantener seguro tu sitio principal y tus subdominios, como blog.tudominio.com con un único certificado. Esto es especialmente útil si tienes una propiedad digital o si mantienes un sitio grande con diversos subdominios. De otra forma tendrías que instalar diferentes certificados para cada uno de tus subdominios.

Credibilidad y confiabilidad por parte de tus usuarios: Uno de los beneficios más importantes del certificado es que ayudará a ganar la confianza del visitante. Con el despliegue del candado que mencionamos anteriormente esto mostrará que el sitio es seguro y que la seguridad y privacidad son tomadas en serio.

Ventajas para SEO: Otro beneficio es la mejora en las calificaciones de SEO que tendrá el sitio que cuenta con un certificado. ¿Por qué? Debido al impulso que Google ha dado a la encriptación HTTPS, también otorga un impulso a los sitios que ya cuentan con el certificado. Aunque puede que el empuje no sea sustancial, es un hecho que contar con el certificado brindará ventaja sobre los competidores que aún no cuentan con él.

¿Cómo obtener un certificado SSL?

La forma más común de obtener el certificado SSL es preguntar a tu proveedor de hosting si los ofrece. Anteriormente, siempre que se hablaba de contratar estos certificados se trataba de un recurso pagado. Sin embargo cada vez más compañías se suman a ofrecer este certificado de manera gratuita.

De cualquier forma, en algunas circunstancias es preferible optar por un certificado pagado. Si tienes un sitio de nivel empresarial, puedes considerar un certificado de EV, el cual tiene procesos de autenticación muy estrictos y agregará indicadores de confianza aún más visibles, como el nombre de su empresa, abreviatura del país, barra verde en el navegador URL y más.

En resumen activar el certificado SSL para tu sitio web tiene diferentes beneficios, ya sea personal o de negocios, sin mencionar que algunos proveedores de hosting han hecho su instalación rápida y fácil. Evita la pérdida de confianza de tus clientes y adquiere de inmediato un certificado SSL.

¿Quieres más información o asesoría sobre la importancia de tener un certificado SSL?

Contáctanos

Por favor introduce tus datos y nos pondremos en contacto contigo.

Ventajas de las alertas inteligentes para tu aplicación

Implementa alertas inteligentes en tu sitio y configúralas para que notifiquen sólo lo que necesitas y establezcas como crítico.

Las alertas no son algo nuevo para los equipos de IT. En cambio, las alertas inteligentes sí, ya que pueden ayudarte a prevenir problemas e, incluso, pueden salvarte en caso de que un imprevisto se presente. Todo esto, sin que los usuarios de tu sitio web lo noten. ¿No suena asombroso? Por ejemplo, podemos configurar que se dispare una alerta cuando la cantidad de usuarios que están haciendo procesos de checkout sea superior al límite de consumo de recursos de base de datos y no se haya desplegado una nueva instancia de cómputo. Lo que contrasta con recibir una notificación cuando el proceso de compra mande un “error 500“.

Recordemos que una alerta típica o de vieja generación, de aplicaciones monolíticas, tenía criterios muy básicos, como sí y no. Positivo y falso. Son alertas muy elementales. La nueva generación de alertas pueden configurarse con criterios más complejos y una personalización que resulte significativa. ¿Cómo podemos sacar provecho de estas alertas inteligentes? Si estás en el mundo DevOps y de microservicios, donde los despliegues de nuevos servicios y funcionalidades se realizan frecuentemente: cada mes, cada semana o, incluso, diario, sabes que los equipos IT encuentran difícil monitorear y aplicar condiciones consistentes de alertas a estas nuevas aplicaciones. Por fortuna, con este nuevo sistema podrás configurar políticas que se ajustan automáticamente a la infraestructura dinámica, conservando sus características en cada despliegue. Lo que representa un gran ahorro de tiempo frente al método anterior en el que tenías que crear y adecuar alertas manualmente cada vez que la infraestructura cambiaba.


Alertas inteligentes vs alertas tradicionales

Las alertas tradicionales nos indicaban que algo estaba o no sucediendo en la aplicación. Es decir, era un problema o no lo era. Esto significaba estar recibiendo notificaciones constantemente sobre todo tipo de fallas, desde las más simples hasta las más complejas, pero con el agravante de que estas últimas no venían con contexto alguno. Podías tener un problema grave, pero no sabías de dónde provenía o qué revisar para saber cuál era la falla.

En cambio, con las alertas inteligentes el enfoque cambia por completo. Supongamos que queremos recibir alertas en caso de que la tasa de error promedio aumente 3% en 5 minutos. Si disponemos de una alerta inteligente para este fin, sólo recibiremos una notificación en el caso de que nuestro umbral dinámico note algún comportamiento atípico en la línea que muestra el comportamiento de la tasa de error. Esto quiere decir que no sólo toma un número como referencia para disparar o no una alerta, sino que lo hace con base en una métrica determinada previamente establecida. Por ello, ya no recibirás alertas sólo por recibir alertas, de cuestiones que quizá no eran relevantes o ya se estaban corrigiendo, sino que te llegarán de temas que realmente requieren atención.

¿Cuáles son las ventajas de implementar alertas inteligentes?

El sistema de alertas inteligentes se hizo pensando en darle a los clientes un lugar único donde puedan identificar y comenzar a solucionar un problema con su software o infraestructura. Cuando se cuenta con una sola plataforma, en la que puedes consultar distintas herramientas de monitoreo, incluyendo alertas inteligentes, puedes correlacionar dos o más métricas que te arrojen información valiosa. Si recibes una notificación porque una URL no carga correctamente puedes relacionar este hecho con el throughput de tu sitio y probablemente concluyas que es en éste donde se encuentra el problema, por poner un caso de utilidad. Además, las alertas brindan la oportunidad de tener un mejor soporte para los equipos multifuncionales, que son responsables de cuestiones como servidores, bases de datos, aplicaciones web y móviles. Todo en un mismo lugar.

Mientras tanto, con un sistema de alertas tradicionales, probablemente necesitarías de varias herramientas que te permitieran llegar a alguna conclusión como la ya mencionada (que el problema estaba en el throughput, por ejemplo). Además de que te tomaría mucho más tiempo y recursos. Por esa razón, el sistema de alertas inteligentes puede ser una gran ventaja en resolución eficaz de problemas.

Establece un criterio para configurar tus alertas

Seguramente estás entusiasmado de haber leído las ventajas de implementar las alertas inteligentes, y te gustaría tenerlas cuanto antes. Lo primero que debemos tener en cuenta es: qué es lo que queremos lograr. Para eso debemos establecer una base o proyección para cada una de las métricas, así como para los criterios de alerta. De esta forma, lo mejor es comenzar con los límites que se encuentran dentro de los niveles de rendimiento actuales de la aplicación. Por ejemplo, si un tiempo de carga es de 4 segundos, tal vez quieras establecer el límite en 5 segundos para detonar una alerta. La base se puede ir ajustando, mientras el equipo adecúa el rendimiento y se acerca a lo que se considera “aceptable“. Por supuesto, existe la posibilidad de que no se tenga que reestructurar ese número establecido en un principio por varios meses, pero es crítico saber si hay algo que está operando fuera de la norma. Ésa es la razón por la cual resulta importante definir los criterios de monitoreo.

Si quisiéramos activar, por ejemplo, una alerta para APDEX, lo primero sería establecer un umbral cerca del nivel promedio de satisfacción. El número ideal estaría en 0.94 y 0.85. Ahora bien, las alertas inteligentes cuentan con una serie de preferencias que permiten no solamente seleccionar sobre qué queremos ser alertados, sino también las condiciones y en qué canales dependiendo de la urgencia de la situación. Esto significa que el canal de chat interno de tu empresa puede ser una vía si se trata de algo con urgencia media y el correo electrónico puede ser un canal más apropiado en caso de que un error no pueda esperar.
 

Finalmente, las alertas inteligentes a diferencia de las tradicionales pueden ayudarte a ahorrar tiempo y recursos valiosos de tus equipos. También, pueden ayudarte a resolver problemas de forma rápida y eficiente antes de que afecte a los usuarios de tu sitio, cosas que difícilmente te brindaría una alerta que te notificara en todo momento cuestiones que no son críticas.

¿Quieres implementar alertas inteligentes en tu sitio web?

Contáctanos

Por favor introduce tus datos y nos pondremos en contacto contigo.

Los 10 errores más comunes en las estrategias de monitoreo de aplicaciones

Elabora una estrategia global de monitoreo para tu aplicación web y sácale el mayor provecho posible, evitando los puntos negativos que desarrollamos a continuación.

Seguramente has escuchado sobre las ventajas de monitorear las aplicaciones web. Sin embargo, aún cuando estés empezando una estrategia de monitoreo y emprendas acciones a partir de los datos que has obtenido, es muy importante asegurarse de no estar cometiendo alguno de los siguientes errores para poder sacar el mayor provecho de tu estrategia.

 

1. Monitorear únicamente lo que se cree que va a fallar

Es común asumir que algunos componentes de nuestro ecosistema digital tienen poca probabilidad de fallar. Por lo anterior, podríamos abocarnos únicamente en monitorear aquello que creemos que podría fallar en algún momento. En una estrategia de “observabilidad”, el monitoreo debe consistir en la suma de todos los componentes, ya no sólo esfuerzos unitarios y aislados. Por esa razón, es importante monitorear para saber detectar fallas en los elementos y también para observar el comportamiento de la aplicación, como la suma de todas sus partes. De esa forma podremos descubrir, detectar y prevenir comportamientos inesperados en el ecosistema.

2. Manejar unidades incompatibles entre distintos módulos de monitoreo

Es importante tener claro qué unidades y qué métricas podemos utilizar para los módulos o procesos de nuestras aplicaciones. De poco sirve tener una estrategia de monitoreo global si las unidades que usamos en distintos módulos, sistemas o plataformas de monitoreo son incomparables o incompatibles, ya que no podremos llevar a cabo procesos de inteligencia de datos que nos den respuesta a nuestras necesidades.   

3. No tener un baseline

Si no cuentas con una base como referencia, respecto al tráfico que esperas de tu aplicación, tanto para un día “normal”, así como para uno extraordinario, donde se tendrá un evento especial, no podrás realizar comparativa alguna. Es decir, no existirán información y data suficiente para saber si tuviste o no el tráfico esperado, por mencionar un ejemplo.

4. No actualizar el baseline conforme el uso de la aplicación cambia

En el punto anterior enfatizamos la importancia de contar con una base comparativa, pero es necesario también que ésta se actualice conforme cambian el comportamiento y los procesos de una aplicación. Es decir, es crítico realizar las actualizaciones en nuestra estrategia de monitoreo de aplicaciones si esperamos, por ejemplo, un evento que podría presentar una mayor o menor demanda; o si se agregó un nuevo componente, que acelera la entrega del contenido; o si una herramienta está comprimiendo las imágenes de una aplicación. Es muy importante actualizar y examinar que la base, con la cual estamos trabajando, se encuentre vigente y actualizada.

5. Tener toda la información, pero sin ser explotada  

Sabemos que la rapidez con la que debes resolver un problema técnico es fundamental. Por esa razón, resulta de gran ayuda implementar herramientas de monitoreo que te permitan agilizar la toma de decisiones para encontrar una solución pronta con la que puedas explotar exactamente los datos que necesitas de la forma como tú lo necesitas. De poco sirve contar con una herramienta que recabe gran cantidad de datos si te llevará muchísimo tiempo explotarlos, cruzarlos y dimensionarlos, para llegar a alguna conclusión respecto a un problema.

6.  No hacer monitoreo de experiencia de usuario

¿Sabes qué tan satisfechos se sienten tus usuarios al navegar entre las diferentes secciones de tu sitio? ¿Tus tiempos de respuesta tienen satisfechos a tus usuarios o tus usuarios deciden abandonar tu sitio y se van insatisfechos sin lograr lo que pretendían? Monitorear la satisfacción de usuarios es determinante para que tus conversiones y visitas crezcan. APDEX es una métrica que puede ayudarte con esto.

7.  No conservar un histórico de datos

Sabemos que con los datos históricos de monitoreo puedes evidenciar situaciones de riesgo o comparar eventos. Por lo anterior, mantener esta práctica en nuestras estrategias de monitoreo es crucial para tomar decisiones a futuro basándonos en datos.

8. No hacer una prospección de capacidad con base en datos históricos

Para hacer una prospección de capacidad es necesario analizar los datos de lo ocurrido en un mismo periodo de tiempo anterior (Año vs Año. Primer Trimestre del Año Actual vs Mismo Trimestre del año anterior. Tú defines la temporalidad.) Se trata de que anticipemos y dimensionemos nuestros recursos y/o nuestra infraestructura. Dicha proyección debe realizarse de manera periódica, anteponiendo la base de datos históricos de monitoreo, como fuente principal. De igual forma, por ejemplo, te ayudará a estimar la inversión en tecnología para el próximo presupuesto.

9.  No tener monitoreo de despliegue de código

Como lo explicamos anteriormente, monitorear los despliegues de código nos ayuda a identificar y solucionar rápidamente cualquier problema que surja a partir de un despliegue. Las liberaciones de código pueden realizarse varias veces al día, por diferentes razones y por diferentes equipos de desarrollo. Por ello, es muy importante considerarlo como una práctica en tus estrategias de monitoreo.

10.  No tener alertas que se disparen ante cambios drásticos de comportamiento o tendencia

Las alertas que no consideran un contexto, y que tienen como única finalidad anunciar eventos aislados, no son útiles en las estrategias de monitoreo modernas. Es necesario tener un mecanismo controlado por una herramienta de inteligencia de datos en la que puedas crear alertas que vayan más allá de si algo es “cierto o falso”, sino que puedas adecuarlas a las peculiaridades de tus procesos, para que la alerta tenga sentido, contexto y acción.

¿Quieres salir corriendo y cambiar tu estrategia de monitoreo por completo? Considera estos puntos y haz que sea realmente efectiva.

¿Necesitas ayuda para generar la estrategia de monitoreo alineada a las necesidades de tu empresa?

Contáctanos

Por favor introduce tus datos y nos pondremos en contacto contigo.

10 KPI’s para e-Commerce que no puedes medir con Google Analytics

Conoce estas métricas especializadas y no dependas únicamente de Google Analytics para obtener datos sobre tu aplicación web

Google Analytics es la herramienta útil y básica para reportes analíticos de tráfico en los sitios de comercio electrónico. Sin embargo, existen métricas de gran profundidad y valor que permiten comprender cómo se relaciona la satisfacción de los clientes y las metas de negocio con el desempeño de un ecosistema digital.

 

Si quieres tener a la mano estas métricas en tu aplicación web, acércate a nosotros

Contáctanos

Por favor introduce tus datos y nos pondremos en contacto contigo.

Cómo dimensionar tu infraestructura en la nube

Una de las dudas más comunes al momento de decidir si debo o no migrar mi infraestructura en la nube, son los costos. Conoce cómo puedes ahorrar, migrando de forma segura.

Optar por migrar la infraestructura a la nube es una de las estrategias más populares y generalizadas en estos días para las compañías modernas de software. Esto se debe a sus beneficios, como mayor velocidad o agilidad; razones suficientes para que las compañías se apresuren a migrar su infraestructura y aplicaciones a plataformas de nube públicas, como Amazon Web Services o Google Cloud Platform.

Sin embargo, no deben pasarse por alto las dudas que todavía tienen muchas compañías respecto a migrar o no. Estas inquietudes no están completamente infundadas, existe una posibilidad real de que la migración no sea exitosa. Ahora bien, esto no significa que sea un proceso riesgoso. Si nos detenemos a planear e instrumentar cómo vamos a llevar esto a cabo, será suficiente para explotar todos los beneficios que nos trae estar en la nube. Además de que nos ahorraremos tiempo, costos y esfuerzo.

Si vemos el panorama ante el que estamos, no tendría sentido comenzar a monitorear una vez que ya terminamos de migrar. Entre más temprano comencemos a instrumentar una estrategia de descubrimiento y monitoreo, más rápido podremos llevar a cabo la migración y tendrá más posibilidades de ser exitosa. Por esa razón, a continuación presentamos una guía de este proceso.

Dimensionamiento

Una vez que decidiste migrar a la nube, quizás te preguntes cuál es el siguiente paso que tienes que llevar a cabo, la respuesta es: dimensionar, pero ¿a qué se refiere esto? Cuando tu aplicación tiene una arquitectura monolítica habita, por ejemplo, en 3 servidores. Hasta ahí muy bien. Ahora, el problema que se nos presenta es que no es posible tomar eso mismo y ponerlo en la nube con las mismas características. Es un poco más elaborado que eso.

“¿Por qué no podemos solo tomar lo que tenemos como está y ponerlo en otra parte?“ Bueno, la razón se relaciona directamente con las ventajas de la nube. Cuando una arquitectura habita en un número limitado de servidores no puede moverse nada, sin importar si, por ejemplo, llegan más usuarios a la aplicación o si un día hay una disminución considerable. En cambio, la nube es elástica, lo que significa que es capaz de adaptarse a la demanda. Además, otra razón es que cada uno de los elementos de tu arquitectura van a tener su propio lugar en la nube: bases de datos, caché, aplicación, almacenamiento, etc. Lo que es también una ventaja porque es ahí donde podrás beneficiarte con la reducción de costos, ya que dichos recursos pueden emplearse bajo demanda.

Volviendo al dimensionamiento. Esto puede hacerse de manera práctica mediante un monitoreo con distintas herramientas, como APM o monitoreo de infraestructura dinámica, las cuales nos dará una fotografía clara de los recursos que necesitamos para dimensionar en la nube. Ahora ¿cómo saber que todo funcionará correctamente después de la migración? Ahí los grandes aliados serán los KPI’s: porcentaje de disponibilidad, duración promedio, tiempo de carga de la página, throughput, porcentaje de memoria utilizada, tiempo de respuesta y Apdex. Estos indicadores nos permitirán realizar una comparativa entre nuestra infraestructura monolítica y la dinámica.

Migración

Mientras se migran las aplicaciones a la nube, lo primero que se debe hacer es identificar y corregir cualquier conducta o resultados inesperados tan pronto como sea posible. La detección de errores y problemas oportunos en relación a la nueva arquitectura, desempeño y escala en la nube, es crítico. Tener la información correcta en el momento correcto es la diferencia entre tener éxito o fallar.

Un factor importante, como mencionamos anteriormente, es comparar la infraestructura en un antes y después para saber si la migración fue exitosa o no. ¿Y cómo hacemos eso? Llegó el momento de hacer la comparación de KPI’s antes anunciada. Aquí se podrán comparar las líneas de base que se hicieron en un inicio y se podrán generar tableros para hacer una comparativa en las líneas de base de cada aplicación que se migró. De manera ideal, la comparativa de dicha líneas de base mostrará si la migración fue o no exitosa. Este es el paso más importante de la migración, el cual debe estar respaldado por una estrategia de monitoreo y análisis de datos en tiempo real.

Optimización

Una vez que migramos a la nube, ¿ya está todo listo o necesitamos algo más? Migrar es un proceso y, como tal, es necesario dar el soporte necesario en todas las etapas, incluidas las posteriores a la propia migración. Una vez que nuestra infraestructura ya se encuentra en la nube, el siguiente paso es supervisar los servicios que se están utilizando y optimizarlos para perfeccionar nuestros costos, el desempeño, el escalamiento automático y, sobre todo, mejorar la experiencia del cliente.

Cuando la infraestructura ya está en la nube es momento de evaluar el gasto generado. Esto debido a que, a pesar de que se realizó un dimensionamiento de costos antes de la migración, después de terminado el proceso es necesario verificar los resultados obtenidos. Luego de esto se puede optimizar y ajustar los recursos que se utilizan en la nube. Para esto los equipos de tecnología o DevOps serán de gran ayuda, ya que pueden impactar en los gastos posteriores con acciones que van desde la selección de recursos más eficientes, configuraciones correctas hasta tomar mejores decisiones considerando las variables comerciales.

Como se ha revisado, migrar una infraestructura a la nube es un proceso que puede simplificarse con una estrategia de monitoreo adecuada a las necesidades de cada aplicación y de cada negocio.

Claves de la salud integral de tu aplicación web: consejos de optimizaciones y correcciones por un SRE

Conoce las señales que necesitas identificar para saber si tu aplicación está funcionando correctamente y cómo puedes optimizarlas y corregirlas en esta entrevista con el SRE Alfonso Sánchez.

Sabemos que existen ciertas métricas que nos pueden indicar si una aplicación está o no funcionando correctamente. Estas métricas pueden ser definidas como signos vitales. ¿Por qué los llamamos así?, porque cuando vas a una consulta con el doctor, éste revisa tu respiración, temperatura, frecuencia cardiaca y presión arterial. De manera análoga, si estás a cargo de una aplicación revisas la latencia, el porcentaje de errores, tráfico y la saturación.

Para tener una experiencia de primera mano, nos acercamos con Alfonso Sánchez, ingeniero de integridad tecnológica (SRE) en Menta Network. Él está encargado de diagnosticar problemas en cualquier plataforma tecnológica y determinar sus áreas de oportunidad, por lo cual nos dio algunos tips y consejos para detectar convenientemente si alguno de esto signos vitales está fallando y cómo podemos optimizarlo o corregirlo.

1. ¿Cuándo te detienes a analizar tu aplicación y por qué?

El objetivo de cualquier aplicación es dar un buen servicio a los usuarios. Por ello, las métricas, que son los signos vitales de cualquier aplicación, deben ser analizadas a partir del servicio que ofrezco a mis clientes. De este modo, si la respuesta es “no estoy dando un buen servicio a mi cliente“, debo investigar qué está fallando. Debemos recordar que, más que poner objetivos arbitrarios y decir: ‘mi latencia tiene que ser de equis cantidad. Mi throughput tiene que ser de tanto’, la idea es identificar los problemas del usuario y relacionarlos con alguna de métrica y decir ‘ok, los usuarios se quejan de que de 8 pm a 12 am el sitio está muy lento’. Con esta información, se analiza que en ese momento el througput sube y la latencia también. Esto significa que, para resolver el problema, debo conseguir que, con el mismo throughput, se reduzca la latencia. Es así como, a partir de un problema de los usuarios, es que detectamos que algo está fallando. En la analogía con el doctor. Te pregunta los síntomas que tienes, pero también te pregunta en qué circunstancias te duele la cabeza, por ejemplo. Quizá le respondas, ‘cuando corro, cuando me agito’. Después de esto te toma la presión y concluye te duele la cabeza cuando estás estresado, cuando estás haciendo actividad física y esto sube tu presión.

Tendríamos que escuchar al usuario y relacionar las métricas con situaciones en las que está sufriendo. Porque si hacemos un diagnóstico sin tener información, se hacen cambios en el sistema y luego te das cuenta de que el problema sigue sin resolverse. La métrica te ayuda a darte cuenta cuándo resolviste finalmente el problema. Sólo a partir de este análisis puedes concluir, por ejemplo, que se redujo en un 40% la latencia. Volviendo a la analogía del doctor: has estado a dieta, has hecho ejercicio, comes menos sal, entonces tu presión ha bajado y está ahora en parámetros normales. Es una herramienta de diagnóstico, y es el criterio de éxito, pero no es en sí la solución tener la métrica, ya que el número sin análisis no significa nada.

2. Si luego de un análisis se concluye que la latencia de tu aplicación está fallando ¿cómo puedes corregirla?

Depende mucho de la aplicación, pero, en general, el primer paso que yo reviso siempre es que el servidor de aplicaciones no esté procesando muchas veces lo mismo.Es decir, si la página principal es la misma para todos los usuarios, entonces guardo una copia y le mando la misma copia a todos. Muchas veces lo que veo que hace el servidor es que procesa la misma información dos mil veces para cada usuario y ocupa muchos recursos. La primera optimización es ver qué cosas está procesando de más para poder aliviar la carga del servidor. Ése es un tip muy sencillo y que aplica en muchos casos. Por ello, la latencia puede depender de muchos factores. Por ejemplo, más máquinas. Pensemos que un sitio fue lanzado hace 5 años y tiene un servidor de hace 5 años, que funcionaba para tener mil usuarios y ahora la página tiene cinco mil. Aquí la respuesta parece simple: se requiere más equipo. También existe la posibilidad de que la base de datos sea chica, pero tu servidor tarda en responder. En este caso, si no ha cambiado tu número de usuarios y ha cambiado su latencia, se debe revisar, ya que, seguramente, has hecho tu página más complicada. Esto último significa que, al querer darle más opciones a tus usuarios, se meten más botones, más interacciones y la página se alenta. Cuando esto ocurre, vale la pena preguntarse ¿qué es más importante para la usabilidad, darle muchas opciones a los usuarios o hacer que su experiencia base sea buena y esto se traduzca en poca latencia?

Pero, si contrario a lo anterior, lo que ocurre es que has tenido más usuarios y tu servidor tiene problemas al alojar esa cantidad, puede que el error sea de infraestructura y no de código. Eso es difícil determinarlo, pero es más sencillo si lo ves en relación a otras métricas. Es decir, cuando empiezas a correlacionar la latencia con el throughput. Si ves que la latencia desciende proporcionalmente al throughput entonces dirás ‘estoy teniendo problemas en atender a más usuarios, lo que significa que mi servidor me está quedando chico, entonces tengo que buscar más soluciones, ya sea a nivel de código o incluir más servidores’. Sin embargo, la latencia en sí no te dice exactamente cuál es el problema.

3. ¿Cómo podemos saber que existen problemas en la medida en la que aumenta el tráfico en una página web? ¿Hay forma de evitar que esto suceda?

Si el tráfico aumenta es generalmente una buena señal, porque significa que eres más popular. El problema viene cuando comienzas a tener picos en horas en las que ninguno de tus usuarios está conectado. Si tienes picos a las 4 am, muy probablemente no sean usuarios, sino un ataque contra tu sitio. En ese caso, tener más tráfico no es una buena señal, pero en general es algo bueno. Solo cuando sube el tráfico y otras métricas empeoran es cuando sabes que hay un problema.

El crecimiento también tienes que relacionarlo con otras métricas, para saber qué está pasando. Si monitoreas las fallas que tus usuarios reportaron a ciertas horas en específico, y revisas cuánto tráfico hubo, podrás determinar si el problema es ocasionado por una mayor cantidad de tráfico. Siendo así podrás definir cómo resolverlo, para que, cuando haya una cantidad similar de tráfico, o todavía más, esto no siga ocurriendo. Para esto, el servicio de medición de carga y estrés puede ser de gran utilidad, ya que muchas veces el tráfico no aumenta diariamente, sino en picos eventuales, por ejemplo, cada quince días o cuando hay un evento especial como el Hot Sale. Cuando esto ocurre, es complicado replicar las condiciones de esos eventos, por lo que estas pruebas pueden ayudarte a hacerlo.

4. ¿Por qué es importante saber cuál es el throughput de tu aplicación?, ¿cómo se mide, cómo se puede optimizar y corregir?

Es muy evidente cuando llegas a tu límite de capacidad de atención, ya que el tráfico sigue subiendo, pero el throughput se estanca y eso casi siempre es un problema de infraestructura. Como anécdota, los sitios a los que les metemos mucho tráfico sintético en las mediciones de carga suben hasta los 5,000 usuarios, pero generalmente como a los mil o dos mil usuarios el throughput de la aplicación se congela y ya no puede soportar más. Eso generalmente es un límite de infraestructura. Es decir, el servidor puede atender 2,000 máximo, por lo que tienes que incluir más servidores. También hubo un caso en el que el problema era que un cable solo podía mandar cierta cantidad de datos. Ahí es cuando llegas al límite absoluto del software o el hardware y es interesante porque generalmente no te das cuenta. Es como si tuvieras un estacionamiento. Cuando llega a trescientos coches ya no hay lugares y los encargados del estacionamiento cierran. Desactivan las plumas ponen un letrero de “Ya no hay lugar“. Si estás adentro del estacionamiento verás que hay trescientos coches y sabes que ese número responde a la capacidad de atención. Pero quizá no estás viendo que afuera hay mil coches esperando. Tú sólo sabes que en tu sistema puedes atender trescientos autos o dos mil usuarios, y ése es tu límite absoluto, probablemente hasta que no llega la primer gran venta, no te darás cuenta que dos mil usuarios es tu máximo. Siguiendo con el ejemplo anterior, la diferencia sería que, mientras en un estacionamiento sabes cuántos autos caben, en un servidor sólo puedes estimar cuántos usuarios puedes atender y cuántos crees que tu página puede aguantar. Por ello, si sólo estás viendo la información desde el servidor, podrías deducir: ‘lo máximo que he llegado a atender son dos mil usuarios, y nunca me han llegado más, porque no he visto que ese número aumente’. Sin embargo, podrías estar en un error, pues hay la posibilidad de que no estés viendo a los otros mil que se quedaron fuera. En este caso, lo maravilloso de estar en la nube es que puedes poner esos números de manera dinámica. Por ejemplo: de lunes a jueves tendré servidores para atender mil usuarios y los fines de semana lo duplicaré para poder atender hasta cuatro mil y en un Hot Sale voy a subirlo para poder atender hasta ocho mil usuarios. Entonces tú dinámicamente podrás ajustarlo, pero, incluso para eso, tienes que entender la correlación entre throughput y número de servidores o recursos y también tus estimados de tráfico.

5. ¿Por qué existe un porcentaje de errores si mi aplicación está funcionando correctamente? ¿Qué indica ese porcentaje? ¿Hay forma de bajar ese número?

Eso depende mucho de la aplicación y se tiene que comparar con otras métricas. Por ejemplo, cuando tienes más usuarios sube la tasa de errores. Si tienes más usuarios siempre subirá la tasa de error. Sube el número porque si tienes 1% de error y esos son 10 por cada diez mil usuarios, entonces el número de usuarios aumentará y el número de errores también. Estamos hablando generalmente de porcentajes bajos, si tu aplicación está funcionando correctamente. Es decir, tu tasa de errores será de 1 o 2%. Muchas veces en el momento en el que estés tomando la métrica, tienes que asegurarte de que realmente sean errores que te importan, porque a veces son errores provocados por el usuario. Incluso pueden llegar a ser errores de un agente malicioso que está tratando de entrar a tu sitio o de probar cosas distintas. Una de las formas en las que tú puedes detectar vulnerabilidades es provocando o forzando errores en el sitio.

Una tasa de error siempre es esperada. Pero la sugerencia es ver cuáles son los momentos cuando se dispara, es decir, si está en 1% y de repente pasa a 2% sigue siendo bajo; sin embargo, se duplicó. Entonces ahí pasó algo. Vale la pena observarlo, sobre todo cuando se hacen cambios en el código. Pensemos que implementas una nueva funcionalidad y algo falló. Puede que el cambio sea muy vistoso para el usuario, pero “rompió otra cosa” durante la implementación. Puede indicar que hubo un problema en lo que hiciste. Es común que, cuando se presenta un cambio en el código o un cambio en infraestructura, se presente un error. Cuando esto ocurre, debes revisar el porcentaje de error y regresar a ver los cambios implementados. Lo bonito de los errores es que cuando los registras generalmente te dicen en qué parte del código están, por lo que es más fácil diagnosticarlos. Casi siempre son de código. Cuando llegas al límite de throughput regularmente es infraestructura. Errores casi siempre es código y es importante monitorearlos cuando se hace el lanzamiento.

6. ¿A qué se refiere la saturación?

Todos los demás síntomas implican fallas parciales. Es decir, si tienes una latencia alta tus usuarios ven el sitio lento, pero pueden entrar. Si llegaste a tu límite de capacidad de atención o throughput habrá un porcentaje de usuarios que no podrán entrar a tu sitio, pero habrá otro porcentaje que lo estará usando bien. Si hay errores, algunos usuarios también verán esos errores, pero otros estarán muy contentos. Generalmente cuando falla o se satura algo, cuando se te acaba el disco duro, cuando se te acaba la memoria, todo truena. Entonces el objetivo es prevenir que llegues al punto en donde alcances el límite de tus recursos y ahí la solución no es sencilla, pero es muy puntual: tener un sistema efectivo de alertas. Si tu memoria está llegando al 80% de uso, vale la pena enviar un correo de alerta que avise a algún responsable de tecnología que se está acabando la memoria. Que el disco duro está llegando al 95% de saturación. Esto permitirá tomar acciones, como borrar archivos que ya no se ocupan.

Lo anterior es muy crítico y binario, porque estás muy bien hasta el 99.9%, pero, cuando se te llena el disco duro, el sistema no sirve  (me ha pasado). Entonces la solución es, por un lado, tener un buen sistema de alertas que te diga en qué momento la métrica está traspasando cierto umbral y lo segundo es ver si se correlaciona alguna de estas métricas de saturación con el número de usuarios o con el throughput. De esta forma puedes planear tu infraestructura en relación al número de usuarios que esperas. Teniendo un histórico de métricas, puedes realizar estimaciones como: ‘si con mil usuarios ocupamos 64GB de RAM y con dos mil ocupamos 95 GB de RAM. Esto significa que podemos determinar cuántos usuarios somos capaces de recibir y cuánta Memoria RAM necesitamos. Lo importante para evitar problemas es tener alertas. Pero también tener un histórico de esta métrica y poder relacionarlo con otras métricas para planear la infraestructura correcta y no tener que recibir un correo urgente cuando estás en una fiesta, por ejemplo.

7. ¿Crees que hay que prevenir, pero también correlacionar las métricas entre sí para saber qué está fallando y cómo podemos corregirlo?

Cuando estás encargado de un sistema, haces diagnósticos constantemente, pero, cuando conoces estas métricas, es muy difícil vivir sin ellas, porque las empiezas a usar y a guardar. Creas un histórico. Ves y analizas diagnósticos. Es cuando recuerdas que tus análisis previos sin métricas, sólo metiéndote al código, eran hechos sin mucho fundamento. Las métricas no sólo son una herramienta de diagnóstico, sino también exhiben si un problema se corrigió o no. Te dejan experimentar y es muy bonito.

Importancia de que todo el equipo comparta los mismos indicadores

Mejora el desempeño tu aplicación web con métricas que te ayudarán, en conjunto con tu equipo, a tomar decisiones basadas en usuarios reales.

En una empresa existen diversos equipos trabajando al mismo tiempo, es decir, existen diferentes áreas. En dichas áreas suelen trabajarse distintos aspectos de un mismo servicio o producto, a la manera en la que un cubo Rubik, tiene distintas caras. Ahora bien, sin importar las diferencias entre un puesto de trabajo y otro, la comunicación entre áreas es primordial para tener éxito y conseguir los objetivos trazados por la organización. Pero ¿cómo conseguimos dar parte de lo que se realiza en el área de tecnología cuando tenemos jergas distintas? Es bien sabido, y no menos controversial, el hecho de que el área técnica tiene su propio lenguaje. Su manera particular de identificar lo que sucede. De esta forma, puede ser muy complicado comunicarse entre áreas.

Compartir indicadores clave

¿Cuál es el resultado del escenario antes descrito? Generalmente, los círculos de toma de decisión dependen de una o dos personas, pero éstos se vuelven muy complicados si no hay un buen intercambio de información. Lo que se traduce en pérdida de tiempo, dinero y esfuerzo por parte de las empresas. Por esa razón, queremos apoyar a las áreas de tecnología a conocer la utilidad de herramientas como inteligencia de datos. Con esto, sin importar cuáles sean las peculiaridades de cada grupo, identificamos indicadores clave que hacen sentido a todas las áreas y mediante los cuales cada uno será capaz de, por un lado, lograr sus objetivos y, por el otro, tener una comunicación adecuada con las demás áreas.  

¿Por qué necesitamos una métrica más?

Cuando el equipo DevOps de una empresa quiere conocer el estatus de su software, pueden utilizar APM (Application Performance Management) para ese fin. Sin embargo, esos indicadores, que hacen sentido para ellos, no necesariamente lo harán para un equipo de mercadotecnia, comercial o dirección general, por ejemplo.

De manera análoga con las demás áreas: los indicadores clave que un equipo de mercadotecnia encuentra útil, o el de ventas, no tendrán sentido comercial para el dueño de un producto tecnológico o un CIO, y menos para DevOps.

Siempre existen en cualquier organización indicadores clave, pero son pocos los que pueden ser utilizados en común por todos para hablar el mismo idioma, sobre todo cuando se trata de la satisfacción de nuestros usuarios y el éxito del negocio.

Qué es APDEX y para qué sirve

Es entonces cuando cobra relevancia el Indicador de Desempeño de Aplicación o APDEX (por sus siglas en inglés Application Performance Index), que es un estándar de código abierto para medir el rendimiento de las aplicaciones de software. Su propósito es convertir las mediciones en ideas acerca de la satisfacción de los usuarios, especificando una manera uniforme de analizar y reportar sobre el grado en que el rendimiento medido cumple las expectativas del usuario. Esta herramienta fue desarrollada por varias compañías en conjunto.

APDEX pretende traducir los indicadores resultantes de las prácticas de monitoreo de las distintas áreas operativas en un indicador único de satisfacción de los usuarios, que indica si el promedio está satisfecho, es tolerante o está frustrado.

Al ser configurable a la medida de las necesidades, las organizaciones pueden usar y adaptar los factores de cálculo de APDEX, para vincular su uso con los objetivos, muestreos y promedios específicos que sean funcionales a todas las áreas del negocio.

APDEX tiene como objetivo sintetizar el nivel de satisfacción de usuarios finales de una aplicación, considerando todo lo que hay detrás, como tiempos de respuesta de páginas específicas, cuánto tiempo toma hacer una búsqueda en el sitio o añadir un producto al carrito, en el caso de un e-Commerce. Con APDEX hace falta determinar el valor de una variable T que cobre sentido para una aplicación y de esta forma, poder obtener tableros de datos que me indiquen qué tan satisfechos están mi usuarios. Dichas gráficas pueden incluirse en inteligencia de datos, de modo que puedan ser presentadas y leídas en una junta directiva, por ejemplo. Así, esta métrica única podrá ser utilizada por directores y ejecutivos, por ingenieros, mercadólogos, vendedores, considerando que todos tienen un indicador en común: el usuario final. Esto tiene como consecuencia cerrar la brecha de motivos o temas que puedan surgir en torno a un problema o una virtud.

Indicadores clave definidos para todos en la empresa

Si toda la organización comparte los mismos indicadores (y el mismo idioma) para conocer la satisfacción de sus usuarios y el desempeño de su software, diferentes áreas, solas o en conjunto, podrán tomar decisiones basadas en datos. Además, podrían agilizar también muchos procesos e interpretaciones.

Finalmente, volviendo a la analogía del cubo Rubik, todas las áreas tienen en común que están insertadas en dicha figura. Lo que también significa que, lo que pase de un lado, afecta también al otro. Con el uso continuo de APDEX será posible garantizar que existen los mismos KPI’s para todos, al menos en un aspecto específico, sin olvidar que cada área será capaz de entender las explicaciones de sus pares.

 

:: Si quieres conocer más acerca del poder de los datos históricos, acércate a nuestros expertos de Menta y pídeles más información.

Si quieres conocer más acerca del poder de los datos históricos, acércate a nuestros expertos de Menta y pídeles más información.

Contáctanos

Por favor introduce tus datos y nos pondremos en contacto contigo.

¿Qué es el cuadrante mágico de Gartner?

Elige la empresa de servicios tecnológicos que más se adecue a tus necesidades de acuerdo al cuadrante mágico de Gartner, empresa líder de consultoría en este ramo

Cuando tu empresa ha detectado alguna carencia en un área específica y determina que la solución se encuentra en adquirir un servicio de tecnología, el siguiente paso es investigar las soluciones existentes en el mercado e identificar la más adecuada. Pero ¿cómo encontrar las soluciones líderes en su ramo? Gartner,  empresa consultora y de investigación de las tecnologías de la información, proporciona la herramienta “cuadrante mágico”, que responde precisamente a esta interrogante. A continuación te explicamos qué muestra y cuáles son los criterios que sigue.

 

¿Cómo se divide el cuadrante?

El cuadrante es una representación, resultado de las investigaciones que Gartner lleva a cabo sobre fabricantes y soluciones de tecnología. Se divide en cuatro segmentos: líderes, desafiantes, visionarios y jugadores del nicho. ¿Qué caracteriza a cada uno y qué los distingue? Los líderes hacen un buen papel en relación a su visión actual y están bien posicionados para continuar así en el futuro. Mientras tanto, los visionarios entienden el mercado y saben sobre sus reglas cambiantes, aunque todavía no las ejecutan correctamente. Los jugadores del nicho, mientras tanto, se enfocan exitosamente en un segmento, o están fuera de foco y no superan a los demás en innovación. Finalmente, los desafiantes manejan bien un sector del mercado, pero no parecen tener una dirección.

 

¿Cómo tomar ventaja del cuadrante?

Si lo que buscas es llevar tu negocio digital al siguiente nivel, necesitas seleccionar las tecnologías y soluciones adecuadas. Aliarte con los proveedores correctos. Para esto, Gartner pone a disposición guías y resultados de investigación. Así, podrás elegir al proveedor que mejor se adapte a tus necesidades. Además, el cuadrante tiene opciones interactivas, por lo que podrás acceder al perfil del cuadrante que mejor se ajusta a lo que buscas.

Menta Network en Gartner IT Infrastructure, Operations Management & Data Center Summit México 2018

Como una empresa comprometida con las innovaciones tecnológicas, Gartner organiza eventos en diversas ciudades del mundo para fomentar el intercambio y la comunicación entre los interesados. En este contexto, Menta Network participa una vez más en la edición de la Ciudad de México, que tendrá como objetivo mostrar el liderazgo en la era de los negocios digitales y la importancia del poder de la conexión, para llevar cualquier negocio digital al siguiente nivel. Se tratarán también temas relacionados con los centros de datos, estrategias de nube, y agilidad de infraestructura y operaciones IT.

Este evento es una extraordinaria oportunidad para acercarse a las empresas que integran el cuadrante mágico y, de esta forma, conocer qué es lo que ofrecen y de qué manera pueden beneficiar a tu negocio.

¿Para qué se utilizan los datos históricos de monitoreo?

Además de resolver problemas rápidamente, el monitoreo te ayuda a comparar eventos, identificar riesgos y planear mejor las inversiones tecnológicas que necesita tu empresa.

Generalmente cuando se monitorea una aplicación web se suele ver cuál es el performance del momento; por ejemplo, corregir un error en la pasarela de pagos o mejorar la experiencia que se brinda a los usuarios. Sin embargo, cuando se realiza un monitoreo sintético o uno de infraestructura dinámica se generan datos y métricas que pueden tener mayor utilidad que la de un solo evento. Estos datos se guardan en un historial, el cual está disponible en cualquier momento que se quiera consultar. Ahora bien ¿para qué sirve esta información? Con los datos obtenidos es factible efectuar un comparativo de eventos, evidenciar situaciones de riesgo, así como auditorías técnicas y legales, entre otras acciones.

La importancia de los datos históricos

Monitorear no es solamente una buena práctica de un momento determinado. Contar con historiales puede ser de gran ayuda. Por ejemplo, el historial de los movimientos de una cuenta cobra relevancia en la medida en la que se suman las transacciones. Luego podremos analizar cuál es el resultado. “¿Estoy gastando correctamente mi dinero o no?”, es un ejemplo práctico y personal. Aún más, en un plazo de cinco años podrás ver la diferencia de gastos e ingresos, lo que terminará por ofrecerte una perspectiva mayor. Por esta razón es que podemos hacer del monitoreo una estrategia a largo plazo, a reserva de que nos siga ayudando a resolver un problema específico.

A continuación algunas acciones que pueden llevarse a cabo con un historial de monitoreo.

Comparativo de eventos

Supongamos que tu sitio tuvo recientemente un Hot Sale y quieres establecer una comparativa con los eventos del año anterior. ¿Hubo mayores ventas?, ¿los usuarios están obteniendo una mejor experiencia en comparación con otros eventos o, al contrario, algo falló? Con los resultados obtenidos tendrás un panorama claro de qué aspectos han mejorado y cuáles son las áreas de oportunidad para tu aplicación web.

Evidenciar situaciones de riesgo

Cuando existe un problema potencial y quieres prevenirlo, muchas veces no basta con que una sola persona lo note y tome la decisión. Es preferible escalar el caso a un equipo especializado y demostrar por qué es importante. Por ejemplo, si tu aplicación no está alcanzando la meta de conversión de registro de usuarios, será necesario realizar un seguimiento para entender cómo es que tus usuarios interactúan con el proceso de registro, y obtener así los datos para hacer un comparativo lineal, identificar los posibles problemas y presentar los datos a las áreas involucradas en su diseño y desarrollo.   

De esa manera, el equipo podrá analizar el caso y entender mejor la relevancia para resolverlo.

Histórico de ventas

Hacer comparaciones temporales de cómo ha sido el movimiento de ventas, en el caso de los e-Commerce o transacciones si se trata de una banca en línea es algo que cobra relevancia con el paso del tiempo. De esta forma puedes saber si tus usuarios se están inclinando por transferencias en línea, por ejemplo, en comparación con el año anterior. O si tus ventas han crecido de manera significativa en eventos como el Buen Fin o el Hot Sale contra las ventas que hay en la tienda física, por ejemplo.

Justifica la inversión en tecnología

Identificar, crear y presentar las iniciativas de inversión en tecnología para una aplicación deben estar respaldadas con datos. ¿Por qué se necesita la tecnología y cuál será su impacto en el negocio? ¿Cuánto incrementará el porcentaje de conversión? ¿Cuál será el retorno de la inversión y en cuánto tiempo? Obtener los datos para responder a éstas y otras preguntas sería muy complicado sin la capacidad de poder analizar la tendencia histórica del comportamiento de la plataforma tecnológica.

Análisis de eventos de seguridad

Es sabido que un ataque cibernético no abarca únicamente un solo vector en un único momento. Previo al ataque, la aplicación en cuestión fue objetivo de diversos análisis e, incluso, de atentados menores y discretos diseñados para descubrir vulnerabilidades con alguna medida de distracción. Posterior a un ataque, o intento de ataque, se lleva a cabo un análisis post-mortem para determinar cómo se realizó,cuál fue su comportamiento, y cuáles serán las medidas que se tomarán para prevenir intentos semejantes en el futuro. La capacidad de regresar en el tiempo y poder monitorear lo sucedido se convierte en la herramienta más importante en dicho análisis.

Definición de presupuesto

Cuando dejamos atrás a las plataformas tecnológicas monolíticas y cambiamos a las dinámicas, la definición de presupuesto se convierte en una tarea compleja, debido a que las tendencias de uso de infraestructura cambian constantemente. Sin embargo, el tener la información histórica, gracias al monitoreo de tus aplicaciones, ofrece datos reales para poder elaborar una estimación de uso concreta para un futuro inmediato. Y podrás también tener una base para saber cuánta infraestructura necesita tu sitio para el siguiente año y cuál debería el presupuesto destinado para este proyecto.

Como hemos podido ver, existen diversas acciones indispensables en una empresa para las cuales nos puede beneficiar tener datos históricos de monitoreo. Sin lugar a dudas, el beneficio es doble: mayor capacidad de reacción en eventos determinados y análisis detallados a largo plazo.

:: Si quieres conocer más acerca del poder de los datos históricos, acércate a nuestros expertos de Menta y pídeles más información.

¿Cómo le fue a tu aplicación de e-Commerce en el Hot Sale?

Es común que durante eventos especiales como el Hot Sale, las aplicaciones colapsen o no permitan a los usuarios completar sus compras. Afortunadamente, existen herramientas que te permiten resolver este y otros problemas con facilidad.

Luego del Hot Sale es momento de hacer un balance y preguntarse cuáles fueron los resultados. Podríamos enfocarnos en saber si tu sitio respondió como debería, si la carga fue óptima, si pudiste o no brindar una buena experiencia a tus usuarios. Para responder a estas interrogantes es necesario tomar en cuenta diversos factores, como el tiempo de respuesta, la conversión de usuarios, las ventas realizadas, entre otros indicadores. En el caso de que tu sitio haya tenido algún problema, seguramente querrás evitarlo para futuros eventos. A continuación algunos de los problemas más comunes, así como posibles soluciones que te ayudarán a detectar las causas y estar listo.

“Mi aplicación se cayó”

Cuando tu sitio no está funcionando, o está fuera de servicio, lo más importante es restablecerlo tan rápido como sea posible. Para evitar que tus usuarios se encuentren con esta mala experiencia, existen diversos problemas que responden a una caída. Sin embargo, monitorear tu infraestructura dinámica puede ser una buena idea en este caso ¿Por qué? Este monitoreo observa el estado de los hosts de infraestructura en tiempo real, rastrea los cambios de configuración comunes en los servidores y, además, proporciona una vista lineal de tiempo con los eventos ocurridos.

Es importante destacar que la infraestructura no es la única causa posible de un fallo como éste, la propia aplicación puede tener algún problema. En ese caso, requerimos una herramienta APM para hacer un diagnóstico. APM nos permite visualizar la información en dashboards dinámicos en tiempo real. Esto dará al equipo DevOps la agilidad para diagnosticar de manera instantánea y actuar rápidamente en la solución del problema.

El sitio estaba muy lento

Para asegurar que el desempeño de tu aplicación sea óptimo, es necesario monitorear el rendimiento y disponibilidad de tu software con una APM. De esta forma podrás determinar si tu aplicación está respondiendo adecuadamente a la demanda o no.

Ahora, si el problema fue que tu aplicación se desempeñó correctamente, pero tus usuarios reportaron una mala experiencia, el complemento requerido para determinar la causa es el monitoreo de usuarios reales o RUM. Éste es de gran ayuda para detectar fallos en caso de que el problema esté en el front-end de la aplicación o en el navegador del usuario, y no en la aplicación o la infraestructura. Con este monitoreo podrás observar la experiencia de los usuarios al tiempo que interactúan con la aplicación. Además, podrás recibir alertas en el caso de que algo falle y, de igual manera, tendrás la información de diagnóstico de front-end lista para solucionar rápidamente los problemas.

No se completaron las compras

Durante un evento donde hay mucha concurrencia, los usuarios pueden estar ansiosos por adquirir el producto más novedoso o alcanzar la mejor oferta. En este escenario, ¿qué pasa si no se logra completar la compra por un fallo con la herramienta de pago? Es fácil saberlo: el cliente abandonará la compra y perderás ese dinero. Siguiendo con este último ejemplo. Ya que fue detectado el problema en la pasarela de pago, la solución está en utilizar monitoreo sintético. ¿Por qué es ideal para este problema? El monitoreo sintético utiliza un script que dicta a los robots encargados de ensayar distintos escenarios y qué acciones específicas deben llevar a cabo. En esta caso, supervisa el correcto funcionamiento de las herramientas de pago y lanza alertas cuando algo falla.

Más usuarios de los soportados

Cuando un evento donde se espera un gran número de usuarios está a punto de ocurrir, la mejor estrategia es la prevención. ¿Cómo podemos hacer esto? Idealmente, es tener un número mayor de usuarios a los que generalmente nos visitan. Afortunadamente no es sólo una estrategia hipotética, sino que es posible mediante mediciones de capacidad de respuesta. Estas mediciones emulan una carga específica de usuarios que hagan diversas acciones, como añadir un producto al carrito o hacer alguna búsqueda dentro de la aplicación. La finalidad de estas pruebas es medir la capacidad de respuesta y encontrar áreas de oportunidad antes del próximo evento importante, como el Buen Fin o el Hot Sale.

¿Pueden medirse las pérdidas?

Tener datos históricos no siempre es suficiente para resolver un problema, es necesario usarlos e interpretarlos. Primero, identificando cuáles son lo que te ayudarán a resolver tus dudas, luego, haciendo una relación con otros datos, si tu pregunta es más compleja. En el caso de no contar con una herramienta de inteligencia de datos, tener información disponible en cualquier momento y, aún más, poder relacionarla con otros datos puede ser un problema. Con esta herramienta podrás resolver rápidamente esta dificultad, para contar con las respuestas a las preguntas más difíciles sobre el comportamiento de tu aplicación.

Además, esta herramienta te permitirá correlacionar datos de desempeño de aplicación, con comportamiento de usuarios reales, problemas de infraestructura y datos de negocio, como carritos de compra, para determinar el impacto positivo o negativo de mi aplicación con el negocio. Por ejemplo, se podría responder a preguntas como “¿Cuánto dinero perdí en ventas a causa del funcionamiento incorrecto del botón en el carrito de compras?” o “¿Cuánto mejoró la experiencia de usuario al solucionar el problema de cuello de botella en la base de datos y cuál fue su impacto en las ventas?”

¿Cómo compartir el estado de las aplicaciones?

Un aspecto fundamental en el éxito de tu aplicación es la comunicación eficiente. En el caso de que, como ingeniero, quieras mostrar cuáles son las estadísticas importantes para entregar informes a gerentes o directores, Inteligencia de datos te brinda información en tiempo real, tanto de negocios como técnica, fácil de correlacionar o de explotar. De esta forma podrás compartir información, basada en evidencia, de cómo está funcionando tu aplicación web en tableros dinámicos con datos actualizados en tiempo real.

Por todo lo anterior, los errores o fallas de aplicación en un evento con mayor concurrencia no es exclusivo de tu empresa. Esto significa que puede existir una solución más sencilla y accesible de lo que te imaginabas.

:: Si quieres conocer más de alguna de estas soluciones y prepararte para próximos eventos, como el Hot Sale o el Buen Fin, acércate a nuestros expertos de Menta y pídeles más información.

Menta Network presente en el AWS Summit Ciudad de México

Si aún estás pensando si debes migrar a la nube o no, checa la información que recabamos del AWS Summit Ciudad de México, en el que estuvimos presentes

El AWS Summit es un evento internacional que se lleva a cabo en distintas ciudades del mundo con el objetivo es reunir a la comunidad tecnológica e informática para conectar, colaborar y aprender acerca de AWS (Amazon Web Services). En dicho evento, celebrado en días pasados en la ciudad de México, participó Menta. La firma especializada en ofrecer consultoría en aseguramiento de calidad para plataformas tecnológicas conversó con quienes están migrando sus aplicaciones a la nube, con quienes aún se encuentran indecisos sobre cómo hacerlo y con quienes desconocen cuándo es el mejor momento. ¿Por qué AWS? La respuesta es sencilla: AWS es el proveedor de servicios de plataforma en la nube más relevante y de rápido crecimiento en el mercado.

Es natural que, al momento de tomar una decisión tan importante, como pasar a la nube por completo, existan diversas interrogantes. Una de ellas suele ser: ¿cómo saber si mi empresa se beneficiaría de la migración a la nube? La respuesta es: agilidad y velocidad. Si tus aplicaciones están en la nube puedes trabajar con decenas de servidores en minutos. En contraste con las semanas que normalmente se requieren para agregar servidores en esquemas monolíticos.

 

¿Cuánto cuesta migrar a la nube?

Otra interrogante que puede surgir es acerca del precio. En un escenario monolítico, el costo de mantener la infraestructura muy probablemente no cambiará, lo que da certeza presupuestal a largo plazo. En cambio, un ambiente de infraestructura dinámica, donde ahora puede haber 2 servidores y en la siguiente hora tener 10, la variable de costo representa un reto presupuestal. Sin embargo, el verdadero problema, es el costo de no migrar a la nube.

Atender altas demandas inesperadas con rapidez se convierte en el factor de mayor problema en arquitecturas monolíticas, ya que es imposible crecer con rapidez. La práctica dicta que en estas arquitecturas debemos considerar a la posible demanda en el dimensionamiento. Sin embargo, ¿qué pasa si esa demanda nunca se cumple? Tendremos infraestructura de sobra, lo que implica un costo sin retorno. La infraestructura dinámica crece y decrece conforme a la demanda, por lo que podemos estar seguros de que nuestros costos están relacionados a un retorno de inversión. Es posible llevar a cabo un análisis que permita determinar nuestro costo inicial de migración y, posteriormente, un análisis de optimización que asegure el mejor aprovechamiento y relación costo-beneficio.

 

Asegura el éxito del proceso de migración

Quizá ahora la pregunta es, ¿cómo planear una migración exitosa o ver de inmediato los resultados? Aún cuando cada empresa tiene un proceso distinto, generalmente se siguen algunos pasos. La primera fase se lleva a cabo un proyecto en el que se hacen análisis de la arquitectura monolítica existente. En la segunda fase, el fundamento, se establece un plan de acción para la adopción en la nube. Finalmente, la tercera fase, consiste en la ejecución del proceso, en la que se migran aplicaciones, comenzando por las de misión crítica, y continúa en la medida en la que escala la adopción de las aplicaciones.

:: Te interesa: Conoce las ventajas de monitorear tu infraestructura dinámica

 

Optimiza tu operación en AWS luego de finalizar la migración

Luego de finalizar la migración, aún queda trabajo por hacer, como apagar sistemas antiguos e integrar hacia un nuevo modelo operativo mucho más moderno. Es entonces que el modelo operativo se convierte en un conjunto de personas, procesos y tecnología que mejoran constantemente en la medida en la que se van migrando más aplicaciones.

Para cada uno de los procesos anteriores Menta y New Relic ofrecen una solución de evaluación y análisis de migración a la nube. Dicha solución consiste en realizar un monitoreo de aplicaciones e infraestructura, que se integra de forma nativa a la plataforma de AWS, ofreciendo una visión completa de todos los recursos antes, durante y después de una migración. Esta solución fue presentada en el evento de la Ciudad de México. El resultado de este servicio es un análisis profundo de qué tan factible es la migración, así como los requerimientos y costos de AWS.

 

Grupo de usuarios de New Relic en México

Previo al AWS Summit, Menta y New Relic reunieron a un grupo usuarios. Ahí, especialistas de ambas empresas dieron una charla sobre las buenas prácticas para migrar a la nube. Cabe destacar también la presencia de Efrén Tapia, gerente de comercio electrónico de Librerías Gandhi, quien compartió su experiencia utilizando New Relic y AWS para migrar y operar sus aplicaciones en la nube.

Menta Network es Navigator Partner de New Relic, al tiempo que New Relic es Advanced APN Technology Partner, y cuenta con las competencias en AWS Devops, AWS Mobile y AWS Migration.

En resumen, migrar la información a la nube no es una decisión fácil. Sin embargo, hay suficiente información para asegurar que habrán menos riesgos y podrás crecer con mayor rapidez y confianza, principalmente si lo haces acompañado de los expertos.

¿Por qué es importante monitorear las liberaciones de código de tu aplicación web?

Si en tu aplicación se hacen varias liberaciones de código al día, es importante saber el impacto que tuvo y si está funcionando; hazlo de forma sencilla con APM

Es frecuente que, cuando se agregan nuevas funcionalidades o se corrigen algunos errores en las aplicaciones web, se lleve a cabo un cambio de código. Esto sucede, por ejemplo, en el caso del rediseño visual de un sitio, cuando se corrige un error en una forma de pago o cuando se optimiza un buscador para encontrar resultados más relevantes.

Por lo anterior, las buenas prácticas de DevOps dictan que el código debe validarse en ambientes de prueba y pre-producción para identificar y corregir errores. Sin embargo, cuando no es posible, o incluso después de haber corroborado el código, siempre existe la posibilidad de que esa liberación tenga un impacto negativo ya en un ambiente de producción.

Enfrentarse a ese problema, en un ambiente de producción, es costoso en tiempo, imagen y dinero. Por ello, es importante monitorear las liberaciones de manera eficiente y contar con la información de diagnóstico clave para reaccionar y solucionar problemas rápidamente.

En el caso de que se cuente con procesos automatizados de integración o entrega continua (CI/CDI), estos toman los cambios de código de un repositorio, los validan y los liberan cada vez que un desarrollador hace ajustes. Con esto se puede alcanzar un ritmo rápido de liberaciones de código, que puedan llegar a cientos por día. Si se monitorea una plataforma con este ritmo bajo de operación, resulta difícil notar qué impacto tuvo cada liberación si no se registra con detalle.

Errores en el código

Cuando se implementan cambios en el código, como en cualquier proceso humano, se corre el riesgo de que se presenten errores. Esto significa que el primer error que se estaba corrigiendo, o el proceso que se intentaba optimizar, sigue sin funcionar como debería y, de hecho, está degradando la experiencia del usuario. En el caso de que esto suceda habrá que analizar el impacto, como mencionamos arriba.

Aún cuando el equipo de desarrollo haya verificado la correcta funcionalidad de su código, pueden presentarse problemas al liberarlo en un ambiente de producción. Dichos problemas se deben a un impacto negativo en los componentes del ecosistema, ocasionados por un factor relevante que sólo se encuentra en un ambiente de producción: la demanda y utilización de usuarios reales.

Por ejemplo, si un script no tuvo errores y funcionó adecuadamente en un ambiente de pruebas, incluso cuando se probó en pre-producción (ambiente de prueba idéntico al de producción) sin ningún error, es lógico preguntarse ¿cómo funcionará el script cuando se ejecute mil veces al mismo tiempo?, ¿mis instancias de cómputo son suficientes?, ¿la pasarela de pagos se comportará de forma eficiente en todos los casos?, ¿los usuarios podrán interactuar de forma correcta en el proceso?

Si consideramos que las aplicaciones actuales no tienen una, sino varias liberaciones de código al día operadas por distintos equipos DevOps, lo anterior puede volverse una pesadilla para el equipo de control de calidad.

Verificar la efectividad de la liberación de código

Felicidades, la liberación de código no tuvo un impacto negativo en el ambiente de producción. Pero, desafortunadamente el impacto positivo que se diseñó no se está visualizando, o bien, se perdió entre otras liberaciones.

Sabemos que algunas mejoras de código son imperceptibles a simple vista, o su efectividad se presenta hasta que la demanda requerida sea alcanzada. No queremos que el esfuerzo que se dedicó a mejorar un script sea irrelevante, o peor, que pase desapercibido. Por ello, vale la pena cuestionarse nuevamente si es posible demostrar el impacto positivo que tuvo esa liberación. La respuesta debe ser “Sí”, de la misma manera en la que demostramos lo contrario.

Monitorea y registra las liberaciones de código

Seguramente la actividad favorita de los Devs no es analizar el impacto negativo de un cambio de código, o tener que justificar que efectivamente hubo un impacto positivo. Afortunadamente para todos los involucrados en el correcto funcionamiento de aplicación, ya es posible saber cuál de todas las liberaciones fue la que tuvo el impacto negativo o positivo, el momento en el que sucedió, y cuál es la causa y efecto de dicho impacto.

Con una herramienta de monitoreo de desempeño de aplicaciones (APM) podemos llevar el control de la liberación de código hasta el punto preciso en el tiempo donde la liberación tuvo un impacto negativo o positivo. De forma que luego se logre saber a detalle si hubo o no una mejora sustancial. De esta forma, si eres diseñador, director de e-Commerce o tienes otro puesto relevante para la aplicación, puedes saber dónde está el error (carrito de compra, servidores, sitio, proceso de compra).

Con esta herramienta tu equipo contará con la información detallada para detectar el impacto en toda su complejidad, y, por supuesto, darle solución. O bien, demostrar el beneficio que el cambio tuvo en el negocio.

:: Solicita un demo. Conoce cómo un equipo de expertos especializados pueden ayudarte a crear o enriquecer tus estrategias.

¿Qué es la capacidad y cómo impacta en tu aplicación web?

Conoce qué es la capacidad de tu sitio web y la importancia de medir sus puntos de degradación y quiebre.

Si preguntamos cuál es la capacidad de respuesta de una aplicación, muy probablemente diremos que es la cantidad de usuarios que hay en un lapso de tiempo. Por ejemplo: 60,000 usuarios en un mes. Sin embargo, este dato se refiere a una estadística de comportamiento de visitante y no a la capacidad de respuesta real de una aplicación. Entonces ¿qué es la capacidad? Es una métrica que señala la cantidad de tráfico que soporta una aplicación y su infraestructura en un mismo periodo de tiempo en relación a sus recursos disponibles. Por ejemplo: Mi sitio soporta 500 usuarios agregando productos a un carrito al mismo tiempo.

 

Mediciones de capacidad de respuesta y monitoreo de rendimiento, ¿cuál es la que mi aplicación necesita?

Las mediciones de carga y estrés junto con APM te permiten saber si tu sitio soportará una gran cantidad de usuarios durante algún evento especial, como el Hot Sale, y te ayudan a prevenir colapsos.

Cuando tienes un negocio en línea quieres tener todos los flancos cubiertos. En ese sentido no podemos negar la importancia de la experiencia de usuario. Por tal razón, es importante conocer las nuevas herramientas que puedan ayudar en ese proceso. De ahí que resulte importante hablar de mediciones de capacidad de respuesta; saber qué son y para qué sirven.

Las mediciones de capacidad de respuesta te permiten conocer cuál es la cantidad de visitantes concurrentes que tu aplicación web puede atender en determinado momento, por ejemplo, comprando o navegando un catálogo. 

Cómo funcionan las mediciones de capacidad de respuesta

Para correr una medición de capacidad de respuesta hace falta emular una carga específica de visitantes concurrentes que ejecuten un proceso específico en la aplicación, como comprar un producto, usar el buscador o realizar solicitudes a la página. Las pruebas se llevan a cabo desde distintos puntos geográficos, simulando navegadores comerciales comunes. En todos los casos, siguiendo una misma ruta de navegación en un único evento. Esta prueba se realiza en un periodo corto de manera controlada en segmentos de tráfico programados. La finalidad es medir los tiempos de respuesta mientras va en aumento la cantidad de usuarios, descubrir hasta cuántos soporta y su impacto de degradación.
 

Qué caracteriza a la medición

Esta medición te dará dos datos importantes: punto de degradación y punto de quiebre. ¿Qué nos dicen estas cifras? La primera señala el número de usuarios que estaban en el sitio cuando el tiempo de respuesta comenzó a degradarse; el punto de quiebre se refiere a la cantidad de usuarios que había cuando el sitio colapsó.

¿Por qué son importantes estas métricas? Es la manera más acertada de conocer con certeza la capacidad real de tu aplicación web, lo cual es muy valioso para cualquier comercio electrónico, por ejemplo, en eventos especiales como el Hot Sale o Buen fin.

¿Cómo se complementa el desempeño y el monitoreo de rendimiento?

Si tu negocio en línea está cerca de tener un evento en el que espera un número mayor de usuarios al usual ¿No te gustaría saber si podrá soportar el flujo de tráfico y descubrir las posibles causas de fallas?

Sabemos que monitoreo de rendimiento APM (Application Performance Monitoring, por sus siglas en inglés) es una herramienta para monitorear el desempeño y asegurar la escalabilidad de la aplicación e identificar qué entorpece el rendimiento de un proceso, es decir, los cuellos de botella.

Sin embargo, los problemas de desempeño en una aplicación no se presentan a simple vista, ni siquiera llevando a cabo pruebas de funcionalidad de código, sino hasta que la aplicación recibe alta demanda y uso real de parte de los visitantes. Estas acciones suceden en el ambiente de producción, lo que podría ocasionar daños en la imagen de la marca e, incluso, pérdida de usuarios y económicas.

Aquí es cuando el monitoreo de rendimiento o APM y el de desempeño se complementan. Con el primero generamos la demanda de visitantes necesaria, emulando casos de uso reales en un ambiente de pruebas controlado. Mientras, con el segundo medimos cómo afecta dicha demanda a la aplicación, la infraestructura y sus componentes intermedios. Al hacer esto, nos anticipamos a descubrir problemas y sus soluciones.

 

¿Cómo sé si tu negocio requiere APM o medición de capacidad de respuesta?

Los equipos de Tecnología deben conocer lo más posible el funcionamiento de sus aplicaciones web ante momentos críticos de demanda, como picos de tráfico. Para esto, la medición de capacidad de respuesta sería el proceso más útil y apropiado. Por otra parte, si quisiéramos verificar el desempeño o descubrir la causa de una súbita lentitud de nuestra aplicación, entonces tendríamos que recurrir a una APM.

Cuellos de botella

Identificar el momento en el que el rendimiento se entorpece a causa de un elemento físico o lógico, mejor conocido como cuellos de botella, nos brinda algunas ventajas. Por un lado, pueden existir varios cuellos de botella en una misma aplicación, debido a que los tiempos de respuesta cambian; lo que nos da claridad de dónde se necesita mayor atención. Por otra parte, relacionar los cuellos de botella con los puntos de degradación y quiebre traerá una mayor precisión y sentido al proceso completo. En el caso de las APM, contamos con una visión completa e histórica del desempeño de los diferentes componentes de nuestras aplicaciones.

Además de lo anterior, tiene también un sistema de alerta que nos notifica si estamos fuera del tiempo óptimo de respuesta, ya sea en carga o en volumen de transacción de datos. Mediante el proceso anterior podemos aislar fácilmente el problema y podemos determinar cómo fue la afectación en el flujo de procesos.

Punto de degradación y punto de quiebre

Tanto el punto de degradación, como el de quiebre, son las métricas críticas que nos arrojan las mediciones de carga. Esta medición tiene por objeto determinar si nuestra aplicación está lista para recibir un aumento significativo de tráfico. Desde esta perspectiva, nuestros indicadores son:

Con cuántos usuarios comenzamos a encontrar fallas (sitio más lento, sin respuesta en una o varias secciones, sin posibilidad de finalizar una petición) y, finalmente, el número de usuarios con el que la aplicación colapsa.

Por su parte, en APM recibimos alertas cuando ocurre un problema. Esto permite eliminar el ruido del proceso de monitoreo y enfocarnos rápidamente en reportes accionables

Áreas de oportunidad

Aunado a la información que obtuvimos con las métricas de punto de degradación y quiebre, así como con los cuellos de botella, las mediciones también nos permiten conocer otros datos importantes, aunque quizá no urgentes, si de interés. Sin embargo, tomar medidas y aplicar  esas mejoras es de gran ayuda. Por su parte, el software de APM rastrea y registra de forma detallada la información sobre el rendimiento de una aplicación en cualquier nivel.

Hallazgos

Con base en los datos recabados de los puntos de degradación y de quiebre, cuellos de botella y áreas de oportunidad, se realiza un informe detallado de cuánta carga soporta una aplicación.

Lo ideal es que esta medición no sea un evento aislado, sino que sea una labor periódica, de esta forma, se podrá entender cómo impacta el tráfico en una plataforma y llevar a cabo las acciones necesarias para asegurar la calidad de las aplicaciones y los resultados del negocio.

En resumen, las mediciones de capacidad de respuesta, como APM, se complementan muy bien, ya que, mientras APM brinda una perspectiva interna de lo que sucede al interior de la aplicación, tenemos su contraparte vista desde afuera. Con esto podemos emprender acciones en ambos sentidos y garantizar que la experiencia de usuario sea óptima.

Solicita un demo. Conoce cómo un equipo de expertos especializados pueden ayudarte a crear o enriquecer tus estrategias.

Obtén datos accionables en cualquier momento con inteligencia de datos

La inteligencia de datos ofrece un análisis en tiempo real a cada persona encargada de tomar decisiones en distintas áreas de una empresa. Averigua cómo funciona.

Si tienes una empresa de e-Commerce o trabajas en el sector, sabes que la toma de decisiones con base en los datos es crítica para el éxito o fracaso del proceso de venta. Este conocimiento es clave para implementar las mejoras oportunas en tus aplicaciones, ya que podrías estar perdiendo dinero debido a posibles fallos. Por ello, es importante tener los datos correctos y usarlos a tu favor.

Ahora que los negocios dependen de responder preguntas críticas como ¿cuánto tiempo permanecen los artículos en el carrito del usuario antes de que los compren? ¿Qué está ocasionando que el proceso de checkout sea lento? ¿Qué usuarios tuvieron una mala experiencia?, estas respuestas relacionadas con la infraestructura y el software son críticas para echar a andar campañas publicitarias efectivas e innovar en características que son utilizadas activamente por los clientes.

Esto significa que podrán tomarse decisiones basadas en datos en tiempo real, por ejemplo:

 

¿Cómo funciona la inteligencia de datos?

La solución que estamos describiendo ofrece datos en tiempo real a cada persona encargada de tomar decisiones en las distintas áreas de responsabilidad. Mediante el uso de auto-instrumentación se recolectan billones de métricas y eventos provenientes del software, la infraestructura, los visitantes, y el ecosistema tecnológico, los cuales se guardan en la nube, con lo que resulta sencillo hacer las consultas que sean necesarias en muy poco tiempo. Es verdad que los datos le dan a las organizaciones un margen competitivo. Sin embargo, el desafío está en recopilar los datos y almacenarlos para extraerlos rápidamente de manera que tengan sentido para lo que se necesite en un momento determinado.

Históricamente, la analítica ha sido compleja y costosa; además, las fuentes de datos aumentan exponencialmente y son cada vez más complejas y cambiantes. Recientemente, las empresas que operan con datos están más comprometidas con su software, puesto que sostiene información crítica para el éxito de su empresa.

Las soluciones de este tipo contienen datos acerca de qué tan comprometido está el cliente, el éxito del negocio e, incluso, acerca de la salud del propio software. Por ejemplo:

 

¿Cómo beneficia a los desarrolladores?

Los desarrolladores constantemente están trabajando en algún paso del ciclo de desarrollo. Mientras están en este proceso tienen que enfrentarse a las cuestiones que van surgiendo sobre la marcha. Ahora bien, al momento de probar si todo está funcionando correctamente, lo más probable es que haya fallos en algún punto del proceso. Ordinariamente habría que hacer una revisión en todos los pasos para hacer una detección oportuna de lo que está ocurriendo. Sin embargo, una estrategia de inteligencia de datos da la posibilidad de obtener un diagnóstico de manera inmediata sobre cuáles son los errores en el proceso ¿Cuál es el resultado? Flexibilidad y ahorro de tiempo al por mayor.

Haz preguntas complejas que requieran correlación de datos. Generalmente tomaría mucho tiempo encontrar respuestas, pero con inteligencia de datos obtendrás información inmediata.

 

Facilita el trabajo de tu equipo IT

Con frecuencia, los equipos IT son convocados para dar respuesta a las peticiones de datos críticos de infraestructura y su impacto en el negocio, lo que puede tomar mucho tiempo para que finalmente se ejecute, además de un número significativo de recursos y procedimientos. En respuesta a esto, la Inteligencia de datos utiliza agentes que recolectan datos en tiempo real. Luego, se almacenan en la nube, y finalmente puedes cortar y dividir los datos como sea más conveniente.  

Para que la inteligencia de datos sea eficiente, se requiere una gran capacidad de procesamiento de cómputo, capaz de procesar análisis de millones de datos por segundo. Las soluciones de nube son ideales para este fin, por lo que una plataforma inteligente y dinámica es esencial.

Tu equipo puede responder de manera instantánea ante complejos diagnósticos que involucran problemas de código, infraestructura, bases de datos y experiencia de usuario, de manera autónoma.

Permite al área de IT brindar soporte a las peticiones criticas de datos de tu negocio de manera rápida y eficaz.

Ofrece a los gestores de IT crear mejores estrategias, así como tomar decisiones oportunas basadas en datos.

En resumen, existen múltiples beneficios de tener información rápida y precisa en el momento justo, y una buena estrategia de inteligencia de datos es esencial para lograrlo.  

 

Solicita un demo. Conoce cómo un equipo de expertos especializados pueden ayudarte a crear o enriquecer tus estrategias.

Monitorea tus aplicaciones móviles y evita pérdidas monetarias

Puedes evitar una mala experiencia a los usuarios de tu aplicación móvil monitoreando tu sistema. Sabrás exactamente en dónde se origina algún problema y cómo resolverlo.

La película que has estado esperando ver finalmente se estrena, por lo que decides buscar la próxima función en tu cine favorito. Entras a la aplicación desde tu teléfono, seleccionas la película y justo cuando eliges tu asiento la aplicación colapsa. Lo intentas nuevamente, pero el error sigue ocurriendo en el mismo paso. Cuando llegas al lugar hay una fila larguísima, es miércoles. Finalmente llega tu turno, pero el único lugar disponible es frente a la pantalla. Rechazas vivir esa mala experiencia. Estás molesto porque no pudiste ver la película y sólo piensas que si la aplicación hubiera funcionado correctamente estarías disfrutando de tu palomitas.

Miremos del otro lado. Es probable que, quienes desarrollaron dicha aplicación, pasaron mucho tiempo perfeccionándola y haciendo pruebas. Sin embargo, dejaron el seguimiento y actualizaciones a un lado y ahora sólo reaccionan a las quejas de los usuarios. Olvidaron un plan de optimización, actualizaciones y correcciones de bugs.

Preguntas clave

Debido al colapso de la aplicación, podemos deducir algunas preguntas que se estarán haciendo, tanto los ingenieros como los ejecutivos de negocios:


Cómo responder a las distintas problemáticas

Si detectamos que la aplicación presenta un problema, es necesario saber dónde se originó. Para esto, deberíamos tener información del entorno de usuario: modelo de teléfono, versión del sistema operativo, proveedor de servicio de telefonía (carrier), conexión a internet (datos móviles o WIFI), bloqueador de publicidad instalado. Hasta conocer toda esta información, seremos capaces de replicar el problema mediante simuladores. De esta forma, podremos saber si el problema depende de nosotros (código de la app, infraestructura, bases de datos), servicios de terceros o provino del usuario (por ejemplo, el carrier que no tuviera servicio al momento del error).

Además, para poder dar respuesta a las primeras dos preguntas, las herramientas que se usen para monitorear deberán tener disponible un sistema de alertas. Mientras, para el segundo punto contar con una plataforma con monitoreo de infraestructura, aplicaciones móviles y aplicaciones web, además, que sean capaces de interactuar  entre ellos otorgará una ventaja significativa, ya que la visibilidad de la acción será completa. Es decir, de extremo a extremo. De otra forma, saber que tu aplicación falló sin conocer qué componentes están involucrados, además del precio de la operación y las mejoras que cada uno necesita, resultará de poca ayuda. Sobre todo si consideramos la diferencia de costos entre corregir un problema en una app de servidor y en una app móvil.

Para optimizar este proceso de monitoreo lo mejor sería contar con una sola plataforma, que fuera capaz de monitorear toda la tecnología desde ese mismo lugar. De esta forma, todas las interrogantes quedarían resueltas.

La calidad es vital al desarrollar una aplicación móvil. Esto podría parecer evidente. Y lo es. Sin embargo, el verdadero reto se presenta cuando tus equipos dependen de terceros y la aplicación ya está en producción. Si tienes una suite completa que monitorea tanto tus aplicaciones en Android como en iOS, entonces los desafíos antes mencionados serán más sencillos de manejar.

Experiencia de usuario

Una vez detectado el problema y su posible solución, es importante destacar que el monitoreo no solamente te permitirá analizar los fallos, también te brindará información sobre cómo se está utilizando la aplicación. Esto significa que podrías hacer mejoras de tipo comercial, por ejemplo, si detectas que una pantalla es muy visitada ya que podrías añadir ahí el producto más reciente y así asegurarte de que será muy consultada.

Éstos son algunos datos que tendrás a tu alcance:

En resumen, el monitoreo de aplicaciones móviles permite detectar y resolver los problemas que pudieran presentar tu aplicación, sin importar si son propios o de terceros. Dar una pronta respuesta a las quejas de los usuarios ante un error hará que haya un mayor compromiso con tu marca. Cabe mencionar que no solamente evitarás las pérdidas monetarias con fallos imprevistos, sino que también podrías aumentar tus ingresos.

Para más información o solicitar un demo, favor de comunicarse con los especialistas de Menta.

Beneficia a tu negocio con la resiliencia tecnológica

Si temes porque tus datos y los de tus clientes no se encuentren bien resguardados, entérate en qué consiste la resiliencia tecnológica y cómo te puede beneficiar.

El robo de datos de clientes sucede cuando la información se sustrae, ya sea de una compañía grande o pequeña, sin el conocimiento del dueño del sistema. Esto lo puede llevar a cabo una persona o un programa y se usa para apoderarse de datos como números de tarjetas o información de seguridad nacional. Esto puede provocar no solamente daño financiero a una persona, sino a la empresa de donde fueron tomados.

La resiliencia tecnológica es un conjunto de prácticas y perspectivas que mitigan el riesgo dentro de los procesos para proteger a las organizaciones de su propia tecnología y a las personas que intenten explotarla. Lo que incluye todas las formas de ciberataques, pero también aplica en errores de proceso dentro de los negocios que ponen datos y recursos en peligro sin ninguna ayuda externa.

La digitalización ha irrumpido en el mundo para hacer los procesos más rápidos, comunicación instantánea, análisis de datos y redes sociales. Sin embargo, la tecnología que opera estas innovaciones no es a prueba de balas y los riesgos son proporcionales a la funcionalidad que proveen. A diferencia de los enfoques tradicionales para este problema, la resiliencia no se trata de poner algo que está por debajo, encima de la infraestructura para hacerlo más seguro. Más bien se trata de pensar cómo está construida por sí misma, cómo se maneja y se mantiene a través del tiempo. Las operaciones diarias del negocio son las que determinan la durabilidad de sus recursos y es al interior donde la resiliencia debe ser creada.

¿Qué es la ciberseguridad?

Cuando se trata del manejo de riesgo tecnológico, generalmente se categoriza como “seguridad“. Ciberseguridad es una palabra muy frecuente en la actualidad, ya que se relaciona con la mitigación del riesgo cibernético. Sin embargo, si se mira de cerca, dicha práctica se ha caracterizado por alejarse de los enfoques tradicionales en esta materia. En otras palabras, la seguridad, en contraste con la resiliencia puede verse como binaria: algo está seguro o no lo está. La resiliencia cibernética, por su parte, conlleva una solución a largo plazo.

El riesgo cibernético, se asume como una serie de huecos en la tecnología, que si son resueltos con las piezas correctas, pueden prevenir la explotación. Por ejemplo, ¿hay problemas con una red de acceso no autorizado?, se requiere un sistema de prevención de intrusos ¿Problemas con el malware?, es necesario  un dispositivo anti malware empresarial. Recordemos que en 2016, las compañías alrededor del mundo gastaron cerca de 20 mil millones de dólares en ciberseguridad. Sin embargo, esto no va al fondo del problema, y requiere que sigan adquiriendo software para protegerse.

DevSecOps

Anteriormente, la entrega de software tenía un proceso distinto a como se hace ahora. Primero, los equipos de desarrollo entregaban su software, verificado únicamente en los entornos de prueba, al equipo de operaciones, quienes llevaban a cabo las implementaciones. En resumen, los primeros se encargaban de entregar a los otros, y éstos eran los responsables a partir de ese momento. Es decir, los equipos operaban de forma independiente y no había mucha comunicación entre ambos. Sin embargo, esto tiene la gran desventaja de que, si hay un problema en producción, es responsabilidad del personal de operaciones u Ops identificarlo y resolverlo. Únicamente si consideraban que deberían involucrar a desarrollo o Devs, lo hacían.

Actualmente este proceso ha cambiado. Las nuevas formas implican un trabajo mucho más integrado. DevOps cuenta con desarrolladores y trabaja de forma estrecha con gente de operaciones, lo que implicaría que los desarrolladores trabajen en operación y viceversa. La brecha existente anteriormente se cierra gracias a los siguientes factores:

 

1) Los Ops y devs están perfectamente coordinados y comparten la responsabilidad de la operación.

2) Los Ops proveen los entornos de prueba y preproducción a los devs, garantizando estructura y homogeneidad.

3) Los Ops tienen una estrategia de entrega continua más ágil que permite recuperarse de las fallas más fácilmente.

 

En DevOps no hay validaciones de seguridad ni mecanismos de prevención, como parte del ciclo de vida del software y su operación, ya que la seguridad sigue siendo un área separada. Por ejemplo, si hay un ataque, vulnerabilidad o riesgo de intrusión, se identifica y resuelve aparte, por el área de seguridad, quien involucra a DevOps sólo si hace falta.

Por su parte DevSecOps se enfoca en el ciclo de vida del software; su entrega y operación, la conciencia de la seguridad, mecanismos automatizados de validación y prevención, la procuración de homogeneidad en configuración, entre otros. Por esa razón, según Gartner, en 2018 los negocios web invertirán 96 mil millones de dólares en resiliencia tecnológica

Por lo anterior, es común que tanto desarrolladores como administradores de sistemas trabajen actualmente en coordinación para alcanzar las metas que el nuevo modelo de negocio exige. Pese a ello y para solventar el problema de la seguridad, DevSecOps sugirió que desarrollo y operaciones trabajen juntos mediante un servicio de resiliencia tecnológica para garantizar un enfoque prioritario de seguridad y construir un sistema exitoso mediante un servicio de resiliencia tecnológica.

Resiliencia cibernética

DevOps + seguridad = DevSecOps; DevSecOps + cuestiones de negocios = resiliencia cibernética.

DevSecOps se enfoca principalmente en la seguridad del ambiente tecnológico, mientras la resiliencia cibernética se trata de proteger el negocio de manera integral. De ahí su vital importancia en los negocios actuales, ya que, las consecuencias de una violación de datos no son sólo técnicas, sino también sociales, financieras y de reputación. Las compañías que confìan en la tecnología de información –un número creciente– deberían incluir riesgo cibernético como una prioridad crítica de sus propios negocios.

La tecnología y la innovación seguirán avanzando, y la brecha entre usar resiliencia cibernética y no hacerlo será cada vez mayor, ya que los incidentes relacionados con apropiaciones de datos serán cada vez más numerosos. Los avances tecnológicos no sólo tiene que ver con crear nuevas y mejores herramientas y aplicaciones, sino también con responder a la pregunta ¿Cómo podemos hacerlas más seguras?

La respuesta es que, si las empresas quieren mantenerse al día, operar en escala y actuar en tiempo real, deben adoptar una estrategia de resiliencia cibernética, puesto que, a diferencia de las estrategias de seguridad, la resiliencia traerá beneficios a las operaciones diarias del equipo IT. Recordemos que la resiliencia se enfoca en el propio trabajo y los procesos necesarios para hacerlo más eficiente, sin importar que no se presente un incidente de seguridad o una interrupción. Los procesos tienen mejor visibilidad, documentación, automatización y validación. En otras palabras: le facilita la vida al personal a cargo.

¿Qué estamos arriesgando?

La exposición de datos y el fraude financiero son conceptos que nos resultan muy familiares. Actualmente de manera regular tenemos noticia de robo de datos y resulta escandaloso debido al volumen de información. Muchos negocios priorizan al cliente, pero tan importante como esto son sus datos, ya sea que los manejen internamente o por terceros. De otra forma, en un futuro no muy lejano dichos clientes optarán por servicios o productos que puedan brindarle una mayor seguridad.

 

Si quieres saber más, solicita una demostración y conoce cómo podemos ayudarte.

Conoce las ventajas de monitorear tu infraestructura dinámica

Si ya utilizas una infraestructura dinámica o estás pensando adquirirla, es importante que conozcas cómo se monitorea y cómo se diferencia de una arquitectura monolítica.

Si tienes un sitio o aplicaciones web quizá hayas escuchado los términos de infraestructura estática e infraestructura dinámica, pero ¿qué son y cómo se distinguen?

La primera, la estática, es una estructura tradicional en la que tienes una cantidad de recursos limitados que no varían; mientras tanto, la segunda, la infraestructura dinámica, está basada en software capaz de identificar, virtualizar, clasificar, cuantificar y rastrear los recursos del centro de datos. Un ejemplo de la primera es cualquier sitio de un servidor único, en el segundo grupo podemos encontrar aplicaciones como Airbnb o Amazon. Si tu empresa requiere una u otra esto dependerá de si requieres migrar a la nube o modernizar tu arquitectura de monolítica a microservicios.

Estas son algunas variaciones de la infraestructura dinámica respecto a la estática.

En el pasado, cuando la infraestructura estática predominaba en el mercado requería de un tipo específico de monitoreo. Ahora, cuando las necesidades apuntan hacia la infraestructura dinámica, esa clase de monitoreo quedó atrás, por lo que ha sido necesario avanzar hacia uno distinto.

De la infraestructura estática a la dinámica

A medida que van ocurriendo cambios, éstos pueden tornarse como oportunidades. En el caso de implementar una infraestructura dinámica, encontrarás cambios en la manera en la que trabaja tu equipo o cómo se comprometen los clientes con tu marca. Probablemente comenzaste con una estructura más simple, pero con el tiempo la estructura va tomando forma, se hace más compleja y ese proceso de adaptación te brinda muchas oportunidades: necesidades de marketing, desarrollo de tecnología, mayor eficiencia.

Una infraestructura dinámica te ofrece ventajas como, por ejemplo, correr la infraestructura que necesitas cuando la requieres, lo que da como resultado que utilices la cantidad de recursos correcta, tanto de tiempo como de dinero.

Cómo opera el monitoreo de infraestructura dinámica

Claves del monitoreo de infraestructura dinámica

De la infraestructura estática a la dinámica

El dinamismo consiste en tener la posibilidad de escalar la infraestructura, tanto horizontal como vertical. La verticalidad sucede cuando a un mismo recurso le agregas más capacidad, por ejemplo, pasar de 32 GB a 64 GB, esto aplica a varios servidores. En contraste, la escala horizontal consiste en agregar más elementos del mismo tipo, es decir, agregar más servidores. Existen además dos formas de hacerlo, manual o con autoescala de forma automática. Sin importar si tienes un sólo servidor o varios puedes ver la información por grupos o de manera individual.

Si quieres examinar este monitoreo en tu página o aplicación para probar sus cualidades solicita un demo con nuestros expertos.

Monitoreo sintético y Monitoreo de usuarios reales

Conocer cómo funcionan el monitoreo sintético y el de usuarios reales (RUM) te ayudará a saber cuál es el que tu negocio en línea necesita.

La importancia de monitorear la experiencia de tus usuarios surge de la necesidad de brindar un buen servicio. Antes de decidir por optar entre las dos técnicas de monitoreo más populares, el monitoreo sintético o el monitoreo de usuarios reales (RUM), es una buena idea identificar cuáles son las necesidades de tu aplicación o página web  y qué aspectos te gustaría mejorar al interior.

Por esa razón vamos a hacer un zoom a estos dos monitoreos y de esta forma podremos observar para qué sirve cada una.

Monitoreo sintético y de usuarios reales

Seguramente ahora podrás elegir el monitoreo perfecto para tu empresa. Si quieres saber, solicita una demostración y conoce cómo podemos ayudarte.

Monitorear tu aplicación te ayudará a ahorrar dinero

Es común que en los negocios digitales se tomen decisiones basadas en percepciones. Aprende a utilizar los datos en tu beneficio y llega a mejores resoluciones.

El buen servicio al cliente es crítico para cualquier negocio, incluidos los digitales. Por eso, vale la pena preguntarse: “¿Cómo beneficia a mi negocio monitorear constantemente mi página o mis aplicaciones web?” Pensemos en la siguiente situación. Una plataforma bancaria recibe a las 10 am múltiples peticiones de sus usuarios intentando realizar transacciones y, de pronto, la página  colapsa. El equipo de tecnología tendrá que dejar lo que esté haciendo y centrarse en resolver el problema antes de que esto impacte en quejas o, incluso, en penalizaciones económicas. Recordemos que el tiempo es dinero. Así, mientras el equipo IT intenta resolver el fallo, la empresa está perdiendo dinero. En esos momentos es cuando las compañías recuerdan que monitorear sus página y aplicaciones puede traer múltiples beneficios.

Cabe destacar que, desde el momento que la empresa decide monitorear las aplicaciones, hay 3 preguntas que debe responderse:

¿Mi aplicación y su entorno están disponibles?

¿Está funcionando correctamente?

¿Es rápida?

Indicadores de la pertinencia de un monitoreo

Si hablamos de una aplicación  o página web, a continuacións algunas incidencias que podrían ocurrir y que debemos tener presentes al momento de monitorear.

– Empujar los límites. Por ejemplo: si un disco está lleno, un servidor alcanza un límite en la memoria física o llega a la cantidad máxima de proceso en una tarea.

– Problemas con la red. Puede ocurrir que un sitio se vuelva inalcanzable, que haya grandes pérdidas de paquetes, conexiones de servidor, caídas o fallas de DNS.

– Fallas de componentes o servicios. Posiblemente el servidor de base de datos haya colapsado o algún query esté tomando demasiado tiempo y recursos.

– Problemas con servicios de terceros. Su cubo S3 es inalcanzable, su pasarela de pagos tiene problemas o su CDN no funciona.

– Problemas con sus aplicaciones. Errores y excepciones; inconsistencias en sus datos o incluso errores en su código.

Qué podemos lograr mediante el monitoreo

Una primer meta del monitoreo es alcanzar alta disponibilidad, minimizando el tiempo para detectar y mitigar (MTTD, MTTR). Es decir, tan pronto como surgen problemas en el desempeño, la información relacionada se transmite a los equipos de tecnología vía monitoreo automático, es decir, MTTD. Los equipos DevOps operan de acuerdo a esta información para aminorar los inconvenientes tan pronto como sea posible, para que los usuarios no se vean afectados. Esto es TTM. Los tiempos de resolución se miden, por lo que los equipos trabajan para mejorarlo. Luego de contrarrestar los inconvenientes, trabajan en cómo mitigar los problemas en esa ubicación para que no sean recurrentes. Esto se conoce como MTTR.

Una segunda meta del monitoreo es habilitar el “aprendizaje validado“. Este proceso nos muestra cómo cada implementación es una oportunidad para rastrear los resultados experimentales que alientan o disminuyen las hipótesis de por qué ocurrieron lo problemas. El seguimiento y las diferencias entre versiones permiten que los equipos midan el impacto del cambio y tomen decisiones de negocios. Si una hipótesis es descartada, el equipo puede fallar rápidamente o “hacer pivote“; sin embargo, si la hipótesis es respaldada, entonces el equipo puede avanzar. Estas decisiones basadas en datos conducen a nuevas hipótesis y a responder con más eficiencia y rapidez a un problema determinado.

Cómo se monitorea

“Telemetría“ es el mecanismo por medio del cual recolectamos datos del monitoreo. Este mecanismo puede utilizar agentes que están instalados en los entornos de implementación, por ejemplo, un SDK que se basa en marcadores insertados en el código fuente, el registro del servidor o una combinación de los anteriores. Generalmente, la Telemetría distingue entre la canalización de datos optimizados para las alertas y los tableros de control en tiempo real (dashboards). Además, también distingue los datos de mayor volumen que son necesarios para la resolución de problemas o análisis de uso. Por su parte, el monitoreo sintético funciona mediante la emisión de transacciones simuladas automatizadas, desde un usuario virtual hasta su aplicación, para imitar lo que éste podría hacer.

Como una buena práctica, es bueno tener mecanismos de monitoreo siempre activos en producción. Ya sea en entornos de prueba, control de calidad o desarrollo. Un despliegue bien monitoreado arroja datos sobre la salud y desempeño, para que el equipo pueda prestar atención a un incidente cuando éste ocurre.

Además, resulta clave el monitoreo al momento de hacer “migraciones“ o cambios importantes de arquitectura. Por ejemplo: cambiar de dos servidores de aplicación a cinco medianos; de plataforma, cambiar de Microsoft a Oracle; o de código, en el caso de que hubieran rediseñado su sitio.

Por todo lo anterior, queda claro que monitorear tus aplicaciones ofrecerá una mejor experiencia a tus usuarios y, también hay que decirlo, podrías ahorrar una buena cantidad de dinero evitando incidencias.

Para más información, favor de comunicarse con los especialistas de Menta

Si te gustaron estas sugerencias y quieres ahorrar dinero, monitoreando tu aplicación. Acércate a nosotros

Contáctanos

Por favor introduce tus datos y nos pondremos en contacto contigo.

¿Monitoreo de usuarios reales vs. Google Analytics?

Si crees que Google Analytics no arroja todas las métricas que te gustaría analizar probablemente necesitas RUM, herramienta que monitorea la experiencia de calidad que tienen los usuarios

Imagina que alguien te pide que uses pantalón deportivo en lugar de un pantalón de vestir. O que deberías comer un mango en lugar de una fresa. Seguramente te extrañarías ante peculiares sugerencias, ya que no existe una razón clara para preferir una sobre otra. De la misma forma, hay quienes se preguntan por qué requieren usar Monitoreo de Usuarios Reales o Real User Monitoring en lugar de usar  Google Analytics que, además, es gratis. La respuesta más simple es: no son excluyentes, sino complementarias.

Google Analytics (GA) fue lanzado en 2005 y es una herramienta importante para los negocios que quieren medir el comportamiento de su tráfico. Es también sencilla de instalar y de usar, y no requiere de mucha sobrecarga. El propósito general de GA es ayudar a una persona o al dueño de un negocio a entender qué tanta efectividad tiene su marketing, SEO y los gastos por anuncios publicitarios. Con GA se puede entender quién visita un sitio, desde dónde y mediante qué dispositivo; además, puede tener un impacto positivo en publicidad y marketing.

Por otra parte, el Real User Monitoring o RUM, por sus siglas en inglés, no es tan popular para cualquier persona. RUM es una forma de monitoreo web que registra todas las interacciones de los usuarios con un sitio web o una aplicación con mucho mayor detalle y profundiza en métricas de las que probablemente el usuario promedio no ha oído hablar. Este análisis incluye cuestiones como la resolución de DNS, tiempo de conexión TCP, la negociación de encriptación SSL, la transmisión del primer byte, la visualización de navegación, tiempo de renderizado de la página, los segmentos TCP fuera de servicio y el tiempo de interacción de los usuarios. Para resumir, con GA se puede ver cómo interactúan los visitantes con el contenido, mientras que RUM permite monitorear la experiencia de calidad que tienen los visitantes en la aplicación

Muestreo de datos

Google Analytics toma muestras de datos dependiendo de la información que vaya a recabar. Este método es funcional en la medida en la que aproxima resultados, sobre todo cuando se trata de grandes conjuntos de datos. Sin embargo, si lo que la empresa requiere es prestar atención en un segmento pequeño es necesario RUM, pues podrá obtener un conjunto de datos completos. Esto le servirá para ver a todos sus usuarios, incluyendo a los que utilizan dispositivos o navegadores menos comunes en áreas menos densamente pobladas.

Datos en tiempo real vs. historial

En lo que se refiere al monitoreo de experiencia del usuario contra la interacción, el tiempo es una factor determinante. Cuando los usuarios experimentan un desempeño lento, el negocio requiere información inmediata. Por ello, mientras Google Analytics tiene algunos reportes en tiempo real, y otros con retraso de varias horas, no incluye métricas de desempeño al momento. Google Analytics tarda en recolectar los datos de un reporte, al menos, un par de horas. Mientras, el Monitoreo de Usuarios Reales comienza a actualizar sus paneles de control en tiempo real al momento que los usuarios acceden a las páginas.

Valores medio vs valores promedio

Si los datos de tu empresa presentan algunos valores atípicos, esto puede sesgar tus informes, especialmente en los datos de rendimiento. Para tratar de minimizar estos problemas, RUM ofrece un valor medio o un valor promedio para representar los puntajes de rendimiento. Estos valores fácilmente se pueden cambiar mediante los tableros personalizables de Uptrends. Mientras que en Google Analytics no es posible seleccionar el método para calcular la media.

Datos y tableros

La interfaz de usuario de Google Analytics está pensada para que los informes de audiencia se centren principalmente en los datos demográficos de los usuarios y no en el rendimiento del sitio y en la experiencia del usuario. En cambio, RUM está pensado en el rendimiento y la experiencia del usuario. Incluso, es posible crear tableros customizados que permiten obtener datos de forma personalizada.

Diagnosticar y funcionalidades

En resumen, Google Analytics es una herramienta de Marketing que no ayuda a los usuarios a diagnosticar problemas de interacción. Mientras tanto, RUM es una herramienta de monitoreo de calidad sobre eventos precisos en el navegador del usuario, algo que Analytics, como también se le conoce, nunca verá.

Para más información, favor de comunicarse con los especialistas de Menta

¿Estás interesado en implementar monitoreo de usuarios reales en tu aplicación web?

Contáctanos

Por favor introduce tus datos y nos pondremos en contacto contigo.

Monitorea el rendimiento y disponibilidad de tus aplicaciones de manera simple con una APM

Lo más importante para tu negocio en línea es ofrecer al usuario final un buena experiencia. Averigua cómo te puede ayudar a monitorear tu software una APM.

Son las 2 pm y estás en la oficina. Hora de comer, piensas. ¿Cuál será la mejor opción? Inmediatamente te vienen a la mente tus lugares de comida rápida favoritos. De pronto piensas que deberías comer saludable. Te planteas la posibilidad de ir a algún lugar donde sirvan verduras o algo por estilo. ¿Deberías optar por la opción saludable o ir corriendo por algo grasoso?

Seguramente dudas. Hay varios factores a considerar: el precio, la cercanía del lugar y, por supuesto, los aportes nutricionales. Lo mismo pasa a la hora de decidir si optar por implementar una APM (Application Performance Management, por sus siglas en inglés) en la aplicación de tu negocio. Quizá ahora pienses que no es exactamente lo mismo, pero sí hay similitudes. Por ejemplo, entre la comida rápida y la opción saludable, lo más barato es la primera opción y entre implementar una APM o no hacerlo, definitivamente es no hacerlo. Sin embargo, aquí viene la parte importante: los aportes nutricionales. Más allá de tu apariencia, hay una opción que te aportará mayor bienestar a largo plazo, tanto en el caso de tu alimentación como en el de tus aplicaciones web.

¿Qué es APM?

Antes de continuar, revisemos qué es APM o Application Performance Management. Es una práctica que monitorea el rendimiento y la disponibilidad del software. Dicha práctica nos permite determinar cuándo una aplicación está funcionado de manera normal y cuándo no. De esta forma podremos identificar y resolver un eventual problema lo más rápido posible. El objetivo de los servicios de una APM es mejorar la experiencia del usuario a través de datos que nos permiten adentrarnos en cómo funciona una aplicación y por qué. Con esta información, plasmada en un dashboard o tablero de datos, se evita que los equipos de IT se queden atascados revisando de forma manual los datos.

¿Cómo determinar si necesito una APM?

Muchas veces los problemas comienzan cuando el usuario tiene una experiencia con bajo rendimiento. Cuando esto ocurre, podría tratarse de un problema con la red, del sistema operativo, del Middleware, de la base de datos, del código. En un escenario como éste, y si tu negocio no cuenta con algún tipo de monitoreo, buena parte de tu equipo de IT se dedicará a revisar un problema y encontrar una pronta solución. Sin embargo, no siempre es rápido. Puede tomar horas antes de que todo regrese a la normalidad.  

Esto nos lleva a preguntarnos “¿Dónde debemos empezar a buscar y qué sistema o qué parte de éste fue el responsable?” La mayoría de las ocasiones, cada equipo de IT responderá que su área lucía bien (durante la crisis) y no tienen registros de problemas. Seguimos donde estábamos. No sabemos qué causó la falla. Lo cierto es que algo no estaba funcionando como debería y tenemos que asegurarnos de que no vuelva a ocurrir. Además, y lo más importante, ¿cómo le informas a tus  usuarios? No faltará el cliente que se haya molestado con la experiencia ofrecida y decida no confiar en tu negocio. Está bien informar que estamos trabajando en el asunto, pero si todo sigue igual, de poco ayudará. Recordemos que la mayoría de las veces los usuarios no son muy comprensivos y rápidamente podrían optar por otra opción.

¿No sería estupendo rastrear a uno solo o a un grupo de usuarios a través de tu sistema, mientras visualizas datos presentes y pasados de las diferentes llamadas web, llamadas de base de datos e incluso saltos de red? ¿No te gustaría, además, tener la capacidad de saber si lo que está ocurriendo se debe a una falla en la red de tu cliente o en la tuya propia? Si las respuestas fueron “sí”, entonces requieres una APM.

Repasemos en qué puntos específicos te ayudará una APM.

Calificar el rendimiento

Una APM nos da la habilidad de tener una base de datos para la experiencia de usuario y notificarlo si nos salimos de nuestro tiempo óptimo de respuesta, ya sea en carga o en volumen de transacción de datos. Esto nos permite aislar rápidamente el motivo del problema y determinar con precisión cuántos usuarios fueron afectados. También te da la habilidad de notificar a los usuarios afectados, así como a los potencialmente afectados, acerca de los problemas del sistema y hacerles saber que hay una solución en proceso.

Recopilar métricas

Las herramientas de una APM rastrean y registran la información relacionada con el rendimiento de una aplicación en cualquier nivel. Estos datos podrán ser utilizados por su personal IT para conocer el rendimiento de cada componente en relación al usuario. Adicionalmente, las APM te darán un contexto a través de un tablero optimizado. De esta forma su personal ahorrará tiempo en interpretar los datos que fueron arrojados.

Alertas

Las Application Performance Management también ayudan a los negocios a eliminar la saturación de trabajo en el proceso de monitoreo. Es decir, si su empresa realiza los ajustes pertinentes en la configuración sus aplicaciones, podrá activar alertas cuando las métricas del servicio alcancen sus límites más altos. En otras palabras, APM permite hacer monitoreos sin estar en la aplicación. Por ello, las alertas también se pueden usar para medir el crecimiento del uso de aplicaciones a lo largo del tiempo e identificar picos de tráfico.

Prevenir es siempre más económico (y más estratégico) que reparar. Recuerda que implementar una APM es crítico para un negocio preocupado por sus clientes. Quizá no sea tan sencillo como resolver dónde comerás hoy, pero sí mucho más rentable.

Para más información, favor de comunicarse con los especialistas de Menta.

Si quieres monitorear el rendimiento y disponibilidad de tu software, acércate a nosotros.

Contáctanos

Por favor introduce tus datos y nos pondremos en contacto contigo.

Conoce los beneficios del monitoreo sintético en tus aplicaciones

Averigua cómo funciona tu aplicación web, desde la perspectiva del usuario mediante monitoreo sintético el cual usa robots que simulan ser usuarios.

Si tienes un negocio, cualquiera que este sea, seguramente te interesa dar el mejor servicio a tus clientes. Precisamente por esa razón vamos a hablar de monitoreo sintético en tus aplicaciones. Pensemos que tienes un restaurante. No estarías contento de saber que una mesera fue grosera con un comensal y que por ese motivo no volverá más. Sin importar lo mucho que le haya gustado la comida. ¿Cómo podrías solucionar los problemas de actitud de tu personal? Probablemente un curso de capacitación podría ser un buen camino. En el caso de una tienda de instrumentos musicales, es crítico que los vendedores conozcan de marcas y características de los productos que venden. En resumen, el éxito de cualquier negocio está en ofrecer un buen servicio al cliente. Pero, ¿qué pasa si tu negocio está en internet?, ¿cómo puedes ofrecer un buen servicio? La respuesta corta es interesándote por tu cliente. Y, ¿cómo hacemos eso? Dándole valor al tiempo y a la experiencia que tiene el usuario en tu sitio.

Pensemos que tienes una página de accesorios para mascotas. Un buen día, alguien decide comprar una transportadora para gato, pero justo en ese momento la página está muy lenta y no procesa el formulario de pago. Lo vuelve a intentar sin éxito ¿Qué crees que pasará? Exactamente, visitará otra página para comprar la transportadora y, por supuesto, esto no le trae beneficio alguno a tu empresa.

Ahora, cómo podemos garantizar a nuestros usuarios que el sitio estará disponible y funcionando correctamente en todo momento o, al menos, que si falla, lo sepamos al momento, para solucionarlo antes de cualquier queja. Aquí es donde entra el monitoreo sintético. Esta herramienta utiliza un método que consiste en simular usuarios en tu sitio, de forma que podrá dirigir los pasos que estos supuestos usuarios tomarán en tu página. De esta forma, podrás conocer información relacionada con el tiempo de respuesta, así como el rendimiento de transacciones comerciales críticas.

¿Cómo funciona el monitoreo sintético?

La herramienta funciona por medio de la emisión de transacciones simuladas automatizadas desde un usuario virtual a su aplicación, para imitar lo que cualquier usuario podría hacer. Este monitoreo se puede aplicar detrás del firewall, es decir, al interior del centro de datos para asegurar que los servicios/páginas/APIs privados o de acceso restringido funcionan correctamente. También puede ser delante del firewall, ya que este análisis arrojará información acerca de la disponibilidad y el rendimiento desde una perspectiva global. La herramienta podrá monitorear la aplicación en intervalos regulares, por ejemplo, cada 15 minutos. El monitoreo sintético puede ser emitido desde un solo cliente de navegador o desde múltiples navegadores que se encuentran en varias ubicaciones alrededor del mundo, para valorar mejor la disponibilidad y capacidad de respuesta del sitio a nivel local o regional.

¿Qué clase de monitoreo sintético te traerá mayores beneficios?

Existen dos clases de monitoreo sintético, el simple o de disponibilidad y el complejo o de funcionalidad. Con el primero solo podemos dar respuesta a si un servicio está prendido, mientras que aquel sigue el guión de ejecución para emular transacciones complejas por completo. Es decir, el monitoreo de funcionalidad te dará métricas que son mucho más útiles que solo saber si un servicio está prendido o apagado.  Además, existe otro tipo de monitoreo que es el de usuario reales o RUM Real User Monitoring, por sus siglas en inglés. En futuras entradas abordaremos cómo se complementa el RUM con el monitoreo sintético complejo y cuáles son las diferencias entre estos.

¿Qué beneficios puedo obtener con el monitoreo sintético?

– Cómo es el rendimiento de mi aplicación. Crear mediciones sintéticas mediante la simulación de navegación de usuarios dentro de tu aplicación, para obtener métricas de calidad y desempeño.

– Qué tan rápido está funcionando mi sitio en tiempo real. Comprobar cuánto tiempo tarda tu aplicación en dar una respuesta y verificar que se esté comportando correctamente.

– Qué tan bien se está desempeñando mi aplicación. Elaborar pruebas automatizadas de calidad en ambientes de prueba o preproducción

– Que las acciones que realizan los usuarios funcionan correctamente. Probar que las páginas y APIs regresen datos bien estructurados.

– Que el contenido se presente adecuadamente al usuario. Asegurar que el idioma o las imágenes que utilizas en tu sitio desplieguen correctamente, y confirmar que los botones estén en el lugar correcto.

Recuerda, si quieres dar una buena atención y experiencia a tus usuarios, el monitoreo sintético arrojará datos que podrás utilizar para mantener el funcionamiento correcto el tus aplicaciones, tal como lo harías en un negocio físico.

Para más información, favor de comunicarse con los especialistas de Menta.

Si quieres implementar el monitoreo sintético para tu aplicación, ponte en las manos de nuestros expertos.

Contáctanos

Por favor introduce tus datos y nos pondremos en contacto contigo.

Cuidando la salud de tu aplicación Web

Conoce cuáles son los signos vitales que garantizan que tu aplicación está funcionando correctamente, según un SRE.

​¿Sabes qué tan bien está funcionando tu aplicación web? Ojo, no estoy preguntando si está funcionando—si puedes acceder a ella y te responde en tiempo razonable—, lo que pregunto es si está sana.

Es fácil notar que tu aplicación ya falló y tienes que tomar acciones inmediatas para revivirla. Te das cuenta porque es viernes en la noche, estás a punto de salir de la oficina y comienza a sonar tu teléfono.

Lo difícil es saber si tu aplicación está en mal estado antes de que falle, percibir las señales de alerta y prevenir los incidentes antes de que ocurran. Curarse en salud es el sueño de todo administrador de sistemas que quiere irse temprano a casa.

Pero en este contexto ¿qué significa que una aplicación esté sana? ¿cuáles serían las señales de alerta que me indicarían que algo podría estar mal?.

Los cuatro signos vitales

Cuando vas al doctor, te revisan tus signos vitales: temperatura corporal, frecuencia cardiaca, presión arterial y frecuencia respiratoria.

Los signos vitales le indican al doctor el estado de los principales órganos del cuerpo. Aunque en sí mismos no son suficientes para arrojar un diagnóstico, le dan al facultativo una idea de qué está funcionando bien y dónde hay problemas.

De forma análoga, podríamos decir que hay cuatro indicadores de la salud de tu aplicación: la latencia, el porcentaje de errores, el tráfico y la saturación. A continuación explicaré cada uno y cómo puedes monitorearlos.

Latencia

¿Qué es?

La latencia, también llamada tiempo de respuesta, son los milisegundos que tarda tu servidor en responder cada petición. El reloj comienza a correr cuando lee los primeros bytes que envió el usuario y se detiene cuando termina de enviar la respuesta.

¿Qué nos indica?

Nada… en principio. La latencia de UNA única petición no nos da mucha información. Es hasta que empezamos a acumular y examinar grupos de peticiones que algunos patrones interesantes comienzan a emerger:

Finalmente, es posible definir la salud de nuestra aplicación en términos de la latencia. Esto varia dependiendo del servicio, pero podemos decir, por ejemplo: si el 95% de nuestras peticiones tienen una latencia de 1500 milisegundos, o menos, y ninguna petición excede los 5 segundos, entonces el sistema está funcionando bien.

¿Cómo medirla?

Tu servidor normalmente registra la latencia, pero seguramente tendrás que configurar tus logs para incluir esta medida en tus registros:

Tráfico

¿Qué es?

El número de peticiones que se reciben en cierto intervalo de tiempo es a lo que llamamos “tráfico”. Las medidas más comunes son RPM (peticiones por minuto) y RPS (peticiones por segundo).

¿Qué nos indica?

Generalmente tener una gran demanda es una buena señal para nuestro sistema, (¡Aleluya, somos populares!) pero si la demanda crece puede afectar nuestro desempeño, por eso es importante monitorear de cerca nuestro tráfico. Por ejemplo:

¿Cómo medirlo?

Normalmente tu servidor guarda una entrada en el log por cada petición recibida. Agruparlas por intervalos de tiempo es algo que puedes hacer con un Analizador De Logs (que revisaremos en una próxima entrada). Adicionalmente:

Capacidad de Respuesta o throughput

Aunque estamos midiendo el tráfico, lo que en realidad quieres mejorar es  la capacidad de respuesta (throughput) de tu aplicación. Esto es, la cantidad de peticiones que tu sistema puede procesar simultáneamente.

Determinar cuál es la capacidad de respuesta de tu sistema va más allá de medir el tráfico y mejorar tu  throughput suele ser un problema que va más allá de aumentar los recursos del servidor, en entradas posteriores ahondaremos más en este tema.

 

Porcentaje de errores

¿Qué es?

La proporción de peticiones recibidas que terminan en error.

¿Qué nos indica?

Aún cuando una aplicación funcione bien, producirá cierto porcentaje de errores.  Si identificamos qué porcentaje de errores es “normal” para nuestra aplicación,  podremos predecir problemas si ese porcentaje cambia.

¿Por qué medir el porcentaje de errores en lugar del total de errores?

Porque el total de errores va a variar en proporción a nuestro tráfico, nuestra aplicación puede lanzar 100 errores un lunes y 300 errores el sábado, eso es normal si sabemos que los fines de semana se triplica nuestro tráfico. En ocasiones, pequeños cambios en el porcentaje de error pueden indicar problemas mayores. Por ejemplo.

¿Cómo medirlo?

Como pudiste ver en los ejemplos, los errores pueden tener diversas fuentes (servidor, aplicación, base de datos, etc.) así que quieres monitorear cada fuente por separado. Una revisión de cómo recopilar errores en todas las combinaciones de servidor-aplicación-base de datos va más allá del alcance del presente artículo, pero confiamos en que sabes cómo obtener los reportes de errores de tu aplicación.

Saturación

¿Qué es?

El porcentaje de los recursos del sistema que estamos usando. Agrupa el uso vs. disponibilidad de varios recursos. Los más importantes son: procesador, memoria, disco.

¿Qué nos indica?

La interpretación de estas estadísticas depende del sistema y su relación con las otras métricas, por ejemplo:

¿Cómo medirlo?

Sencillo: conéctate remotamente a tu servidor y abre la aplicación de monitoreo provista por tu sistema operativo (htop, Windows Performance Monitor, etc). Cabe resaltar que no es tan importante saber la situación actual, es preferible centrarse en ser alertado cuando los recursos alcancen niveles críticos. Para servidores Linux puedes usar una herramienta como Monit que te alerte cuando el sistema supere cierto umbral de saturación.

Para Windows Server puedes crear alertas en el Monitor de Desempeño y asociarla a una acción de envío de correo creada desde el Programador de tareas.

Conclusión

Ahora ya conoces  los cuatro signos vitales de tu aplicación y puedes responder a la pregunta ¿está funcionando bien mi aplicación?

Conocer estos indicadores es únicamente el primer paso en el proceso de conocer mejor tu aplicación y hacerla más confiable. En posteriores entradas hablaremos más sobre monitoreo de aplicaciones, alertas, optimizaciones y otras herramientas que puedes usar para mejorar el rendimiento de tu aplicación.

Un tema recurrente cuando hablamos de monitoreo, es que la información que necesitamos para entender nuestra aplicación y tomar mejores decisiones de negocio y desarrollo… muchas veces es información que tenemos a la mano en nuestro servidor, pero es información que no estamos usando o que revisamos únicamente cuando ocurre un error grave.

Por eso vale la pena acercarse a un experto que te oriente en el uso de metodologías formales que produzcan resultados predecibles. En Menta  estamos disponibles para atenderte.

Si quieres cuidar la salud de tu aplicación y necesitas asesoría, acércate a nosotros.

Contáctanos

Por favor introduce tus datos y nos pondremos en contacto contigo.

Apdex: Medición de la satisfacción del usuario

Seguridad APM

Recibirás un resumen semanal.