O que é Grafana?

Este artigo é uma descrição detalhada do Grafana – uma ferramenta de código aberto para executar análises e monitorar sistemas online. Ele contém respostas para todas as nossas perguntas sobre o assunto como, o que é? Por que usar? Posso implantá-lo no local? Já existem empresas que o utilizam? Quão popular é?

1. O que é Grafana e para que é utilizado?

Grafana é uma solução de código aberto para executar análises de dados, obtendo métricas que dão sentido à enorme quantidade de dados e para monitorar nossos aplicativos com a ajuda de painéis personalizáveis ​​legais.

O Grafana se conecta a todas as fontes de dados possíveis, comumente chamadas de bancos de dados como Graphite, Prometheus, Influx DB, ElasticSearch, MySQL, PostgreSQL etc.

O Grafana, sendo uma solução de código aberto, também nos permite escrever plug-ins do zero para integração com várias fontes de dados diferentes.

A ferramenta nos ajuda a estudar, analisar e monitorar dados ao longo de um período de tempo, tecnicamente chamado de análise de série temporal.

Ele nos ajuda a rastrear o comportamento do usuário, o comportamento do aplicativo, a frequência de erros que aparecem na produção ou em um ambiente de pré-produção, os tipos de erros que aparecem e os cenários contextuais, fornecendo dados relativos.

Uma grande vantagem do projeto é que ele pode ser implantado no local por organizações que não desejam que os seus dados sejam transmitidos para a nuvem de um fornecedor por motivos de segurança e outros motivos.

Com o tempo, essa estrutura ganhou muita popularidade na indústria e é implantada por grandes empresas como PayPal, eBay, Intel e muitos mais. Falarei sobre os casos de uso na indústria mais adiante neste artigo.

Além da solução central de código aberto, existem outros dois serviços oferecidos pela equipe do Grafana para empresas conhecidas como Grafana Cloud & the Enterprise. O que eles são? Falaremos mais sobre isso adiante no artigo.

2. O que é um painel Grafana?

Os painéis extraem dados das fontes de dados conectadas, como Graphite, Prometheus, Influx DB, ElasticSearch, MySQL, PostgreSQL etc. Estas são algumas das muitas fontes de dados que o Grafana suporta por padrão.

Os painéis contêm uma gama de opções de visualização, como mapas geográficos, mapas de calor, histogramas, toda a variedade de tabelas e gráficos que uma empresa normalmente requer para estudar dados.

Um painel contém vários painéis individuais diferentes na grade. Cada painel possui funcionalidades diferentes.

3. Quais são os recursos oferecidos pelo Grafana?

Vamos examinar os recursos oferecidos pelo painel de análise da estrutura de código aberto.

Esta estrutura de código aberto cuida de todas as análises do nosso aplicativo. Podemos facilmente consultar, visualizar, configurar alertas e entender os dados com a ajuda das métricas.

O painel é bem equipado e está em constante evolução para dar sentido a dados complexos. Da exibição de gráficos a mapas de calor, histogramas e mapas geográficos. A ferramenta tem uma infinidade de opções de visualização para entender os dados de acordo com os nossos requisitos do negócio.

Os alertas são configurados e acionados como cabos de disparo sempre que ocorre um cenário antecipado. Esses acontecimentos podem ser notificados no Slack ou em qualquer plataforma de comunicação utilizada pela equipe de monitoramento.

Grafana tem suporte nativo para aproximadamente uma dúzia de bancos de dados. E com muitos mais facilitados pelos respectivos plugins.

Hospede-o no local ou em qualquer plataforma em nuvem da sua escolha.

Possui suporte integrado para Graphite e expressões como funções add, filter, avg, min, max etc. para obter dados personalizados. O que é Graphite? Eu vou chegar nisso.

Ele também possui um Influx DB integrado, Prometheus, ElasticSearch, suporte para CloudWatch. Vou falar sobre tudo isso mais à frente.

4. O que é Grafana Cloud?

Grafana Cloud é uma plataforma de métricas de software como serviço, aberta, nativa da nuvem, altamente disponível e totalmente gerenciada. Bastante útil para aqueles que não querem ter o fardo de hospedar a solução localmente e não querem se preocupar com o gerenciamento de toda a infraestrutura de implantação.

Ele é executado em clusters do Kubernetes. O backend é compatível com Prometheus e Graphite. Portanto, podemos escolher a instância da nuvem Grafana ou ambos.

5. O que é Grafana Enterprise?

O serviço Enterprise vem com todos os recursos do Grafana Cloud, além de plug-ins premium, fontes de dados e suporte premium da equipe principal. Recebemos SLAs de resposta, treinamentos e muito mais.

6. Quais são alguns dos casos de uso do Grafana na indústria do mundo real?

Os painéis Grafana são implantados em toda a indústria, seja para jogos, IoT, FinTech ou E-Comm.

StackOverflow usou a ferramenta para permitir que os seus desenvolvedores e equipes de confiabilidade do site criem painéis personalizados para visualizar os dados e otimizar o desempenho do servidor.

A Digital Ocean usa Grafana para compartilhar dados de visualização entre as suas equipes e tem uma plataforma comum de compartilhamento de dados visuais.

7. O que é Prometheus Grafana?

Prometheus é uma ferramenta de monitoramento de dados de código aberto. A combinação de Prometheus e Grafana é a combinação de ferramentas de fato na indústria para implantar uma configuração de visualização de dados. O painel Grafana é usado para visualizar os dados, enquanto o back-end é desenvolvido pelo Prometheus.

Embora o Prometheus também tenha recursos de visualização de dados e outras coisas. Mesmo assim, o Grafana é o preferido para a visualização de dados. As consultas são disparadas do painel e os dados são obtidos do Prometheus.
Ele atua como um modelo de dados de código aberto perfeito para armazenar dados de série temporal.

8. O que é Graphite Grafana?

O Graphite, novamente, é uma ferramenta de monitoramento. Ele facilita o armazenamento e a visualização dos dados da série temporal. Idealmente, o Graphite é usado como uma fonte de dados para o painel Grafana em uma configuração de monitoramento de dados.

Grafana tem um editor de consultas Graphite bastante avançado que nos permite interagir com os dados com a ajuda de expressões e funções.

9. Grafana Vs Kibana?

Como afirmei anteriormente, no meu projeto anterior, Kibana foi usado principalmente para analisar e monitorar logs. Kibana é o K na pilha ELK. Toda a intenção de escrever o Kibana pela equipe ElasticSearch era a de ter uma ferramenta eficaz para monitorar os logs. Basta clicar e rastrear o contexto das exceções que ocorrem no prod em vez de executar comandos do Linux no console para localizá-las. Foi uma dor, acredite em mim.

Bem, por outro lado, Grafana foi escrito como uma solução de monitoramento genérica para executar monitoramento e análise em praticamente qualquer coisa. Bem, esta é uma visão panorâmica da diferença entre essas duas ferramentas.

Referencia: https://www.scaleyourapp.com/what-is-grafana-why-use-it-everything-you-should-know-about-it/

Os benefícios do SIEM

O Gerenciamento de Eventos e Informações de Segurança (SIEM – Security Information and Event Management) pode ser uma ferramenta incrivelmente útil para proteger empresas de todos os tamanhos e sistemas de TI, ajudando a detectar e alertar os usuários sobre ameaças potenciais. O software SIEM pode ser muito benéfico para o seu negócio. Este artigo tem como objetivo dar uma olhada rápida no software SIEM, fornecendo uma breve visão geral do SIEM como um serviço.

O que é SIEM?

O software SIEM é uma combinação de gerenciamento de eventos de segurança (SEM – security event management) e gerenciamento de informações de segurança (SIM – security information management) que é capaz de monitorar ameaças, fornecer alertas de segurança em tempo real e aumentar a conformidade. Por conta própria, o SEM centraliza a interpretação e o armazenamento de logs, e o SIM coleta dados a serem analisados ​​para relatórios. O SIEM, como você pode prever com sua terminologia completa, combina esses dois sistemas para fornecer análise e identificação rápidas de eventos de segurança em tempo real.

Quais são os benefícios?

Detectar e identificar rapidamente eventos de segurança é apenas um dos muitos recursos que tornam o SIEM uma excelente ferramenta para empresas e departamentos de TI. Alguns dos potenciais benefícios do SIEM como serviço incluem:

  • Maior eficiência
  • Prevenir potenciais violações de segurança
  • Reduzir o impacto dos eventos de segurança
  • Economizar dinheiro
  • Melhores relatórios, coleta de registros, análise e retenção
  • Conformidade de TI

Aqui está uma visão mais ampla de alguns dos benefícios, com uma breve explicação de alguns dos pontos listados acima.

Maior eficiência

Como os sistemas SIEM podem agrupar logs de eventos de vários dispositivos em redes, os membros da equipe podem usá-los para identificar potenciais problemas com mais facilidade. Isso também pode fornecer uma maneira mais fácil de verificar a atividade e pode acelerar a análise de arquivos, permitindo que os funcionários realizem tarefas com facilidade e gastem mais tempo em outros aspectos do seu trabalho. Dessa forma, os sistemas SIEM também podem melhorar os processos de relatórios em toda a empresa.

Melhor tratamento geral de violações e eventos de segurança

Ao fornecer uma resposta rápida a qualquer evento de segurança detectado, o software SIEM pode reduzir drasticamente o impacto de uma violação de segurança na sua empresa. Uma resposta rápida do software SIEM e da equipe de TI pode reduzir drasticamente não apenas o custo financeiro de uma violação, mas também a quantidade de danos causados ​​à sua empresa e a qualquer sistema de TI instalado.

Detectar uma violação nos estágios iniciais ou detectar um evento de segurança antes que ele ocorra também pode evitar qualquer dano. Essas são apenas algumas das maneiras pelas quais o software SIEM pode aprimorar e proteger o seu negócio.

Em última análise, embora o software SIEM não seja uma adição totalmente nova ao mercado de segurança de TI, ele continua sendo uma excelente forma de proteger o seu negócio e certamente vale a pena ser considerado ao introduzir novas maneiras de proteger e aprimorar a sua empresa.

Referencia: https://www.redscan.com/news/the-benefits-of-siem-as-a-service/

O que é Zabbix?

Zabbix é uma ferramenta de software de monitoramento de código aberto para diversos componentes de TI, incluindo redes, servidores, máquinas virtuais (VMs) e serviços em nuvem. O Zabbix fornece métricas de monitoramento, como utilização da rede, carga da CPU e consumo de espaço em disco. O software monitora operações em Linux, Hewlett Packard Unix (HP-UX), Mac OS X, Solaris e outros sistemas operacionais (SO), entretanto, o monitoramento do Windows só é possível por meio de agentes.

O Zabbix pode ser implementado para monitoramento baseado em agente e sem agente. Os agentes são instalados nos componentes de TI para verificar o desempenho e coletar dados. O agente então se reporta a um servidor de gerenciamento Zabbix centralizado. Essas informações são incluídas em relatórios ou apresentadas visualmente na interface gráfica do usuário (GUI) do Zabbix. Se houver algum problema em relação ao que está sendo monitorado, o Zabbix enviará uma notificação ou alerta ao usuário. O monitoramento sem agente realiza o mesmo tipo de monitoramento usando recursos existentes em um sistema ou dispositivo para emular um agente.

A GUI baseada na web do Zabbix permite que os usuários visualizem o seu ambiente de TI por meio de painéis personalizáveis ​​baseados em widgets, gráficos, mapas de rede, apresentações de slides e relatórios. Por exemplo, um usuário pode personalizar um relatório para mostrar as métricas associadas a acordos de nível de serviço (SLAs) e indicadores-chave de desempenho (KPIs) em cargas de CPU.

O Zabbix funciona por meio de três opções de modo de descoberta:

  • Descoberta de rede, verifica periodicamente um ambiente de TI e registra o tipo de dispositivo, o endereço IP, o status, os tempos de atividade e de inatividade.
  • Descoberta de baixo nível, cria automaticamente itens, gatilhos e gráficos com base no dispositivo descoberto. A descoberta de baixo nível pode criar métricas de identificadores de objeto SNMP (Simple Network Management Protocol), serviços do Windows, consultas de linguagem de consulta estruturada (SQL) de conectividade aberta de banco de dados (ODBC), interfaces de rede e muito mais.
  • Autodescoberta, inicia automaticamente o monitoramento de qualquer dispositivo descoberto usando um agente Zabbix.

Com o monitoramento distribuído do Zabbix, scripts executados remotamente coletam dados de vários dispositivos em locais distribuídos e combinam esses dados em um painel ou relatório, como a disponibilidade do servidor em todo o país.

O Zabbix pode enviar notificações por email com base em eventos predefinidos no ambiente de TI de um usuário. Outra forma de os usuários do Zabbix se manterem atualizados com o seu ambiente de TI é por meio de aplicativos móveis de fornecedores como o M7 Monitoring ou de sua própria criação.

Opções de monitoramento sem agente com Zabbix

O Zabbix oferece várias opções de monitoramento além dos agentes.

Uma verificação simples pode verificar a disponibilidade e capacidade de resposta de um serviço padrão, como notificações ou HTTP.

Extensões de gerenciamento Java (JMX), monitoramento da web e outros métodos também são alternativas ao uso de agentes. No Zabbix, JMX pode ser usado para monitorar aplicativos baseados em Java. O monitoramento da Web é usado para verificar a disponibilidade de sites e oferece suporte a HTTP e HTTPS. O Zabbix coleta dados relacionados à velocidade média de download de um cenário, erros e mensagens de erro, tempo de resposta e muito mais.

A API Zabbix

A interface de programação de aplicativos Zabbix é uma API baseada na web para criar novos aplicativos, automatizar tarefas e integrar com software de terceiros, como go-zabbix, Zabbix :: Tiny ou Zabbix sender. O formato JavaScript Object Notation (JSON) é usado para basear a API como uma interface da web de front-end.

A API do Zabbix consiste em muitos métodos agrupados em APIs separadas, cada uma realizando um serviço específico. Por exemplo, um método para criar um novo host é host.create; o método para fazer login como administrador é user.login.

Utilizando a API, os usuários podem criar aplicativos para trabalhar e exibir informações do Zabbix.

Referencia: https://searchitoperations.techtarget.com/definition/Zabbix

O que é observability?

A capacidade de observação fornece visibilidade profunda em aplicativos modernos distribuídos para identificação e resolução de problemas mais rápidas e automatizadas.

O que é observability?

Em geral, observabilidade é a extensão em que você pode compreender o estado ou condição interna de um sistema complexo com base apenas no conhecimento das suas saídas externas. Quanto mais observável um sistema, mais rápido e precisamente você pode navegar de um problema de desempenho identificado até a sua causa raiz, sem testes ou codificação adicionais.

Na computação em nuvem, observabilidade também se refere a ferramentas de software e práticas para agregar, correlacionar e analisar um fluxo constante de dados de desempenho de um aplicativo distribuído e do hardware em que é executado, a fim de monitorar, solucionar problemas e depurar o aplicativo de forma mais eficaz para atender as expectativas de experiência do cliente, acordos de nível de serviço (SLAs) e outros requisitos dos negócios.

Um tópico de TI relativamente novo, a observabilidade costuma ser caracterizada erroneamente como uma palavra da moda ou uma ‘reformulação’ do monitoramento do sistema no geral e do monitoramento do desempenho do aplicativo (APM – application performance monitoring) em particular. Na verdade, a capacidade de observação é uma evolução natural dos métodos de coleta de dados APM que abordam melhor a natureza cada vez mais rápida, distribuída e dinâmica das implantações de aplicativos nativos da nuvem. A capacidade de observação não substitui o monitoramento – ela permite um melhor monitoramento e melhor APM.

O termo ‘observabilidade’ vem da teoria de controle, uma área da engenharia preocupada em automatizar o controle de um sistema dinâmico – por exemplo, o fluxo de água através de um tubo ou a velocidade de um automóvel em declives e inclinações – com base no feedback do sistema.

Por que precisamos da observabilidade?

Nos últimos 20 anos ou mais, as equipes de TI confiaram principalmente no APM para monitorar e solucionar problemas de aplicativos. O APM coleta amostras e agrega dados do aplicativo e do sistema periodicamente, chamados de telemetria, que são conhecidos por estarem relacionados a problemas de desempenho do aplicativo. Ele analisa a telemetria relativa aos principais indicadores de desempenho (KPIs – key performance indicators) e reúne os resultados em um painel para alertar as operações e equipes de suporte sobre condições anormais que devem ser tratadas para resolver ou prevenir problemas.

O APM é eficaz o suficiente para monitorar e solucionar problemas de aplicativos monolíticos ou aplicativos tradicionais distribuídos, onde novos códigos são lançados periodicamente e fluxos de trabalho e dependências entre componentes de aplicativos, servidores e recursos relacionados são bem conhecidos ou fáceis de rastrear.

Mas hoje as organizações estão adotando rapidamente práticas de desenvolvimento modernas – desenvolvimento ágil, integração contínua e implantação contínua (CI / CD – Continuous Integration / Continuous Deployment), DevOps, várias linguagens de programação – e tecnologias nativas da nuvem, como micro serviços, contêineres Docker, Kubernetes e funções sem servidor. Como resultado, eles estão trazendo mais serviços ao mercado, mais rápido do que nunca. Mas, no processo, eles estão implantando novos componentes de aplicativo com tanta frequência, em tantos lugares, em tantas linguagens diferentes e por períodos de tempo tão variados (por segundos ou frações de segundo, no caso de funções sem servidor) que os APMs de amostragem de dados uma vez por minuto não conseguem acompanhar o ritmo.

O que é necessário é uma telemetria de alta qualidade – e muito mais – que pode ser usada para criar um registro de alta fidelidade, rico em contexto e totalmente correlacionado de cada solicitação ou transação do usuário do aplicativo. Insira a observabilidade.

Como funciona a observabilidade?

As plataformas de observabilidade descobrem e coletam telemetria de desempenho continuamente integrando-se à instrumentação existente embutida nos componentes de aplicativos e infraestrutura e fornecendo ferramentas para adicionar instrumentação a esses componentes. A observabilidade se concentra em quatro tipos principais de telemetria:

  • Logs. Logs são registros granulares, com carimbo de data / hora, completos e imutáveis ​​de eventos de aplicativos. Entre outras coisas, os logs podem ser usados ​​para criar um registro de alta fidelidade, milissegundo por milissegundo, de cada evento, completo com o contexto circundante, que os desenvolvedores podem ‘reproduzir’ para fins de solução de problemas e depuração.
  • Métricas. As métricas (às vezes chamadas de métricas de série temporal) são medidas fundamentais da integridade do aplicativo e do sistema durante um determinado período de tempo, como quanta memória ou capacidade de CPU um aplicativo usa em um intervalo de cinco minutos ou quanta latência um aplicativo experimenta durante um pico no uso.
  • Rastreamento. Os rastreamentos registram a ‘jornada’ ponta a ponta de cada solicitação do usuário, desde a interface do usuário ou aplicativo móvel por meio de toda a arquitetura distribuída e de volta ao usuário.
  • Dependências (também chamadas de mapas de dependência) revelam como cada componente do aplicativo depende de outros componentes, aplicativos e recursos de TI.

Depois de coletar essa telemetria, a plataforma a correlaciona em tempo real para fornecer às equipes de DevOps, equipes de engenharia de confiabilidade do local (SREs) e equipe de TI informações contextuais completas – o quê, onde e por que de qualquer evento que poderia indicar, causar ou ser usado para resolver um problema de desempenho do aplicativo.

Muitas plataformas de observabilidade descobrem automaticamente novas fontes de telemetria à medida que podem surgir no sistema (como uma nova chamada de API para outro aplicativo de software). E porque lidam com muito mais dados do que uma solução APM padrão, muitas plataformas incluem recursos AIOps (inteligência artificial para operações – artificial intelligence for operations) que filtram os sinais – indicações de problemas reais – de ruído (dados não relacionados a problemas).

Benefícios da Observabilidade

O benefício abrangente da observabilidade é que, com todas as outras coisas sendo iguais, um sistema mais observável é mais fácil de entender (em geral e em grandes detalhes), mais fácil de monitorar, mais fácil e seguro de atualizar com o novo código e mais fácil de reparar do que um sistema menos observável. Mais especificamente, a capacidade de observação oferece suporte direto às metas Agile / DevOps / SRE de fornecer software de alta qualidade mais rápido, permitindo que uma organização:

  • Descubra e resolva ‘desconhecidos desconhecidos’– questões que você não sabe que existem. A principal limitação das ferramentas de monitoramento é que elas observam apenas ‘desconhecidos conhecidos’ – condições excepcionais que você já conhece para observar. A capacidade de observação descobre condições que você talvez nunca saiba ou pense em procurar e, em seguida, rastreia a sua relação com problemas de desempenho específicos e fornece o contexto para identificar as causas básicas para acelerar a resolução.
  • Identifique e resolva problemas no início do desenvolvimento. A capacidade de observação leva o monitoramento às fases iniciais do processo de desenvolvimento de software. As equipes de DevOps podem identificar e corrigir problemas no novo código antes que afetem a experiência do cliente ou os SLAs.
  • Dimensione a observabilidade automaticamente. Por exemplo, você pode especificar a instrumentação e a agregação de dados como parte de uma configuração de cluster do Kubernetes e começar a reunir telemetria a partir do momento em que ela aumenta até diminuir.
  • Ative a correção automatizada e a infraestrutura de aplicativos de autocorreção. Combine observabilidade com recursos de automação e aprendizado de máquina AIOps para prever problemas com base nas saídas do sistema e resolvê-los sem intervenção do gerenciamento.
Referencia: https://www.ibm.com/cloud/learn/observability

O que é SIEM e como funciona?

SIEM significa gerenciamento de eventos e informações de segurança e fornece às organizações detecção, análise e resposta de última geração. O software SIEM combina gerenciamento de informações de segurança (SIM – security information management) e gerenciamento de eventos de segurança (SEM – security event management) para fornecer análise em tempo real de alertas de segurança gerados por aplicativos e hardware de rede. O software SIEM compara eventos com regras e mecanismos analíticos e os indexa para pesquisa de subsegundos para detectar e analisar ameaças avançadas usando inteligência coletada globalmente. Isso dá às equipes de segurança uma visão e um registro das atividades no seu ambiente de TI, fornecendo análise de dados, correlação de eventos, agregação, relatórios e gerenciamento de log.

O software SIEM pode ter vários recursos e benefícios, incluindo:

  • Consolidação de vários pontos de dados
  • Painéis personalizados e gerenciamento de alerta de fluxo de trabalho
  • Integração com outros produtos

Como funciona o SIEM?

O software SIEM funciona coletando dados de log e eventos gerados por aplicativos, dispositivos de segurança e sistemas host de uma organização e reunindo-os em uma única plataforma centralizada. O SIEM coleta dados de eventos de antivírus, logs de firewall e outros locais, ele classifica esses dados em categorias, por exemplo: atividade de malware e logins com falha e bem-sucedidos. Quando o SIEM identifica uma ameaça por meio do monitoramento da segurança da rede, ele gera um alerta e define um nível de ameaça com base em regras predeterminadas. Por exemplo, alguém tentando entrar em uma conta 10 vezes em 10 minutos está ok, enquanto 100 vezes em 10 minutos pode ser sinalizado como uma tentativa de ataque. Desta forma, ele detecta ameaças e cria alertas de segurança. Os painéis personalizados do SIEM e o sistema de gerenciamento de eventos aumentam a eficiência da investigação e reduzem o tempo perdido com falsos positivos.

Capacidades e aplicativos SIEM

O SIEM possui uma gama de recursos que, quando combinados e integrados, oferecem proteção abrangente para as organizações. Também fica mais fácil e eficiente por ser reunido em um painel. O SIEM fornece segurança corporativa, oferecendo visibilidade corporativa – toda a rede de dispositivos e aplicativos.

O software permite que as equipes de segurança obtenham percepções do invasor com regras de ameaças derivadas da percepção das táticas, técnicas e procedimentos (TTPs – tactics, techniques and procedures) do atacante e indicadores conhecidos de comprometimento (IOC – indicators of compromise). Para fazer isso, ele usa vários feeds de inteligência de ameaças (informações organizadas e analisadas sobre ameaças atuais e potenciais) que complementam a detecção de ameaças.

O próprio elemento de detecção de ameaças pode ajudar a detectar ameaças em e-mails, recursos de nuvem, aplicativos, fontes externas de inteligência contra ameaças e terminais. Isso pode incluir análise de comportamento de usuário e entidade (UEBA – user and entity behavior analytics), que analisa comportamentos e atividades para monitorar comportamentos anormais que podem indicar uma ameaça. Ele também pode detectar anomalias de comportamento, movimento lateral e contas comprometidas.

Isso é semelhante ao componente de análise de segurança, que detecta anomalias nos dados para derivar a caça de informações para ameaças nunca vistas anteriormente.

O componente de regras gerenciadas permite que as organizações reajam quase em tempo real às técnicas mais recentes do invasor, com atualizações quase em tempo real dos analistas.

Depois que o software SIEM determina uma ameaça, vulnerabilidade, ataque ou comportamento suspeito, ele cria alertas para as equipes de segurança de uma organização para uma resposta imediata. Algumas versões do software incluem fluxo de trabalho e gerenciamento de caso para acelerar as investigações usando instruções de investigação passo a passo geradas automaticamente com pesquisas e ações a serem executadas. Os alertas SIEM também podem ser personalizados para atender às necessidades do usuário.

O gerenciamento de logs é um componente complexo do SIEM, composto por três áreas principais:

  1. Agregação de dados: reunindo grandes quantidades de dados de vários aplicativos e bancos de dados em um só lugar.
  2. Normalização de dados: o SIEM permite que todos os dados díspares sejam comparados, correlacionados e analisados.
  3. Análise de dados / correlação de eventos de segurança: Determinar sinais potenciais de violação de dados, ameaça, ataque ou vulnerabilidade.

O SIEM também oferece suporte a relatórios de alerta e conformidade. Ele ajuda as organizações a simplificar os relatórios de conformidade com painéis de dados para reter e organizar informações de eventos e monitorar o acesso de usuários com privilégios. Isso é importante porque a maioria das regulamentações industriais e governamentais (incluindo HIPAA) exige algum grau de compilação e normalização de log, e todas exigem relatórios.

Algumas soluções SIEM, por exemplo, FireEye’s, são baseadas em nuvem.

Casos de uso de SIEM

O SIEM tem muitos casos de uso no cenário moderno de ameaças, incluindo detecção e prevenção de ameaças internas e externas, bem como conformidade com vários padrões legais.

Uso de SIEM em conformidade

Regulamentações de conformidade mais rígidas estão levando as empresas a investir mais pesadamente em segurança de TI e o SIEM desempenha um papel importante, ajudando as organizações a cumprir os padrões PCI DSS, GDPR, HIPAA e SOX. Esses mandatos de conformidade estão se tornando mais prevalentes e colocam uma pressão cada vez maior na detecção e no relato de violações. Embora o SIEM tenha sido inicialmente usado principalmente por grandes empresas, devido à ênfase crescente na conformidade e na manutenção da segurança dos negócios, ele pode ser necessário para pequenas e médias empresas, porque regulamentações como o GDPR são aplicáveis ​​a organizações independentemente do seu tamanho.

Segurança IoT

O mercado de Internet das Coisas (IoT – Internet of Things) está crescendo. A Gartner previu que haverá 26 bilhões de dispositivos conectados em 2020. Mas com o progresso vem o risco, pois mais dispositivos conectados oferecem mais pontos de entrada para as empresas, porque assim que um hacker está em uma parte da sua rede por meio de um dispositivo conectado, ele pode acessar o resto com muita facilidade. A maioria dos fornecedores de soluções IoT fornece API e repositórios de dados externos que podem ser facilmente integrados às soluções SIEM. Isso torna o software SIEM uma parte essencial da segurança cibernética da sua empresa, pois pode mitigar ameaças de IoT, como ataques DoS, e sinalizar dispositivos em risco ou comprometidos como parte do seu ambiente.

Prevenção de ameaças internas

Ameaças externas não são as únicas coisas que tornam as organizações vulneráveis, ameaças internas representam um risco considerável, especialmente considerando a facilidade de acesso. O software SIEM permite que as organizações monitorem continuamente as ações dos funcionários e criem alertas para eventos irregulares com base na atividade ‘normal’. As empresas também podem usar o SIEM para conduzir o monitoramento granular de contas privilegiadas e criar alertas relacionados a ações que um determinado usuário não tem permissão para realizar, como instalar software ou desativar software de segurança.

Referencia: https://www.fireeye.com/products/helix/what-is-siem-and-how-does-it-work.html

O que é DataDog?

Datadog é uma ferramenta de monitoramento e análise para equipes de tecnologia da informação (TI) e DevOps que pode ser usada para determinar métricas de desempenho, bem como monitoramento de eventos para infraestrutura e serviços em nuvem. O software pode monitorar serviços como servidores, bancos de dados e ferramentas.

O software de monitoramento Datadog está disponível para implantação na premissa ou como um software como serviço (SaaS – software as a service). Datadog oferece suporte aos sistemas operacionais Windows, Linux e Mac. O suporte para provedores de serviços em nuvem inclui AWS, Microsoft Azure, Red Hat OpenShift e Google Cloud Platform.

O Datadog usa um agente baseado em Go e seu back-end é feito a partir de Apache Cassandra, PostgreSQL e Kafka. Uma interface de programa de aplicativo (API – application program interface) Rest é usada para permitir que o Datadog se integre a vários serviços, ferramentas e linguagens de programação. Integrações como Kubernetes, Chef, Puppet, Ansible, Ubuntu e Bitbucket.

A interface do usuário inclui painéis personalizáveis ​​que podem mostrar gráficos compostos por várias fontes de dados em tempo real. O Datadog também pode enviar notificações aos usuários sobre problemas de desempenho em qualquer métrica definida, como taxas de computação. Os usuários são notificados por meios como e-mail, Slack ou PagerDuty.

Recursos:

Os recursos que o Datadog oferece incluem:

• Fornece a uma equipe de TI / DevOps uma visão única de sua infraestrutura (incluindo servidores, aplicativos, métricas e outros serviços).
• Painéis personalizáveis.
• Alertas com base em problemas críticos.
• Suporte para mais de 250 integrações de produtos.
• Coleta e análise automática de registros, latência e taxas de erro.
• Permite acesso à API.
• Suporta aplicativos escritos em linguagens como Java, Python, PHP, .NET, Go, Node e Ruby.

Alternativas:

Ferramentas de monitoramento alternativas para Datadog incluem soluções como Science Logic e Zenoss Service Dynamics.

Science Logic é uma ferramenta de monitoramento de infraestrutura de TI que fornece um sistema de monitoramento focado na nuvem, que pode monitorar bancos de dados e desempenho de aplicativos. O Science Logic também pode monitorar nuvens privadas, públicas e múltiplas, redes, armazenamento, hardware e hipervisores.

Zenoss Service Dynamics Software de análise de monitoramento de TI que pode monitorar redes, armazenamento, servidores, nuvem, bancos de dados ou hipervisores. O Service Dynamics está disponível apenas no local, uma versão SaaS é oferecida através do Zenoss como serviço (ZaaS). ZaaS oferece as mesmas habilidades de monitoramento que o Service Dynamics.

Referencia: https://searchitoperations.techtarget.com/definition/Datadog

Para que o Terraform é usado? Os 3 principais casos de uso.

Acho que você já ouviu falar sobre o Terraform. E talvez você esteja se perguntando para que o Terraform é realmente usado e porque é tão popular?

* Para que o Terraform é usado? O principal uso do Terraform é escrever infraestrutura como código para gerenciar recursos de nuvem pública, como AWS, GCP e Azure. O Terraform também é comumente usado para gerenciar outras infraestruturas de nuvem, como Stripe e Auth0. *

Terraform é uma ferramenta poderosa para escrever infraestrutura como código e tem alguns benefícios exclusivos em relação à concorrência. Vejamos com mais detalhes alguns dos três principais usos do Terraform.

O que é Terraform?

Terraform é uma infraestrutura de código aberto como ferramenta de código, usada principalmente para gerenciar infraestrutura de nuvem pública, como AWS, GCP e Azure. Terraform é distribuído como uma CLI e é usado para escrever infraestrutura declarativa como código.

Vamos começar nossa discussão com os três principais casos de uso do Terraform, com o primeiro e mais proeminente caso de uso, provisionamento de nuvem pública.

1 – Provisionamento de nuvem pública

Uma das principais tarefas que os clientes do Terraform realizam é o provisionamento de nuvem pública em um dos principais provedores de nuvem. A infraestrutura como código para esses principais provedores de nuvem sempre foi o foco principal do Terraform.

O Terraform permite o uso dessas nuvens públicas por meio do que é chamado de provedor. Um provedor no Terraform pode ser considerado um plug-in que envolve APIs de empresas existentes para criar uma sintaxe declarativa do Terraform.

Os provedores que cobrem as principais nuvens públicas são todos de código aberto e gerenciados de perto pela Hashicorp (a empresa por trás do Terraform). Como resultado, os provedores recebem atualizações frequentes para corresponder às atualizações dos provedores de nuvem.

O fato de o Terraform ser usado principalmente para nuvem pública é reforçado ainda mais ao se olhar a página de registro de provedores do Terraform, onde todos os provedores de nuvem estão em exibição com destaque acima do resto.

2 – Para fazer implantações MultiCloud

O segundo uso principal do Terraform é realizar implantações em várias nuvens.

Um dos principais atrativos do Terraform é como ele funciona em todos os provedores de nuvem ao mesmo tempo, ao contrário de muitos concorrentes diretos do Terraform, como o CloudFormation, que trabalha principalmente com um único provedor de nuvem.

Ser capaz de implantar recursos em vários provedores de nuvem é útil porque os engenheiros de software podem usar a mesma sintaxe e conjunto de ferramentas, sem precisar se familiarizar com várias ferramentas e tecnologias.

Mas também há vantagens estratégicas em várias nuvens. O suporte multicloud permite que as empresas aproveitem serviços exclusivos que podem estar disponíveis apenas em um provedor de nuvem, ajuda a reduzir os riscos de ter todos os ativos de nuvem dependentes de uma única empresa e também pode ajudar na negociação de contratos.

3 – Infraestrutura sob medida como código

O uso final importante do Terraform é o uso com provedores personalizados.

Como mencionamos antes, um provedor é uma maneira no Terraform de agrupar uma API existente e convertê-la para a sintaxe declarativa do Terraform.

O processo de criação de provedores não é apenas para casos de uso de código aberto. Provedores também podem ser escritos para casos de uso internos da empresa em que uma empresa deseja converter ferramentas existentes ou APIs em Terraform.

Qualquer API que ofereça suporte a ações CLAE (criar, ler, atualizar, excluir) pode ser envolvida no código declarativo do estilo Terraform, o que dá ao Terraform muita flexibilidade para oferecer suporte a muitas configurações de infraestrutura diferentes.

Os muitos usos do Terraform

E isso conclui nossa análise dos principais usos do Terraform. O Terraform é muito poderoso para escrever infraestrutura como código e, como você pode ver, tem muitas vantagens em seus recursos, como implantação de várias nuvens e provedores personalizados. Esperamos que isso tenha ajudado a esclarecer as coisas para você sobre o que é o Terraform e como ele é usado.

Referencia: https://dev.to/loujaybee/what-is-terraform-used-for-the-3-main-use-cases-462e

Render Blocking – Novo indicador de bloqueio de renderização no Chrome e WebPageTest

Graças a um novo indicador fornecido pelo Chrome em seus rastros (começando na versão 91 do navegador, com uma notável correção de bug enviada com a versão 92 hoje), o WebPageTest começou a destacar todas as solicitações de bloqueio de renderização em suas cascatas, tornando mais fácil se concentrar rapidamente nas solicitações de bloqueio que podem estar causando gargalos significativos no desempenho da sua página.

Um dos gargalos de desempenho mais comuns que os sites enfrentam são atrasos causados ​​por recursos de bloqueio de renderização: recursos na página que impedem a exibição da página até que sejam baixados, analisados ​​e (no caso do JavaScript) executados.

Aqui está a essência: certos tipos de recursos – CSS e JavaScript – são bloqueados por padrão.

No caso do CSS, o navegador não pode exibir a página até que o CSS tenha sido baixado e analisado no CSSOM.

No caso do JavaScript, o navegador não consegue nem continuar analisando HTML, deixando de exibir a página, até que o JavaScript tenha sido baixado, analisado e executado.

Em ambos os casos, os recursos de bloqueio tendem a aumentar os tempos de Iniciar renderização e Primeira pintura com conteúdo em particular (e Maior pintura com conteúdo por associação). Se o seu site tiver recursos de bloqueio de renderização, carregá-los lentamente ou fazê-los carregar de forma assíncrona resultará em uma melhoria de desempenho considerável.

Pode ser um pouco complicado identificar recursos de bloqueio de renderização rapidamente, mas é aí que o novo indicador de status de Bloqueio de renderização do Chrome entra em ação.

A sinalização renderBlocking

A partir da versão 91 do Chrome, o Chrome agora marca todas as solicitações relevantes com um sinalizador renderBlocking, indicando se esse recurso está bloqueando ou não. Ter essas informações fornecidas pelo navegador é um grande passo. Houve algumas tentativas de ferramentas para identificar recursos de bloqueio de renderização usando as próprias heurísticas, mas obter essas informações diretamente do navegador fornece um nível mais alto de precisão, bem como mais granularidade.

A bandeira tem cinco valores potenciais diferentes:

  • blocking
  • non_blocking
  • dynamically_injected_non_blocking
  • in_body_parser_blocking
  • potentially_blocking

O status blocking

Este é bem direto – se a solicitação bloquear a exibição da página, o status de bloqueio será relatado como “blocking”. Este rótulo é aplicado a coisas como folhas de estilo e elementos de script que não têm um defer, async ou atributo de módulo.

O status de non_blocking

Este também é bastante direto. Se a solicitação não impedir que o navegador exiba a página, o status de bloqueio é relatado como “non_blocking”. Este rótulo se aplica a coisas como folhas de estilo com um atributo desativado ou folhas de estilo com consultas de mídia que não correspondem ao ambiente atual (como impressão). Também se aplica a scripts que possuem um atributo defer ou módulo.

O status dynamically_injected_non_blocking

Isso pode ser mais ou menos considerado o mesmo que non_blocking, pelo menos do ponto de vista do impacto no desempenho. Esse status é aplicado a um recurso que é injetado dinamicamente na página e não bloqueia a exibição da página.

Este status atualmente não é aplicado a scripts injetados dinamicamente, mas esse é um bug relativamente menor – “dynamically_injected_non_blocking” é apenas uma versão mais específica de “non_blocking”, então, embora seja bom limpar isso no futuro, é um problema na maioria das vezes insignificante.

O status in_body_parser_blocking

O status “in_body_parser_blocking” é definido sempre que o recurso é solicitado em algum lugar dentro do corpo de uma forma que bloqueia o analisador de analisar o documento abaixo do elemento.

Então, por exemplo, digamos que você tenha um elemento de script dentro do corpo da página em vez do cabeçalho. Isso impede que o navegador analise qualquer coisa abaixo desse elemento até que o recurso seja solicitado e baixado, para que esse status seja aplicado.

O status potencially_blocking

Este é muito interessante. Se o Chrome não puder dizer com certeza se a solicitação bloqueará ou não a exibição da página, o status “potencially_blocking” será aplicado.

Um bom exemplo aqui é um script async. Se um script for carregado com um atributo async, o navegador executará o script assim que chegar. Isso significa que se o script chega rapidamente, antes da renderização inicial da página, o script bloqueia a renderização até que toda a execução seja concluída. Se o script chegar após a renderização inicial da página, ele não bloqueia. Como a natureza do bloqueio depende de quando o script chega, o Chrome não pode dizer no momento da solicitação se ele estará bloqueando ou não, então ele o sinaliza como “potencially_blocking”.

Como encontrar o status de bloqueio de renderização no WebPageTest

Quando você clica em uma solicitação em uma cascata para visualizar os detalhes completos da solicitação, exibimos o status de bloqueio de renderização sempre que aplicável na caixa de diálogo que aparece.

Bloqueio de renderização

Ele ficou escondido à vista de todos há um tempo, mas quando estávamos testando o indicador no Chrome v91, identificamos um bug em que scripts async injetados dinamicamente eram sinalizados incorretamente como bloqueadores. Yoav da equipe do Chrome começou a trabalhar nisso rapidamente, obtendo a correção para a versão 92.

Ainda há mais um bug que identificamos que não será corrigido até a versão 93 (as solicitações de pré carregamento são sinalizadas como não bloqueadoras, mesmo se forem para um recurso de bloqueio), mas a sinalização é estável o suficiente para que possamos torná-la uma um pouco mais proeminente agora.

Com o indicador se tornando um pouco mais estável, também o tornamos um pouco mais proeminente. A partir de hoje, os recursos com status de “blocking” serão chamados com um ícone, facilitando a identificação de qualquer recurso de bloqueio de renderização.

No momento, não estamos mostrando nada se um recurso for sinalizado com “potencially_blocking” ou “in_body_parser_blocking”, mas se isso for algo que você consideraria útil, somos todos ouvidos. Por exemplo, uma coisa que estamos considerando é sinalizar todos os recursos “potencially_blocking” que chegam antes de ocorrer o início da renderização. Eles não são exatamente o mesmo que recursos “render_blocking”, pois nem sempre podem bloquear a renderização em todos os testes, mas o fato de que eles às vezes aparecem para desacelerar as coisas pode ser uma informação útil.

Referencia: https://blog.webpagetest.org/posts/new-render-blocking-indicator-in-chrome-and-webpagetest/

Para que serve Jenkins, e o que ele pode fazer?

Em quase todas as discussões sobre integração contínua de código aberto ou ferramentas de entrega contínua (CI / CD – continuous integration or continuous delivery), o Jenkins inevitavelmente será mencionado. Mas para que é usado o Jenkins, especificamente, e como funciona?

Neste artigo, damos uma visão geral do Jenkins, como ele é usado e dicas para equipes prontas para avançar na integração desta popular ferramenta de CI / CD de código aberto.

Para que o Jenkins é usado?

Jenkins é usado para construir e testar o seu produto continuamente, para que os desenvolvedores possam integrar continuamente as mudanças na construção. Jenkins é a ferramenta de CI / CD de código aberto mais popular no mercado hoje e é usado no suporte de DevOps, junto com outras ferramentas nativas da nuvem.

Automação, incluindo CI / CD e automação de teste, é uma das principais práticas que permitem que as equipes de DevOps entreguem soluções de tecnologia “mais rápidas, melhores e mais baratas”.

Portanto, Jenkins se tornou uma ferramenta indispensável para ajudá-lo a atingir esses objetivos. Jenkins tem sido uma tecnologia de capacitação chave que está ajudando cada vez mais as práticas de DevOps a serem amplamente adotadas em muitas organizações em todo o mundo.

Jenkins é uma ferramenta de integração/entrega contínua?

Embora seja usado por muitas equipes de DevOps avançadas que oferecem aplicativos nativos de nuvem de última geração, o Jenkins já existe há um bom tempo. O projeto (originalmente chamado de Hudson) foi desenvolvido em 2004 por Kohsuke Kawaguchi enquanto trabalhava na Sun Microsystems e lançado em 2005. Depois que a Oracle adquiriu a Sun, o projeto foi bifurcado para permanecer open source e o fork foi nomeado Jenkins em 2011.

Embora Kohsuke tenha desenvolvido originalmente o Jenkins para facilitar a integração contínua para aplicativos Java, Jenkins desde então evoluiu para orquestrar todo o pipeline de entrega de software para as linguagens e tecnologias mais populares usadas por desenvolvedores em todo o mundo hoje. Escrito em Java, com extensibilidade no núcleo de sua arquitetura, existem centenas de plug-ins disponíveis que estendem o Jenkins para fornecer a flexibilidade de automatizar todos os aspectos do pipeline de entrega de software.

Antes do Jenkins …

Antes do Jenkins, muitas equipes de desenvolvimento empregavam um build noturno como parte do processo de entrega de software. O processo de construção noturno exigia que as equipes enviassem seu código ao repositório de código-fonte em um determinado horário de corte todos os dias. Isso foi um desafio ainda maior ao trabalhar com equipes geograficamente dispersas. Um horário noturno de, digamos, 23h PST equivaleria a 12h30 IST na Índia.

Portanto, os desenvolvedores na Índia seriam forçados a comprometer o seu código no meio do dia e, em seguida, esperar que a construção “noturna” fosse executada, afetando sua produtividade. Então, uma vez que o build fosse concluído, as equipes de desenvolvimento frequentemente se deparariam com a pergunta: “Quem quebrou o build?”. Nesse ponto, as equipes de desenvolvimento se esforçariam para determinar quem foi o commit que quebrou a compilação e a acusação começaria. Tinha que haver uma maneira melhor.

Como funciona o Jenkins?

O Jenkins aciona uma construção a cada confirmação para o repositório de código-fonte, normalmente para um branch de desenvolvimento.

Jenkins pode ser configurado para executar um conjunto inicial de testes de unidade para garantir que o commit não “quebrou a compilação”. Se os testes não passarem, o desenvolvedor pode ser notificado imediatamente para tomar uma ação corretiva. Isso põe de lado a questão de “Quem quebrou o build?” pois é fácil determinar qual confirmação causou a falha da compilação. Se todos os testes de unidade forem aprovados, o pipeline de construção pode prosseguir para a próxima fase com testes de integração que geralmente levam mais tempo para serem executados.

O Jenkins oferece a capacidade de executar um build em paralelo em várias máquinas para minimizar o tempo total necessário para concluir muitas dessas atividades. Por fim, o Jenkins pode implantar o build em um ambiente que permite qualquer teste de aceitação do usuário (UAT – user acceptance testing) necessário antes de liberá-lo para produção. Essas etapas simplificadas abrangem o espírito de um ambiente de integração contínua (CI).

Para alcançar o Santo Graal da entrega contínua (CD), esses testes UAT também podem ser automatizados usando uma ferramenta como Selenium, onde se esses testes passarem, o código pode ser mesclado no branch master onde uma compilação “dourada” pode ser criada e implantado diretamente na produção sem intervenção manual. As empresas que alcançaram o marco de entrega contínua podem implantar na produção muitas vezes ao dia, como Amazon, Facebook e Google.

Avançando com Jenkins para DevOps

Olhando para o futuro, Jenkins encontrou um ponto ideal em muitos ambientes DevOps. Alguns até o chamaram de “o motor do DevOps”, o uso da nuvem e dos contêineres. Jenkins pode ser executado na nuvem (AWS, Google, Azure, IBM, etc.) e tecnologias de aproveitamento como Docker e Kubernetes fornecem ao Jenkins flexibilidade, velocidade e confiabilidade adicionais para atender às demandas dos aplicativos modernos nativos da nuvem e baseados nos micros serviços de hoje. O futuro parece muito promissor com o Jenkins como uma tecnologia de capacitação chave para pipelines de CI / CD para empresas em todo o mundo.

Referencia: https://www.openlogic.com/blog/what-is-jenkins-used-for

Cinco razões para usar o WebPageTest para medir as Core Web Vitals

O texto abaixo foi coletado da atualizações do WebPageTest sobre como medir métricas de Core Web Vitals.

Ao combinar as métricas Core Web Vital com a maior plataforma de monitoramento de Experiência Digital do mundo e nossos recursos de análise de desempenho, os usuários do Catchpoint serão capazes de:

  • Passar de desenhar correlações soltas para fazer declarações de causalidade confiáveis ​​(entre o TI e a empresa).
  • Combinar melhor os limites de percepção de desempenho por segmento de cliente ou jornada do usuário.
  • Aproveitar o poder de nossa plataforma de inteligência para perceber o valor dos resultados centrados no cliente do mundo real.

O que são Core Web Vitals?

A equipe do Chrome no Google anunciou as Core Web Vitals no ano passado “para ajudar os proprietários de sites a medir a experiência do usuário na web”. Elas representam um subconjunto de métricas relacionadas à velocidade, capacidade de resposta e estabilidade visual – e incluem estas métricas:

1. Mudança de layout cumulativa (CLS – Cumulative Layout Shift)
2. Maior Pintura com Conteúdo (LCP – Largest Contentful Paint)
3. Atraso na primeira entrada (FID – First Input Delay)

Leia mais sobre Core Web Vitals em nosso artigo – Core Web Vitals: Você está preparado para as mudanças do Google?

Mudança De Layout Cumulativa (Estabilidade Visual)

O CLS mede a instabilidade visual de uma página, como realmente vista pelo cliente. Instabilidade, neste contexto, refere-se a “alvos móveis”, ou seja, quando um cliente clica em algo e esse algo mudou repentinamente para um local completamente diferente na janela de visualização. Isso pode significar a diferença entre clicar no resultado de pesquisa desejado e clicar em um anúncio que colocará 5.000 cookies no seu dispositivo!

Maior Pintura com Conteúdo (Carregando)

O LCP mede quando a navegação da página parece concluída para o cliente. Para contexto, estar “concluída” geralmente é o motivo pelo qual o cliente está em uma página em primeiro lugar. Diferente da Primeira Pintura com Conteúdo, que pode ser algo como “uma tela inicial” ou o ícone “sua página está carregando”, a Maior Pintura com Conteúdo mede a rapidez com que o conteúdo principal, relevante de uma página da web é carregado e fica visível para os usuários.

Atraso na Primeira Entrada (Interatividade)

O Atraso na Primeira Entrada (FID), por sua vez, mede a capacidade de resposta de experiências interativas em uma página da web. É a diferença entre “adicionar 1 item ao seu carrinho, ”versus“ adicionar múltiplos itens ao seu carrinho ”porque o botão adicionar ao carrinho parecia não responder, fazendo com que um cliente clicasse nele novamente, o que causava uma interrupção na jornada. Especificamente, o FID mede o tempo desde quando um usuário interage pela primeira vez com uma página até “o tempo em que o navegador é realmente capaz de começar a processar manipuladores de eventos em resposta a essa interação”.

Subindo na cadeia hierárquica das necessidades de monitoramento digital

Talvez a melhor maneira de resumir o valor dessas novas métricas é que elas moverão os usuários do Catchpoint para um escalão superior da cadeia hierárquica de necessidades de monitoramento digital. Há um oceano de métricas de indicadores de TI monitoráveis ​​para tempo de atividade, tempo de resposta e latência. E a ideia de métricas baseadas na experiência, como o tempo de carregamento da página ou a conclusão do documento, também existe há algum tempo. O que é diferente sobre as métricas Core Web Vital é que elas levam a ideia das métricas baseadas na experiência do cliente a um novo nível – um nível de capacidade baseado no que o cliente realmente vê e experimenta com os seus próprios olhos enquanto eles estão tentando completar as suas respectivas jornadas.

Por que usar o Catchpoint para medir Core Web Vitals?

O Google já oferece aos clientes várias maneiras de medir essas métricas. Então, por que os usuários do Catchpoint deveriam se preocupar com o fato de essas métricas agora estarem disponíveis nessa plataforma?

Ignore por um momento que a maioria das ferramentas de desenvolvimento oferecidas pelo Google são apenas Chrome (o que para alguns será um desqualificador) ou que algumas de suas fontes de dados são atualizadas apenas uma vez por mês. Mais importante, essas ferramentas têm 75ºpercentil como o limite “bom” versus “ruim”. Essa visão de tamanho único é muito restrita e pode levar a ações incorretas e / ou desperdício de recursos de otimização preciosos. Afinal, seus clientes são únicos. Dito de outra forma, os perfis de desempenho do cliente variam de acordo com o ISP, dispositivo, tipo de navegador, jornada do usuário, objetivo pessoal e muitas outras variáveis. Portanto, o uso e a medição ideais dessas métricas do Core Web Vital também precisam corresponder e levar em consideração essas combinações variadas de usuários.

Além disso, se você pensar sobre as outras ferramentas fornecidas pelo Google, seja DevTools ou PageSpeed ​​Insights, que medem localmente ou perto da fonte, você logo perceberá que precisa de mais alcance e reprodutibilidade do que o uso do Google sozinho pode oferecer. Pense no desenvolvedor A compartilhando seus resultados do DevTools com o desenvolvedor B e vendo resultados completamente diferentes com base em onde eles estão localizados.

Resumindo, nossos usuários se beneficiarão com o uso do Catchpoint para medir o Core Web Vitals por cinco razões principais:

1. Acionabilidade: Mais sinais com menos ruído para concentrar recursos de otimização preciosos.
2. Granularidade: Limites de percepção de correspondência por segmento de cliente, geografia ou outra dimensão (executar WebPageTest em um M1?).
3. Alcance: Combine essas novas métricas com o maior footprint de telemetria de monitoramento digital do mundo.
4. Confiabilidade: Única fonte de verdade para medições normalizadas e reprodutibilidade.
5. Coesividade: Ambas as medições de laboratório e de campo em uma plataforma única e unificada.

Quer aprender mais sobre o Web Page Test? Confira nosso artigo – WebPageTest: Como usar? 

Referencia: https://blog.catchpoint.com/2021/04/27/five-reasons-to-use-catchpoint-for-measuring-core-web-vitals