Inicio > noticias-corporativas > Estudo aponta erros que impedem sites de estarem bem-posicionados em buscadores    
20/09/2021

Estudo aponta erros que impedem sites de estarem bem-posicionados em buscadores

Estudo aponta erros que impedem sites de estarem bem-posicionados em buscadores

São Paulo – SP 20/9/2021 – Falhas comprometem o resultado em buscas orgânicas e, mesmo com um site bonito, empresas deixam de aparecer

Buscas orgânicas impulsionam a visibilidade das empresas na internet, mas falhas na estratégia de SEO comprometem o bom desempenho

Aparecer bem-posicionado em buscadores é uma vantagem que empresa alguma pode prescindir em um mundo conectado e digital. Estudo da WebPeak, desenvolvedora de tecnologia para análise de marketing digital e SEO (otimização de sites para mecanismos de busca), rastreou os principais erros de sites corporativos que os impedem de estar nas primeiras posições em buscadores como Google e Bing.

“Estas falhas comprometem o resultado nas buscas orgânicas e, mesmo com um site bonito, empresas deixam de aparecer, podendo perder espaço para concorrentes mais bem-preparados em estratégias de SEO”, comenta o CEO da WebPeak, Marcos Custódio, que explica: “os erros nas páginas corporativas estão relacionados a como os robôs dos buscadores enxergam esses sites para qualificá-los ou não nas buscas feitas pelos usuários.”

A WebPeak identificou 15 erros comuns que impedem que sites corporativos estejam bem-posicionados nos buscadores:

  1. Falta de palavra-chave no h1

O h1 é o título mais importante da página. É ele que vai ditar o tema do restante do conteúdo. Ele pode ser comparado ao título de um livro (capa).

  1. Título otimizado

Consiste em um título com a presença da palavra-chave estratégica, que também deve aparecer em outros campos (como os itens h2, h3, h4, description, URL, alt, conteúdo).

  1. Falta de h2 na otimização de páginas

O h2 é um subtítulo que também precisa estar otimizado. Ele é o segundo mais importante dentro da página. Essa otimização não é feita em 80% dos sites. O mesmo acontece com os h3, h4, h5 e h6, que são títulos com menos força, mas relevantes para melhorar a organização do conteúdo.           

  1. h3 a h6

Títulos com menos força na página, mas que devem estar otimizados para impulsionar o ranqueamento de um site nos buscadores.

  1. Páginas com erros 404

Esse erro ocorre quando páginas de um site estão “quebradas”. Podem ser páginas que não existem mais ou troca de URL. Um exemplo é em uma loja online, quando um produto não está mais disponível e é tirado do ar ou quando muda o nome e, então, há uma quebra de URL. São páginas que não estão mais acessíveis. “A tratativa deste erro é redirecionar para páginas mais relevantes para que ele não aconteça”, menciona o executivo. Esse é um ponto crítico e apenas 33% dos sites não apresentam esse tipo de erro.

  1. Tag title com mais de 70 caracteres

As meta tags têm limite de caracteres que são expostos nos resultados de buscas. Fazer um texto seguindo este limite garante que a informação do campo seja exibida por completo.

  1. Falta de palavra-chave na tag description

Esse campo pode apresentar informações mais atraentes para o usuário e para o robô buscador, sendo indispensável a repetição da palavra-chave nesse texto. Cerca de 93% dos sites ignoram esse fator, e aqui pode estar mais uma oportunidade de otimização e, consequentemente, melhora na posição nos resultados das buscas.

  1. Excesso de caracteres na tag description

O excesso de caracteres nesse campo impossibilita que as informações sejam apresentadas por completo nos resultados de busca.

  1. URLs não otimizadas

As URLs nada mais são que os endereços das páginas na internet, então, quanto mais fácil for o endereço, mais fácil de encontrá-lo. Portanto, evitar códigos, números, e caracteres sem sentido e, se possível, manter a URL igual ao nome da página (exceto home) ajuda a empresa a se posicionar melhor em buscas orgânicas.

  1. Ausência de sitemap.xml e robots.txt

O arquivo robots.txt funciona como um porteiro do site. Ele vai dizer quem pode ou não entrar, quem pode ou não acessar e quem pode ler determinado tipo de conteúdo. Por isso, adicionar o sitemap dentro do arquivo robots auxilia na leitura do mapa de todas as páginas disponíveis, facilita e agiliza o entendimento do robô para encontrar esse endereço e essas páginas, já que o robots é primeiro arquivo a ser lido.

  1. Ferramentas Google e tags

Cada site deve ter contas do Google para acompanhar e analisar o comportamento dos usuários no site. Basicamente é preciso um Tag Manager que deve ser o centro de todas as tags de acionamento, incluindo um analytics (vinculado com o GSC) e demais tags como Facebook, hotjar, chats etc.

  1. Alt nas imagens

Esse problema ocorre quando as imagens usadas em uma página estão sem palavras-chave na descrição auxiliar. Esse fator auxilia no SEO de imagens.

13. Páginas com lentidão no carregamento

Quando o carregamento da página é inferior a 79% acarreta a baixa performance do site. Isso significa que quando o buscador identifica sites mais ágeis, dá prioridade para eles pois, além de agradar os robôs, o SEO preza para que a experiência do usuário seja fluida.

  1. Conteúdo único

Os buscadores priorizam conteúdos únicos nas buscas. Nesses casos, o ideal é a criação de conteúdos autênticos para cada página, enriquecendo-os com títulos e melhores práticas de SEO.

  1. Links internos otimizados

Toda estratégia de SEO é baseada em palavras-chave e isso envolve os links internos. Ou seja, os links internos como âncoras, menus e rodapés, devem estar equalizados com a estratégia de palavras-chave.

Sobre o levantamento:

O estudo foi feito pela WebPeak, com ferramenta de SEO, 100% brasileira, que faz diversas análises. E identificou problemas nas páginas corporativas de diversos segmentos (pet shop, semijoia, calçados femininos, gráfica, geek, decoração). Esses erros afetam os resultados em pesquisas orgânicas e mostram que não estão restritos a um nicho apenas.

Website: https://www.webpeak.com.br/