Análise Do Arquivo De Log 101 – Quadro De Sexta-Feira- Oxi Marketing Digital e Websites em WordPress

Análise Do Arquivo De Log 101 – Quadro De Sexta-Feira- Oxi Marketing Digital e Websites em WordPress

Análise Do Arquivo De Log 101 – Quadro De Sexta-Feira

Log File Analysis 101   Whiteboard Friday

Análise do arquivo de Log pode fornecer alguns dos mais detalhadas insights sobre o que o Googlebot está fazendo em seu site, mas pode ser um ambiente de trabalho intimidativo assunto. Nesta semana, o Quadro de sexta-feira, Britney Muller quebra análise do arquivo de log para torná-lo um pouco mais acessível aos SEOs em todos os lugares.

Clique sobre o quadro de imagem acima para abrir uma versão de alta resolução em uma nova aba!

Transcrição Do Vídeo

Ei, Moz fãs. Bem-vindos a mais uma edição do Quadro de sexta-feira. Hoje estamos a ir acima de todas as coisas análise do arquivo de log, que é extremamente importante porque ele realmente diz o ins-e-saídas de que o Googlebot está fazendo em seus sites.

Então, eu estou indo para orientá-lo através de três áreas principais, sendo o primeiro o de tipos de logs que você pode ver a partir de um determinado site, o que que parece, o que essa informação significa. E o segundo, como analisar os dados e como obter insights e, em seguida, o terceiro a ser como usar para otimizar as suas páginas e seu site.

Para uma cartilha sobre o que a análise do arquivo de log e a sua aplicação em SEO, confira o nosso artigo: Como Utilizar o Servidor de Análise de Log para Técnicas de SEO

1. Tipos de

Então, vamos entrar à direita. Existem três principais tipos de logs, e a principal é o Apache. Mas você também vai ver W3C, elastic load balancing, que você pode ver um monte de coisas como Kibana. Mas você também irá provavelmente alguns arquivos de log personalizados. Assim, para aqueles sites maiores, que não é incomum. Eu sei Moz tem um costume de sistema de arquivo de log. Fastly é um tipo personalizado a instalação. Então, basta estar ciente de que aqueles que estão lá fora.

Registo de dados

Então o que você vai ver nos logs? Os dados que vem é principalmente nestes colorido aqui.

Então, você vai esperamos que, com certeza, consulte:

  • o pedido IP do servidor;
  • o carimbo de data / hora, ou seja, a data e a hora em que essa solicitação foi feita;
  • a URL solicitada, então, o que página eles estão visitando;
  • o código de status HTTP, que foi de 200, não é resolver, é que foi um redirecionamento 301;
  • o agente de utilizador, e portanto, para nós, SEOs estamos apenas olhando para os agentes de usuário’ o Googlebot.

Assim, os arquivos de log tradicionalmente casa todos os dados, todas as visitas de pessoas e tráfego, mas queremos analisar o Googlebot tráfego. Método (Get/Post) e, em seguida, tempo gasto, IP do cliente, e a referente às vezes são incluídos. Então, o que isso parece, é tipo como glibbery gloop.

É uma palavra que eu fiz, e ele apenas se parece com isso. É como bleh. O que é isso? Parece louco. É uma nova linguagem. Mas, essencialmente, você provavelmente verá que IP, para que a red endereço IP, carimbo de data / hora, o que normalmente se assim, que o método (get/post), o que eu não entendo completamente, ou necessariamente precisa utilizar algumas das análises, mas é bom estar ciente de todas estas coisas, a URL solicitada, que o código de estado, e todas essas coisas aqui.

2. Análise

Então, o que você vai fazer com esses dados? Como podemos usá-lo? Portanto, há um número de ferramentas que são realmente grandes para fazer parte do trabalho pesado para você. Gritando Sapo Arquivo de Log Analyzer é grande. Eu usei um monte. Eu realmente, realmente gosto dele. Mas você tem que ter seus arquivos de log em um tipo específico de formato para que eles o utilizem.

O Splunk é também um grande recurso. Sumo de Lógica e eu sei que há um monte de outros. Se você estiver trabalhando com grandes sites, como eu, no passado, você vai ter problemas aqui, pois não vai ser em um arquivo de log comum. Então, o que você pode fazer é fazer manualmente alguns, esse mesmo, que eu sei que soa um pouco louco.

Manual de Excel análise

Mas espera aí. Confie em mim, é divertido e super interessante. Então, o que eu fiz no passado se eu importar um arquivo de log CSV no Excel, e vou usar o Assistente de Importação de Texto e basicamente você pode delinear o que os separadores são para esta loucura. Pode-se ser um espaço ou uma vírgula ou uma cotação, você pode classificar de quebrar esses, de modo que cada uma das pessoas a viver dentro de suas próprias colunas. Eu não iria se preocupar em ter um extra de colunas em branco, mas você pode separar aqueles. A partir daí, o que você poderia fazer é criar tabelas dinâmicas. Para que eu possa link para um recurso sobre como você pode fazer isto facilmente.

Páginas principais

Mas basicamente o que você pode olhar no Excel é: Ok, quais são as principais páginas que o Googlebot hits por frequência? Quais são as principais páginas pelo número de vezes que é solicitado?

Top pastas

Você também pode olhar para o topo pedidos de pasta, o que é realmente interessante e muito importante. Em cima disso, você pode também procurar em: Quais são as mais comuns o Googlebot tipos de bater no seu site? É o Googlebot móvel? É o Googlebot imagens? Eles estão acertando os recursos corretos? Super importante. Você também pode fazer uma tabela dinâmica com códigos de status e olhar para isso. Eu gosto de aplicar algumas dessas roxo coisas para as páginas de topo e superior pastas de relatórios. Então, agora que você está recebendo alguns insights sobre: Ok, como é que algumas destas páginas de topo resolver? Quais os principais pastas de procura como?

Você também pode fazer isso para o Googlebot IPs. Este é o melhor hack que eu encontrei com análise do arquivo de log. Vou criar uma tabela dinâmica apenas com o Googlebot IPs, esse aqui. Assim que eu receber, às vezes um monte deles, mas vou pegar todo único, e que eu possa ir para o terminal no seu computador, na maioria dos computadores padrão.

Eu tentei desenhá-la. Parece que. Mas tudo que você faz é que você digite em “host” e, em seguida, você colocar esse endereço IP. Você pode fazê-lo em seu terminal com este endereço IP, e você vai ver como resolver Google.com. Que verifica que é, de fato, um Googlebot e não algum outro rastreador de falsificação Google. Então, isso é algo que estas ferramentas tendem automaticamente cuidar, mas existem maneiras de fazê-lo manualmente, o que é bom estar atento.

3. A otimização de páginas e rastreamento de orçamento

Tudo bem, então como você otimize-se para isso de dados e realmente começar a melhorar o seu rastreamento orçamento? Quando eu digo “rastreamento de orçamento,” é principalmente uma só significa o número de vezes que o Googlebot está vindo para o seu site e o número de páginas que eles geralmente de rastreamento. Então, o que é que com? O que faz o rastreamento de orçamento olhar como, e como você pode torná-lo mais eficiente?

  • Erro de servidor de consciência: Assim o erro de servidor de conscientização é muito importante. É bom manter um olho em um aumento de 500 erros em algumas de suas páginas.
  • Os erros 404: Válido? De referência?: Outra coisa para dar uma olhada é tudo o 400s que o Googlebot está encontrando. É tão importante para ver: Ok, é que 400 solicitação, é válido 400? Não que a página não existe? Ou é uma página que deve existir e já não é, mas você poderia, talvez, corrigir? Se houver um erro ou se ele não deveria estar lá, qual é a referência? Como é que o Googlebot constatação de que, e como você pode começar a limpar algumas dessas coisas?
  • Isolar 301s e corrigir freqüentemente bater 301 correntes: 301s, então um monte de perguntas sobre 301s nesses arquivos de log. O melhor truque que eu tenho uma espécie de descoberta, e eu sei que outras pessoas já descobriram, é para isolar e corrigir o mais freqüentemente atingido 301 cadeias. Assim, você pode fazer isso em uma tabela dinâmica. É realmente muito mais fácil fazer isso quando você tem uma espécie de emparelhado com rastreamento de dados, porque agora você tem mais alguns insights sobre a cadeia. O que você pode fazer é que você pode olhar para as mais frequentemente atingidas 301s e veja: há alguma fáceis, rápidas correções para a cadeia? Há algo que você pode remover e resolver rapidamente apenas para ser como um salto ou um dois hop?
  • Primeiro, os dispositivos móveis: Você pode manter um olho sobre o primeiro celular. Se o seu site tem ido primeiro celular, você pode cavar em que, para os logs e avaliar o que parece. Curiosamente, o Googlebot ainda está indo olhar como este compatível com o Googlebot 2.0. No entanto, ele vai ter todos os móveis implicações entre parênteses antes. Então, eu tenho certeza que essas ferramentas podem automaticamente o saber. Mas se você está fazendo algumas coisas manualmente, é bom estar ciente de que o que parece.
  • Faltou conteúdo: Então o que é realmente importante é dar uma olhada em: o Que o Googlebot encontrar e rastreamento, e o que eles estão completamente ausentes? Assim, a maneira mais fácil de fazer isso é a cruz-compare com o mapa do site. É realmente uma ótima maneira de dar uma olhada no que pode ser perdido e de como e porque talvez você pode priorizar os dados no mapa do site, ou integrá-lo na navegação, se possível.
  • Comparar a freqüência de ocorrências de trânsito: Essa foi uma grande dica que eu tenho no Twitter, e eu não me lembro quem disse isso. Eles disseram: comparar a freqüência de Googlebot ocorrências de trânsito. Eu pensei que era brilhante, porque um, não apenas vê um potencial de correlação, mas você também pode ver onde você pode querer aumentar o tráfego de rastreamento ou rastreamentos em um específico, de alto tráfego página. Realmente interessante para dar uma olhada nisso.
  • Parâmetros de URL: dê uma olhada se o Googlebot está batendo todos os URLs com o parâmetro de cadeias de caracteres. Você não quer isso. É, normalmente, apenas de conteúdo duplicado, ou algo que pode ser atribuído na Pesquisa do Google Console com a seção de parâmetro. Para qualquer e-commerce lá fora, definitivamente verificar isso e tipo de conseguir que todos esticado para fora.
  • Avaliar dias, semanas, meses, Você pode avaliar dias, semanas e meses que ele bateu. Então, há um pico de cada quarta-feira? Há um pico de cada mês? É interessante saber, não totalmente crítica.
  • Avaliar a velocidade e os recursos externos: pode-se avaliar a velocidade dos pedidos e, se houver recursos externos que podem, potencialmente, ser limpos e acelerar o processo de pesquisa um pouco.
  • Otimizar a navegação e links internos: Você também deseja otimizar a navegação, como eu disse anteriormente, e usar essa meta o índice não.
  • Meta noindex e robots.txt disallow: Então, se há coisas que você não quer no índice e se há coisas que você não deseja ser rastreado a partir do seu robots.txt, você pode adicionar todas as coisas e começar a ajudar algumas coisas também.

Reavaliar

Por último, é realmente útil para ligar o rastreamento de dados com alguns dos dados. Então, se você está usando algo como o Screaming Frog ou DeepCrawl, eles permitem que estas integrações com diferentes arquivos de log do servidor, e dá-lhe mais discernimento. A partir daí, você só quer reavaliar. Então você quer tipo de continuar este ciclo repetidas.

Você quer olhar para o que está acontecendo, ter parte de seus esforços trabalhou, ele está sendo limpo, e de lá ir. Então eu espero que isso ajude. Eu sei que foi muito, mas eu quero ser uma espécie de uma visão ampla de análise do arquivo de log. Estou ansioso para todas as suas perguntas e comentários abaixo. Eu vou vê-lo novamente em breve em outro Quadro de sexta-feira. Obrigado.

Vídeo transcrição por Speechpad.com

Compartilhe:

Facebook
Twitter
Pinterest
LinkedIn

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

On Key

Related Posts

× Como posso te ajudar?