Regali natalizi in anticipo: aggiornamento Screaming Frog 18.0

Il Natale è alle porte è così SEO Spider di Screaming Frog ha annunciato l’uscita di una nuova versione 18.0 con il nome in codice “Willow” che porta con sé importanti novità in termini di miglioramenti e funzionalità.

Il SEO tool emula il crawl di Google, ovvero i Googlebot per analizzare la struttura e le pagine dei siti web apportandone migliorie sulla velocità di caricamento.

Ma vediamo insieme quali sono le novità della nuova versione.

Integrazione GA4

La nuova versione Willow integra Seo Spider con GA4, dunque sarà possibile collegarsi tramite API ai suoi dati.

Come fare per connettersi?

Ti basterà:

  • Scegliere dalla barra in alto “configurations” – API access – GA4
  • Selezionare le 65 metriche
  • Gestire le dimensioni e la data delle analisi

I dati in questo modo saranno visibili nella tab Analytics e interna, inoltre potrai inserire delle dimensioni di filtro e raggruppare i canali di sessione con i valori di dimensione per affinare la ricerca su un canale specifico come ricerca organica.

 

Scansione e analisi dei documenti PDF

La seconda novità riguarda la possibilità di scansionare e analizzare i documenti PDF, in particolare con SEO Spider sarà possibile eseguire il crawling dei documenti e verificare che i collegamenti all’interno funzionino.

In caso di anomalie, gli errori verranno segnalati nella scheda “codice di risposta”.

Inoltre è possibile estrarre e memorizzare il PDF tramite “Configurazione- Spider- Estrazione”.

In questo modo, verrà memorizzato e archiviato l’oggetto del PDF, il suo autore, la data di creazione e modifica e il conteggio sia delle pagine che delle parole al suo interno.

Per una macroanalisi inoltre, Screaming Frog consente di poterli esportare in blocco tramite: esportazione in blocco-web-tutti i documenti PDF.

 

Nuova scheda Convalida

È stato implementata e convalidata una nuova scheda Convalida che ha il compito di convalidare le best practice che possono avere un impatto sui crawler durante la scansione e l’indicizzazione.

Lo scopo?

Individuare eventuali problemi che possono incidere sui robot di ricerca e sulla loro capacità di svolgere l’analisi in maniera affidabile e soddisfazione.

I nuovi filtri includono:

  • invalid-html-element-head: pagine con elementi in HTML non validi nell’head. Quando un elemento non valido viene utilizzato nell’head, automaticamente Google ignora tutti gli elementi dopo l’elemento invalido.

 

  • <head> Not First In <html> Element: elementi in HTML che appaiono nella pagina prima dell’head. L’head infatti, dovrebbe essere il primo elemento nell’<html>.

 

  • Tag <head>multipli: pagine con più <head> nell’HTML. L’head dovrebbe essere unico perché contiene tutti i metadati critici per il documento. Qualsiasi tag <head> dopo <body> non verrà preso in considerazione.

 

  • Tag <head>mancante: pagine che mancano di un elemento head nell’HTML. L’head è un contenitore per i metadati di una pagina che si pone tra l’<html> e il <body>. I metadati vengono utilizzati per definire il titolo della pagina, gli stili, gli script e altri elementi fondamentali. Se l’elemento <head> viene omesso i browser e i Googlebot lo generano automaticamente però potrebbe non contenere i metadati necessari per la pagina. Questo potrebbe comportare un ostacolo al posizionamento.                                                                                                                                                                                                                                                                                                     
  • Tag <body>multipli: pagine con più elementi <body> nell’HTML. Come per il tag <head> ci dovrebbe essere un solo elemento <body> che contiene tutto il contenuto del documento. In questo caso il browser e Googlebot cercheranno di combinare i contenuti successivi e generare un mix che potrebbe risultare dannoso per il ranking.

 

  • Tag <body>mancante: Identifica le pagine mancanti dell’elemento <body> nell’HTML. Questo elemento contiene tutto il contenuto di una pagina incluse le immagini, le intestazioni, paragrafi e altri elementi.

 

  • Documento HTML superiore a 15 MB: pagine con un peso superiore ai 15 MB. Googlebot limita la scansione e di conseguenza l’indicizzazione di file superiori ai 15 MB. La dimensione non include le immagini e i video e ai contenuti scaricabili, ma solo ai dati non compressi.

Aggiornamento in-APP

Per velocizzare l’aggiornamento del SEO Spider di Screaming Frog gli utenti verranno avvisati con un popup che invita a scaricare e installare la nuova versione.

In questo modo, quando l’utente verrà avvisato della disponibilità di una nuova versione che sarà già scaricata nel background, non dovrà fare altro che installarla con pochi e semplici clic.

 

Autenticazione per programmazione/ la CLI

In precedenza per eseguire l’autentificazione vi era un processo più lungo, oggi per identificarsi il processo è stato semplificato, basterà:

  • Posizionarsi su configurazione > autenticazione
  • Fornire il nome utente e la password
  • Memorizzare i dati così da non procedere continuamente all’autenticazione

Dopo aver effettuato il login è possibile quindi entrare nella nuova tab “profile” ed esportare un nuovo file.soespider. Questo file contiene l’autenticazione salvata sia per quella di base che per quella sui moduli può essere utilizzata sia per la programmazione che per la CLI.

 

Filtri e problemi introdotti

All’interno delle schede esistenti, saranno disponibili dei nuovi filtri che aiuteranno a filtrare meglio  i dati per le analisi e sono presenti nell’interfaccia utente.

Questi includono:

  • Codici di risposta- catene di reindirizzamento: sono gli URL interni che reindirizzano ad un altro URL che sua volta reindirizza e potrebbe creare un “hop”. Queste catene di reindirizzamento complete potranno essere anche esportate tramite – report- reindirizzamenti-catene di reindirizzamento.

 

  • Codici di risposta-ciclo di reindirizzamento: URL interni che reindirizzano a un altro URL che a loro volta viene reindirizzato ad un URL richiamato precedentemente. Anche queste possono essere esportate.

 

  • Scheda immagini- background image: comprende immagini sfondo CSS, immagini caricate dinamicamente. Le immagini di sfondo normalmente non vengono indicizzate da Google e i browser non offrono gli attributi alt.

 

  • Canonicals: pagine con canonical multipli impostati per un URL.

 

  • Canonical Is Relative, ovvero pagine che hanno un tag di collegamento real canonical relativo.

 

  • Canonicals- Unlinked: URL che possono essere scoperti solo tramite real canonical e che non sono collegati tramite collegamenti ipertestuali sul sito. Questo potrebbe essere un segno di errore.

 

  • Link > Solo Inlink di pagina non indicizzabile: pagine indicizzabili che sono collegate a pagine non indicizzabili come, le pagine noindex, robots.txt o canonicalizzate non consentite.

 

Punteggi di leggibilità flesch e barra URL

Sono punteggi calcolati e inclusi nel contenuto con dei nuovi filtri per la leggibilità difficile o molto difficile.

Questi punteggi ad oggi sono disponibili solo in inglese.

Un ultimo aggiornamento riguarda la barra degli URL che ora ha la funzionalità di completamento automatico in base alla digitazione precedente.

L’aggiornamento 18.0 ha apportato delle migliorie all’intero tool e correzioni di bug.