Seo e Web Marketing - 1 | WebMaster & WebDesigner
-
Upload
matteo-magni -
Category
Technology
-
view
270 -
download
0
description
Transcript of Seo e Web Marketing - 1 | WebMaster & WebDesigner
SEO e Web Marketing [1]Matteo Magni
SEO
Con il termine ottimizzazione (Search Engine Optimization, SEO, in inglese) si intendono tutte quelle attività finalizzate ad aumentare il volume di traffico che un sito web riceve dai motori di ricerca. Tali attività comprendono l'ottimizzazione sia del codice sorgente della pagina, sia dei contenuti. (wikipedia)
Directory
“In principio c'erano le directory”
Dmoz: è una web directory multilingue a contenuto aperto di proprietà della Time Warner e mantenuta da una comunità virtuale di redattori volontari. Scopo della directory è essenzialmente la raccolta e indicizzazione di hyperlinks reperiti nel WorldWideWeb.
Yahoo
Motori di Ricerca
Con l'aumento dei siti web non era possibile censirli tutti, serviva un modo per rispondere all'esigenza degli utenti di trovare velocemente la risorsa adatta ai propri bisogni
Motori di RicercaUn motore di ricerca (in inglese search engine) è un sistema automatico che analizza un insieme di dati spesso da esso stesso raccolti e restituisce un indice dei contenuti disponibili classificandoli in base a formule statistico-matematiche che ne indichino il grado di rilevanza data una determinata chiave di ricerca. (Wikipedia)
Yahoo
Bing
Altavista
Ask
Virgilio
...
Spider, Crawler, Robot
Un crawler (detto anche spider o robot), è un software che analizza i contenuti di una rete (o di un database) in un modo metodico e automatizzato, in genere per conto di un motore di ricerca. I crawler solitamente acquisiscono una copia testuale di tutti i documenti visitati e le inseriscono in un indice. (Wikipedia)
SERP
Search engine results page (abbreviata in SERP) significa "pagina dei risultati del motore di ricerca". Ogni qualvolta un utente effettua una ricerca con un motore, infatti, ottiene come risposta un elenco ordinato.
Parametri
Fattori interni
On-page
Fattori Esterni
Off-Page
I parametri che influenzano le serp sono molti, ma pssoiamo dividerli in due categorie:
Key Words?!?!?
“Magia, mistero, apparizioni, sparizioni”
Da dove partiamo?
Prima di tutto pensiamo a chi si rivolge il nostro sito, non ai motori di ricerca.
Il cliente prima di tutto
Utenti e Search engine
http://shinynews.it/marketing/1107-chiavi-motori.shtml
“solo” il 42% delle ricerche è fatto con una sola parola chiave.
Questo dato è in costante calo e google suggest ha dato una grossa mano a tutto ciò.
Come usano gli utenti i motori di ricerca?
Perché no le chiavi singole?
Utente:– Non trova quasi mai la risorsa che cerca
SEO:– Utenza troppo vasta, quindi difficile da
accontentare– Troppa concorrenza
Long Tail
La coda lunga è un concetto elaborato da Chris Anderson nel 2004.
Invece che produrre un numero limitato di oggetti da vendere a più persone possibile si tenta di produrre per quelle persone disposte a comprare oggetti meno conosciuti. Secondo Anderson questi individui sono tanti da poter avere una massa critica molto importante.
Long Tail [2]
Nel SEO ci si riferisce a chiavi, di solito composte da più parole, che portano poco traffico ma spesso ci permettono di soddisfare appieno l'utente che ci trova.
Strumenti
Google Adwords
http://adwords.google.it/select/KeywordToolExternal
Google Trends
http://www.google.com/trends
Google Trends for Websites
http://trends.google.com/websites
Google Suggest
–
Progettino
sosacroniro
Scelta del nomeLa scelta del nome non è certo la scelta più importante ma può essere d'aiuto nell'indicizzazione.• Nome brand se già esistente offline
Se è un progetto nuovo invece:• Facile da ricordare• Attinente all'argomento del sito• Facilemente comprensibile
quando viene pronunciato
Estensioni
Le estensioni hanno per i motori lo stesso valore, ma se mi riferisco al mercato italiano avere l'estensione .it probabilmente sarà vista meglio dai miei utenti che avere l'estensione .fr
Indicizzazione
I metodi usati dai motori di ricerca sono principalmente questi:
– Spider– Suggerisci URL– Sitemap– RSS
Sitemaphttp://www.sitemaps.org/it/
Le Sitemap consentono ai webmaster di indicare ai motori di ricerca le pagine dei loro siti disponibili per la scansione. Nella sua forma più semplice, una Sitemap è un file XML contenente gli URL di un sito insieme ai rispettivi metadati aggiuntivi (data dell'ultimo aggiornamento, frequenza tipica delle modifiche, importanza rispetto agli altri URL del sito) che consente ai motori di ricerca di eseguire la scansione del sito in modo più efficiente.
In genere, i crawler web individuano le pagine dai link presenti sul sito e da altri siti. Questi dati vengono aggiunti per consentire ai crawler che supportano Sitemaps di selezionare tutti gli URL nella Sitemap e di ottenere informazioni relative a tali URL tramite i metadati associati. L'utilizzo del Protocollo Sitemap non garantisce l'inclusione delle pagine web nei motori di ricerca, ma facilita il processo di scansione del tuo sito da parte dei crawler web.
Rss e Ping
RSS (Really Simple Syndication) è uno dei più popolari formati per la distribuzione di contenuti Web; è basato su XML, da cui ha ereditato la semplicità, l'estensibilità e la flessibilità. L'applicazione principale per cui è noto sono i flussi RSS che permettono di essere aggiornati su nuovi articoli o commenti pubblicati nei siti di interesse senza doverli visitare manualmente uno a uno.
Il Ping corrisponde ad una notifica inviata, in modo automatico o manuale, per avvertire chi è interessato delle novità sul feed
Indicizzazione problemi
– Javascript– Alcuni link flash– Ajax, silverlight,
iframe
Tipi di file indicizzatihttp://support.google.com/webmasters/bin/answer.py?hl=it&answer=35287
Flash e contenuti multimediali http://support.google.com/webmasters/bin/answer.py?hl=it&answer=72746
Ajaxhttp://support.google.com/webmasters/bin/answer.py?hl=it&answer=174992
Robots.txtIl file robots.txt contiene delle regole utilizzate dai crawler (detti anche spider) per applicare restrizioni di analisi sulle pagine di un sito internet.
I web crawler sono dei software automatici programmati per effettuare ricerche ed indicizzazioni periodiche. Nella prima fase di analisi di un sito web controllano l'esistenza del file robots.txt per applicare eventuali restrizioni richieste dal webmaster del sito.
Il file robots.txt è stato creato nel giugno 1994 con il consenso dei membri della robots mailing list ([email protected]).
In questo momento non esiste un vero e proprio standard per il protocollo robots. (wikipedia)
User-agent: *
Disallow: /
robots.txt [2]
User-Agent
il valore di questo campo contiene il nome del robot che si deve attenere alle restrizioni. Con il carattere * la regola viene applicata a qualsiasi robot.
Disallow
il valore di questo campo contiene le pagine del sito che devono essere escluse dai robot durante l'indicizzazione. Si può indicare un URL specifico o una serie di URL appartenenti ad un pattern.
Per ogni User-Agent è possibile specificare una o più restrizioni tramite Disallow.
NoFollow
<a href=”sito.it” rel=”nofollow”
Nella bozza di HTML5 è stato aggiunto il l'attributo rel con valore NoFollow
Nofollow è un valore assegnabile all'attributo rel dell'oggetto HTML a per indicare ai motori di ricerca che un Collegamento ipertestuale non deve influenzare la classificazione della pagina web del collegamento nell'indice dei motori di ricerca stessi. (wikipedia)
Domande
Slide:
http://www.slideshare.net/ilbonzo
Code:
https://github.com/ilbonzo/Cypher
mail: