måndag, november 26, 2007

Google och robots.txt

Enligt Sebastians-Pamphlets blogg så har Google börjat att känna igen experimentella syntaxer i robots.txt filen. En sådan experimentell syntax är Noindex. Har man t.ex. en rad som ser ut enligt föjlande så bör man se upp:
Noindex: /

Vad kan hända? Om du har en robots.txt fil så se till att validera denna snarast så att inga problem uppstår. I exemplet ovan så innebär det att man kan få hela webbplatsen bortplockad från Googles index.

Du kan validera robots.txt filerna i Google Webmaster Tools avdelning.

Använd också de syntaxer som vi vet fungerar problemfritt såsom Allow, Disallow och Sitemap direktiven för Googlebot i robots.txt filen.

torsdag, oktober 04, 2007

Sökmotoroptimering en myt?

Fick ett mycket intressant nyhetsbrev från Jill Whalen som driver High Rankings i USA. En av frågorna stack ut extra mycket då det handlar om att sökmotoroptimering för mycket generella ord inte gäller. Läs frågan och svaret nedan.
Hi Jill

I am currently looking at doing SEO work for a [generic type of alcohol for drinking] industry-related website. I have come across one problem though.

If I enter [the type of alcohol] into Google (www.google.co.uk), and look at the top ranking site, I cannot see why it should be number one. I know you do not review individual sites, so all I can say is that I know for a fact that this site was not (deliberately) optimized.

It has weak titles, no particular keyphrases in the content, no meta description or keywords, no keyphrases as headings or alt text. It has about 60 incoming links but none that could be regarded as 'quality' websites.
The HTML does not even validate. All I can see is that [the type of alcohol] appears as part of the URL and as the first word in every page title.

The problem is justifying SEO to a client when a competitor site like this apparently defies SEO logic and succeeds nonetheless.

Any insight is appreciated!

Maurice

++Jill's Response++

Hi Maurice,

This is a great example of how all the elements that people believe are necessary for a site to rank highly are not always needed at all! In fact, much of what you read online about what is supposedly going to gain you high rankings is a complete myth. This is especially true when it comes to extremely general, one-word keywords, such as the one you are talking about.


You'll almost always find the top ranking pages for any one-word keyword will defy the "rules" of SEO. Which is why SEO is not about optimizing for a one-word keyword, but instead optimizing for the hundreds of keyword phrases that relate to the product/service in question. With one-word keywords,
it's basically a crap-shoot.

If you absolutely need to show up for a very general one-word keyword (and I strongly believe you don't) then your best bet is to bid on it via Google AdWords. However, it's doubtful that the cost per click would provide you with a positive return on your investment. General words are usually very poor converters -- another reason why they're not worth the aggravation of optimizing for.

Do your keyword research and find the tons of related phrases, then optimize each page of the site for 3-5 different ones. Your traffic will soar, your conversions will be great, and your client will start to see what real SEO is all about!

Best,

Jill

Share your comments and thoughts here:
.

So Just Who Is This Jill Whalen?

Are you wondering who's behind all these bold claims? I thought you might be! Founder and CEO of High Rankings, Jill Whalen, is a recognized search engine optimization consultant. Learn more about Jill Whalen or check out Inspired SEO, Jill's personal blog, or her less updated Jill Whalen Exposed blog.

lördag, september 01, 2007

Helt ok med nofollow

Google kommer inte att "straffa" eller utesluta några webbplatser som använder attributet rel=nofollow i sina länkar. Så här säger Matt själv om saken.

"Matt's precise words were: The nofollow attribute is just a mechanism that gives webmasters the ability to modify PageRank flow at link-level granularity. Plenty of other mechanisms would also work (e.g. a link through a page that is robot.txt'ed out), but nofollow on individual links is simpler for some folks to use. There's no stigma to using nofollow, even on your own internal links; for Google, nofollow'ed links are dropped out of our link graph; we don't even use such links for discovery. By the way, the nofollow meta tag does that same thing, but at a page level."

torsdag, juli 12, 2007

Ny meta tagg på gång - Unavailable_after

Google har meddelat att man kommer att göra en ny metatagg tillgänglig. Taggen som heter "Unavailable_after" gör att man kan bestämma hur länga en sida ska vara indexeringsbar och spindlas.
En bra lösning för de webbplatser som arbetar med kampanjer. Mer finns att läsa på Jill Whalens HighRankings.com.

fredag, juli 06, 2007

Nyckelordsanalys - en källa till nya affärsområden

Något som jag stöter på när jag arbetar med nyckelordsanalyser är ideér till nya intressanta verksamhetsområden och utveckling av befintliga produkter/tjänster åt företag. När man genomför en nyckelordsanalys får man fram hur personer söker på sökmotorer och vilka fraser som används vid sökningarna. Bland dessa söksfraser kan man läsa ut vilket problem frågeställaren försöker lösa. Genom att analysera och plocka ihop fler sökfraser och nyckelord kan man skapa en bild av vilken typ av produkt eller tjänst som skulle lösa problemet.
Många gånger kan vi identifiera nya områden som ett befintligt företag kan anpassa sina tjänster till och på så vis lösa problemet. Men många gånger så möts vi även av företagare som inte vill ändra eller utnyttja informationen. För den som vill så finns det många affärsideér att hämta i att analysera hur personer söker på sökmotorer. Hur är det ställt inom ert eget verksamhetsområde? Dax att analysera söktrafiken på er webbplats och se hur ni kan utveckla verksamheten med hjälp av en sökordsanalys!

tisdag, juni 12, 2007

Senaste nytt om sökmtoroptimering

Google har förklarat och förtydligat lite av sina strategier (för er som fortfarande försöker att manipulera sökresultat genom fiffiga lösningar, se upp!).
Googles kompletterande index (resultat)
Sidor som hamnar i Googles kompletterande index hanteras annorlunda jmf med sidor i det reguljära indexet. Dock inget att oroa sig för säger Matt Cutts på Google.


Köpa länkar
Google anser att när man köper länkar så följer man inte Googles riktlinjer och man kan tänka sig att agera mot denna typ av länkning i framtiden.


Utgående länkar
Matt Cutts sa att länkar till andra webbplatser är bra för användarna och därmed bra för sökmotorerna.


Spammande domäner som ägs av samma person
Matt Cutts indikerade att webbmasters som äger flera spammande domäner även kan få problem med sina övriga webbplatser.


Katalogsidor och sökresultatsidor för e-butiker
Google försöker undvika att ha med e-butikernas resultatsidor i sitt eget sökresultat. Kategori sidor för e-butiker fungerar bättre enligt Matt Cutts. En produkt bör endast listas i den bäst avsedda kategorin istället för att listas på 30 olika platser.


Matt Cutts rekommender att man analyserar de webbplatser som idag har hög ranking då webbmasters kan lära sig en hel del från dessa.

tisdag, maj 29, 2007

Sökmotoroptimering är inte teknik!

När man läser och studerar olika forum på nätet ser man ofta att fårgorna kring sökmotoroptimering slutar i en teknisk diskussion. Vart kommer det tekniska in vid sökmotoroptimering?
Sökmotoroptimering handlar om att arbeta med ord som sätts in och används på ett korrekt sätt för att avgöra en sida och en webbplats innehåll och tema.
De tekniska specifiktationerna och problemen uppstår när webbplatser byggs och skapas på sådana sätt att man frångår de mest enkla och grundläggande aspekterna. Nämligen slutanvändaren!!
Alla olika typer av CMS verktyg och webbutvecklare som i sin iver vill visa hur de kan använda de senaste tekniska lösningar gör användaren en otjänst. Genom att de använder dessa verktyg och tekniker blir det svårt att avgöra sidornas innehåll.
CMS verktyg ska vara lätta för den som arbetar med att uppdatera webbplatser. Men hur är det ställt med anpassningen till de som besöker webbplatsen, nämligen sökmotorer och besökare?
Tekniska problem vid sökmotoroptimering uppstår när tekniker har ställt till problemen. En sökmotoroptimering är ett sätt att strukturera en webbplats olika sidor i teman utifrån att använda ord. That´s it! Eller vad anser ni?

Topp tre misstagen vid sökmotoroptimering

Vilka är de tre vanligaste felen företagen gör när de arbetar med sökmotoroptimering av sin egen webbplats? Enligt Matt Bailey på SiteLogic är det följande tre!

  • Varumärket kommer före sökmarknadsstrategin. Många gånger kommer företagets varumärkesstrategi i konflikt med de nödvändiga åtgärder som måste vidtas när man sökmotoroptimerar. Det här syns tydligt när det enda som får synas i title taggen är företagets namn. Title taggen är en av de mest kritiska elementen vid en sökmotoroptimering. Att inte kunna använda denna vid en optimering innebär problem och en konflikt mellan sökmotoroptimering och varumärke! Vissa företag tycker att detta är en fråga öppen för diskussion men det är det inte om man vill kunna sökmotoroptimera webbplatsens sidor.

  • Kalla saker för vad de är! MÅnga företag försöker definiera sin marknad genom att kalla saker för snitsiga varumärkesknutna produktnamn istället för att helt enkelt kalla sakerna för vad de är. Det här är ett av dem mer primära problemen och en nyckelordsanalys visar vad kunderna använder när de söker, vilket oftast inte innefattar företagets varumärke/namn.
    Kunder söker inte alltid med era egna produktord. De använder oftast sina egna ord för att beskriva din produkt.

  • Grunden i sökmotoroptimering är kundens erfarenhet. Sökmotorerna försöker utvärdera webbsidor utifrån vad en människa anser är den mest relevanta. Genom att sökmotoroptimera innehållet för användare och använda grundläggande principer för sökmotoroptimering, kommer du att kunna nå en bra ranking hos sökmotorerna. En av de äldsta och fortfarande bästa tipsen! Gör vad som är bäst för dina användare så kommer framgångarna på sökmotorerna.

söndag, april 29, 2007

20% av vår kunskap är aktuell!

I en mindra vetenskaplig undersökning av Greg Jarboe på företaget SEO-PR kom han fram till att endast 20% av det vi som sökmotoroptimerare kunde lära oss 2004 är aktuellt 2007. Med lära avses att närvara vid de SES-seminarier som avhålls över världen. Detta visar lite på hur hur föränderlig området sök är och vilken enorm utveckling som sker dagligen inom området. Läs Gregs artikel på SearchEngineWatch.

tisdag, april 17, 2007

Utökat stöd för sitemap protokollet

Under SES veckan i New York berättades att stödet för sitemap protokollet utökas. Sitemap protokollet stöds sedan november 2006 av de stora sökmotorerna Google, Yahoo och MSN. Nu avslöjades att automatisk detektion även omfattas. Genom att de seriösa sökmotorerna söker efter filen robot.txt och följer det som står i denna så har man lagt till möjligheten att även ange om webbplatsen använder sitemap protokollet. Strängen du lägger till i robot.txt filen ser ut på följande sätt:

Sitemap: http://www.dindomän.se/sitemap.xml

Sökmotorerna kommer då att hitta sitemap protokollet och webbplatsen anmäler på så sätt sina sidor till sökmotorn.

fredag, april 13, 2007

Hur hanterar man en flytt av allt innehåll till en ny domän?

Vid det senaste sökmotorseminariet i New York 2007 fick Mike McDonald en kort intervju med Vanessa Fox från Google Sitemap Team. En av de frågor han ställde var hur man som webbmaster ska agera när man vill flytta allt innehåll från en domän till en ny och hantera dippen i sökresultaten?
Vanessas svar på frågan var följande:
Fox första intiutiva svar var att det är en dålig idé att samtidigt flytta en webbplats till en ny domän och göra en total omdesign av strukturen. Istället, säger hon, ska man ta sidorna från den gamla webbplatsen och lägga upp dem på den nya webbplatsen exakt enligt tidigare mönster. Skapa en redirect för var och en av sidorna och flytta dessa en i taget så att varje gammal sida pekar till den nya platsen.
"Vad jag ser att personer gör när de gör den här typen av flytt, är att de omstrukturerar innehållet på sidorna istället för att flytta och knyta ihop sidorna, sida för sida."
Det är lättare för personer på Google och robotarna som arbetar för dem att veta att det handlar om samma webbplats som tidigare men på en ny plats om man utför flytten sida för sida.
Samtidigt är det lättare för webbmasters om de flyttar en sida i taget att indentifiera problem. När den oundvikliga dippen i sökresultaten kommer så är det lättare att bena ut vad som orsakar dippen när man genomfört flytten sida per sida.

Vill du höra mer av Vannes Fox? Besök denna länk för att se videointervjun.

tisdag, april 10, 2007

Google algoritm skapar jojo effekt!

På forumet WebMasterWorld har man observerat att Google ändrat i sina algoritmer. Diskussionen går mot att Google har lagt till fler sidor till sitt kompletterande resultat och att Google ändrar sin ranking utifrån ett antal kvalitetskriterier. Något vi själva upptäckt tidigare vad avser sidor som fortfarande använder Frames. Detta sätt att bygga sidor förekommer näst intill inte idag men det finns ett antal äldre sidor som använder denna teknik. Dessa sidor har upplevt en försämrad och en större svårighet i att nå en bättre ranking.
Vad är det då Google ändrat i sin algoritm?
Det verkar som att Google först internt tar fram ett set med resultat som man sedan rankar om utifrån ett antal tester. Om en sida inte är med i det första interna sökresultatet så är man inte heller med i den omrankning som sker i steg 2. Inga nya sidor tillkommer under processen!
Om din hemsida är med i den första utsållningen bland sökresultat så kan en omranking hjälpa eller stjälpa dig! Om din hemsida misslyckas i en av de nya rankingtester som utförs så kommer din ranking poäng att bli lägre. Faktorer som påverkar är relevans, trovärdighet och webbplatsens ålder.
Det här sättet att rangordna sidor skulle kunna förklara den jojo effekt som kan observeras för vissa URL:r. En sida kan gå från resultatsida 1 till slutet av resultaten för att sedan komma tillbaks igen. Samma sida är alltid med i det första setet med resultat men rankas olika.
Hamnar fler sidor i det kompletterande resultatet?
Google kanske använder det nya systemet för att snabbt få fram det första setet med resultat som troligen bygger på cachade resultat. För att göra det primära indexet mindre svårt att hantera så kan det bli så att fler sidor hamnar i det kompletterande indexet.
Det kompletterande indexet används enbart om det totala antalet sidor i det primära indexet inte återfinns i tillräcklig mängd vid en sökning.
Hur kan du tjäna på Googles nya algoritm?
Vill du nå en högre ranking via Googles nya algoritm så måste du skapa en trovärdig webbplats med bra innehåll:

  • Skapa bra ingående länkar från relaterade webbplatser för att öka trovärdigheten.

  • Få ingående länkar från webbplatser med många ingående länkar.

  • Optimera inenhållet på din webbplats för att visa Google att din webbplats är relevant för ett visst tema. (Tematisk webbplats)

  • Bra ranking hos Google bygger fortfarande till största delen på två faktorer. Optimerat innehåll och rätt typ av ingående länkar.



Problemet är att veta hur och vad som är relevant innehåll och hur strukturen på webbplatsen ska vara uppbyggd. Vi har tagit fram och testat en ny modell för optimering av innehåll som lyckats över förväntan. Inom kort kommer vi att komma ut med mer information kring detta, men ännu så får våra kunder enbart tillgång till detta.

måndag, mars 12, 2007

Skapa egen sökmotor

Nu kan du skapa din egen sökmotor med hjälp av Google! En sökmotor där du kan lyfta fram de webbplatser som du anser innehåller bra information. Vi återkommer mer om detta i vårt nästa nyhetsbrev. Under tiden kan ni kolla in vår egen anpassade sökmotor, Internetmarknadsföring.

Vad vill du betala för en annons på Internet?

Vad är du beredd att betala för en annons på Internet? Vad svarar du när "katalog" försäljarna från Eniro, Hitta, Företagskatalogen, Din Del och andra ringer för att erbjuda dig att köpa sökord och få en bra placering hos dem? Är det värt att lägga pengar på denna typ av annonsering?
En fråga man bör ställa sig själv och den uppringda försäljaren är hur många hänvisningar man kan förvänta sig från den aktuella "katalogen"? Med katalog menar vi att man deltar i deras respektive internetkatalog. Med hänvisning avser vi en person som söker i någon av katalogerna och sedan klickar på den länk du köpt av katalogföretagets säljare.
Statistiken kring detta är något svår att få fram exakt. Men en ungefärlig fördelning mellan de största aktörerna ser ut enligt följande:
Google 65-75%
MSN 15-25%
Eniro 5-7%
Altavista 3-5%
Yahoo 1-2%
Övriga 2-3%

Statistiken avser antalet hänvisningar på Internet till olika webbplatser. Vi ser att Google är den klara dominanten på denna scen. Eniro är den största "katalogen" som visar sig i statistiken. Vad är det då värt att annonsera på de mindre katalogerna eller på Eniro jämfört med att annonsera på Google? De flesta söker information via Google och det krävs inget geni för att inse att de tusenlappar det kostar att medverka på Eniro mfl, är dyrköpta annonser som inte genererar så mycket trafik.

Vad är du som köpare beredd att betala för en hänvisning?
Det jag själv funderar på är när katalogföretag ska gå ifrån den stelbent gammalmodiga kostnadsmodellen att ta betalt per införande. Att köpa sökord på Eniro kostar per sökord och du finns med i 12 månader. Du betalar per införande!
Att köpa sökord på Google bestäms uifrån hur mycket du vill lägga på annonseringen, vad du anser det värt att annonsera. Antalet ord kan i princip vara oändliga beroende på din budget. Men en normal annons kan handla om upp mot 20-30 nyckelord och sökfraser. Du betalar sedan per klick och kan aldrig betala mer än vad du angett i din dagliga budget för annonseringen.
Ett tredje alternativ är att ta betalt för säg 200 klick till ett fast pris. Du får betala 2000 kr för 200 klick och använder de sökord du själv vill. Ett alternativ som ger dig något tillbaks i förhållande till det du betalar för.

Men att betala för något som man inte vet om man får levererat? Det känns gammalt och förlegat. Intressant att se att Eniro tar in Jajja för att erbjuda sökmotoroptimering! Man vill kunna erbjuda en mer komplett portfölj av tjänster till sina kunder!

Vi får se hur de olika betalmodellerna utvecklas hos de olika söktjänsterna i framtiden! En sak är dock säker och det är att idag behöver man inte betala för en annons på Internet utan att kunna ställa krav på leverans i form av trafik om man så önskar.

fredag, mars 09, 2007

Konvertera Frames till Div!

Dags att konvertera den gamla webbplatsen med Frames till en ny lösning med DIV?
Ett arbete som lönar sig mycket bra. Vi har ett flertal kunder som använnt sig av Frames i sina lösningar. De har haft en bra ranking och alla har egentligen varit nöjda. Vad vi såg när vi medverkade vid en redesign av en webbplats med Frames har gjort att vi rekommenderat alla våra kunder att lämna denna lösning.
Det vi såg att vår kunds ranking på topp 10 listan med placeringar mellan 4-10 förbättrades avsevärt. Flera nya 1 placeringar på dessa topp 10 placeringar infann sig snabbt. Det enda vi gjorde var att flytta informationen och den optimering vi utfört på sidorna till den nya designen med div taggar.

Vi kan varmt rekommendera detta till andra med Frames lösning!

AJAX och sökmotoroptimering

Diskussionerna är många och höga angående det fantastiska med att använda AJAX när man skapar dynamiska webbplatser. Webbutvecklare kan motivera att applikationerna nu går snabbare att ladda och att fördelarna är många för besökarna. Så långt stämmer det faktiskt och AJAX är en lösning som gör det snabbare att surfa på de webbplatser som använder detta.
Vad är då AJAX?
Jo det handlar om en blandning av två tekniker som funnits ett tag. Nämligen JavaScript och XML. Nämner man JavaScript så börjar de som är vana med sökmotoroptimering att inse att det vankas problem. Sökmotorerna har problem med att köra JavaScript och kan därmed inte klara en AJAX lösning.
Sökmotoroptimering Vs AJAX!
För att klara av att sökmotoroptimera en AJAX sida behöver man skapa unika sidurl för varje enskillt innehåll och unika sidtitlar och description taggar för dessa. Sedan måste man göra dessa URL tilgängliga för sökmotorerna. Det går även att använda "noscript taggen" för att lägga upp innehållet. Men då frångår man oftast det dynamiska i sin applikation och det blir att hantera statiskt material. En statisk länk i den dynamiska mallen som tar dig till en sida där de dynamiska länkarna ligger som statiska länkar till varje enskild sida är en lösning vi funnit att fungera.

Det vore intresssant att höra om någon annan har erfarenhet av att lösa detta på annat sätt.

onsdag, januari 24, 2007

Googles planer framöver!

Googles Matt Cutts är den mest kända källan kring saker som cirkulerar runt Google och sökmotoroptimering. Han arbetar för Googles "quality group" och är specialiserad på frågor kring sökmotoroptimering.


Nyligen avslöjade han på sin blogg Googles planer inför 2007 och hur det kan komma att påverka dig de närmaste veckorna:


  • Det är sonnlikt att du kan komma att se en större varians i Googles ranking pga att Googles interna databaser kommer att uppdateras varje 1-2 dagar istället för som tidigare varje 3-4 vecka.

  • Google avslöjar vanligtvis uppdateringar av PageRank kvartalsvis för allmänheten. En ny PageRank uppdatering är på väg. Det betyder dock inte att din ranking i Google kommer att ändras då de nya PageRank värdena redan är infogade i deras rankingalgoritmer.

  • Googles kompletterande resultat är inget att vara "rädd" för. Om din hemsida syns som ett kompletterande resultat så är det inget att oroa sig över. Enligt Matt Cutts så är det PageRank som styr om en sida finns bland de kompletterande resultaten eller bland de ordinarie resultaten.

  • De kompletterande resultaten uppdateras och blir fräschare kontinuerligt.

  • Google har funnit ett litet fel med .com domäner som är baserade utanför USA. En uppdatering av algoritmerna har gjorts som kan påverka dessa domäners ranking.

  • Det kommer inte att bli några större infrastruktur relaterade uppdateringar av rankingen den närmaste tiden.


Vad kan du göra för att få en hög ranking i det nya Google?

Matt Cutts är klar på den punkten: "Jag rekommenderar i detta fall användadet av etisk "white-hat" optimering för att få kvalitetslänkar till hemsidan." (Redaktionella länkar som erhålls av andra webbplatser baserat på den egna hemsidans meriter, kvalitetsinnehåll.)

Peter's shared items in Google Reader

FriendFeed - webbstrategi

Digisocial – om webbstrategi, social media och kommunikation på internet