Search Engine Optimization voor
Community based websites
Wel of niet geschikt?
Voorwoord
SEO is een breed alomvattend onderwerp, waar ontzettend veel over geschreven is. Door een stage bij RedesignMe heb ik kennis gemaakt met Web 2.0 en community based websites en is mijn interesse gegroeid voor dit onderwerp. Het gebrek aan informatie over SEO omtrent community based websites, is de fundering van deze scriptie. Bij het schrijven van deze scriptie ben ik tot nieuwe inzichten gekomen op het gebied van SEO. Met deze scriptie hoop ik community based websites te helpen met het optimaliseren van hun community. Allereerst wil ik Caroline Maessen bedanken voor haar begeleiding gedurende dit proces. Tevens wil ik RedesignMe bedanken, dat ik de site RedesignMe.com als voorbeeld van community site voor mijn onderzoek mocht gebruiken. Zo heb ik een goed inzicht gekregen in het principe van community based websites.Samenvatting
Search Engine Marketing en Search Engine Optimization zijn begrippen die een belangrijke rol zijn gaan spelen op het internet en hebben alles te maken met het vindbaar maken van een website bij verschillende zoekdiensten. In deze scriptie ga ik beschrijven wat SEM en SEO inhouden en leg ik in het kort uit wat Search Engine Advertising is. SEM is een totaalpakket van methodes om je website vindbaar te maken voor zoekmachines. SEM is onder te verdelen in SEO, de optimalisatie van een website en SEA, het adverteren in zoekmachines. De hoofdvraag in dit verhaal is: Wat moet je als interactie ontwerper doen om een community based website te optimaliseren op het gebied van Search Engine Marketing, zodat deze net als commerciële websites goed gevonden kunnen worden in Google.? In antwoord op deze vraag heb ik onderzoek gedaan naar hoe de zoekmachine zoals we hem nu kennen is ontstaan en leg ik uit hoe een zoekmachine precies werkt. Zoekmachines kijken vooral naar tekst in de website en bepaalde stukken HTML code, die META tags heten. Daarnaast krijg je inzicht in de verschillen tussen editorial content en user generated content. User generated content wordt door gebruikers van een website geplaatst, terwijl editorial content van te voren uitgedacht en geplaatst is door een webmaster. Vervolgens leg ik uit wat je kunt doen aan SEO en SEM bij commerciële websites. Je krijgt uitleg wat er moet gebeuren als je een website optimaliseert voor zoekmachines, met de nadruk op Google. Vervolgens wordt er specifiek toegelicht welke methodes er bij een community based website te gebruiken zijn en wat daarnaast nog moet gebeuren om een community net zo goed vindbaar te maken als een commerciële website. Het optimaliseren van meta tags, pagina titels en zorgen voor veel external linking, zorgt voor betere vindbaarheid in Google, zowel voor commerciële sites als voor community based websites.Inhoud
Voorwoord ...2 Samenvatting...3 Inhoud...4 Inleiding...5 Hoofdstuk 1: Zoekmachines...9 De oorsprong van de zoekmachine ...9 Zoekmachines op het internet... 10 Google... 11 Werking van de zoekmachine... 12 Google vs. Andere zoekmachines... 14 Hfdst 2: Search Engine Marketing ... 16 Maak je website zoekmachine vriendelijk, maar vergeet de gebruiker niet... 20 Search Engine Advertising ... 21 Hfdst 3: Editorial content versus User generated content ... 25 Hfdst 4: SEO voor community based websites ... 27 Community optimaliseren... 28 Hfdst 5: Conclusie – SEO wel of niet toepasbaar op community websites.... 30 Literatuur:... 34 Webbronnen: ... 34Inleiding
“Heb je die film al gezien?” “Nee, wel van gehoord. Hij schijnt echt goed te zijn.” “Wacht, ik zal eens even zoeken naar een recensie.” Door dit soort scenario’s krijgt Google per dag meer dan 200 miljoen zoekacties te verwerken. Op de drukste uren gaat dit met 2000 zoekopdrachten per seconde. Dit zijn immense getallen. Google heeft ’s werelds grootste webpagina index van meer dan 3 miljard pagina’s. 1 Dit bevestigt dat het internet in de loop der jaren gigantisch is gegroeid en de mogelijkheden oneindig zijn. Omdat het internet zo massaal is geworden, is het moeilijker te vinden waar je naar op zoek bent. Daarom zijn zoekmachines in het leven geroepen. Zoekmachines bestaan uit twee delen. Aan de ene kant heb je de website waar jij jouw zoekacties op uitvoert, aan de andere kant heb je de achterliggende programma’s die het internet afstruinen op zoek naar websites. Deze intelligente programmaatjes, bots of spiders genaamd, die vooral teksten en bepaalde stukken code van de website doorzoeken en koppelen aan zoekcriteria. Ze onthouden informatie en slaan deze op in een index. 2 Als je een zoekterm in een zoekmachine intypt en vervolgens op zoek klikt, dan gaat een zoekmachine de woorden in de zoekterm vergelijken met de informatie in de index. Zijn hier overeenkomsten, dan worden deze op volgorde van relevantie weergegeven. De relevantie van zoekopdrachten is door de webmaster zelf te beïnvloeden. Als je een website goed optimaliseert voor zoekmachines op woorden zoals: fietsen, fietsspecialist fietshandelaar Drunen, zal bijvoorbeeld Google de site hoog in de zoekresultaten zetten, als mensen zoeken op deze woorden of woorden die daarmee te maken hebben. Er zijn methodes om een website zo te bouwen, dat hij beter door zoekmachines gevonden wordt dan andere websites, dus relevanter wordt. Hoe zorg je er voor 1 Bron: ’De keiharde Google feiten’ op: http://www.googlefacts.nl (22 mei 2009) 2 Bron: ’SEOguru, 2.1 Zoekspiders’ op: http://www.seoguru.nl/zoekmachine‐werking.html (22 mei 2009)dat jouw pagina de meest relevante wordt bij bepaalde zoekopdrachten. Hier komt SEO om de hoek kijken, wat een afkorting is van Search Engine Optimization. In het Nederlands heet dit zoekmachine optimalisatie. Dit is een onderdeel van SEM, wat een afkorting is van Search Engine Marketing. SEM is op te delen in SEO en SEA. SEA is een afkorting voor Search Engine Advertising. Google is op dit moment de meest gebruikte zoekmachine. 98% Van de mensen die op internet te vinden zijn, maakt gebruik van zoekmachines. Volgens een artikel op de website adformatie.nl van 28 februari 2009 is Google met 95% de meest gebruikte zoekmachine in Nederland.3 Daarom wil ik me in mijn onderzoek richten op Google als zoekmachine. Als je wilt dat jouw website gevonden wordt, moet je ervoor zorgen dat jouw website in zoekmachines voorkomt. Het liefst zo hoog mogelijk. 62% Van alle internet gebruikers kijkt niet verder dan de eerste pagina met zoekresultaten. 4 Het doel van deze scriptie is niet puur en alleen het onderzoek naar het toepassen van SEO op websites, maar specifiek voor Community based websites. Tot nu toe is SEO voornamelijk toegepast op commerciële of zogenaamde
editorial websites 5 en er is onderzocht hoe community based websites 6 de SEO
van commerciële websites beïnvloeden. Maar is SEO ook te optimaliseren, zodat community based websites beter gevonden worden? Uit een traject van een stage en projecten, die ik als interactie ontwerper bij het bedrijf RedesignMe heb gedaan, heb ik ervaren, dat SEO voor community based websites een stuk minder voor de hand ligt dan voor editorial websites. 3 bron: “Google veruit meest gebruikte zoekmachine” http://www.adformatie.nl/nieuws/bericht/google‐veruit‐ meest‐gebruikte‐zoekmachine 4’Bron: Zoekmachine marketing: wat is uw strategie?’ op: http://www.zoekmachine‐marketing.net (22 mei 2009) 5 Editorial website: een website met door een team van professionals geschreven en uitgedachte teksten 6 Community based website: een website waar een actieve groep van gebruikers of klanten content plaatsten in de vorm van bijv. tekst, afbeeldingen
RedesignMe is een community portal, waar bedrijven samen met hun consumenten een samenwerking aangaan om zo hun producten te verbeteren. Een bedrijf koopt een pagina op de website, die vervolgens in hun stijl wordt ingericht met een probleemstelling en een vraag. Deze pagina wordt verduidelijkt met tekst, afbeeldingen en/of een video. Deze informatie wordt door RedesignMe geplaatst en is het editorial gedeelte van de pagina. Aan de hand van deze informatie kan een redesigner in de vorm van beeld en tekst een oplossing of idee plaatsten op de probleemstelling. Vervolgens kunnen andere redesigners (leden uit de community) commentaar geven op dat ‘redesign’, waardoor er een discussie ontstaat en mensen feedback geven over het ontwerp. Hierdoor is de redesigner van het idee in staat om het te verbeteren. Het bedrijf achter de probleemstelling krijg zo input voor verbeteringen van zijn product en de redesigner wordt beloond voor een idee als er door meerdere leden in de community positief op wordt gestemd. Een redesign wordt beloond met 500 RDM’s, dat zijn punten die kunnen worden ingeleverd voor producten in de webwinkel van RedesignMe. 500 RDM’s staat gelijk aan 50 euro. Alle content die door de community wordt geupload is user generated content. 7 Het is niet duidelijk of dat user generated content, wat een community based website voornamelijk bevat, te optimaliseren valt en of deze wel door Google te indexeren is. In het geval van RedesignMe worden er veel afbeeldingen, maar vooral ook veel comments en stukken tekst op de site geplaatst. Deze bevatten nuttige info, die de vindbaarheid van de website kan bevorderen. Als deze content te indexeren valt door Google, zal de site nog beter gevonden worden. Omdat ik door een eerder oriënterend onderzoek heb ondervonden dat het vaker voorkomt dat community based websites minder goed geïndexeerd worden door Google, wil ik een onafhankelijk onderzoek doen, naar wat je als interactie ontwerper moet doen om een community based website te optimaliseren op het gebied van Search Engine Marketing, zodat deze net als commerciële websites goed gevonden kan worden in Google. 7 Bron: www.redesignme.com
In deze scriptie zal aan bod komen, hoe zoekmachines zijn ontstaan, hoe een zoekmachine werkt en wat het verschil is met Google en andere zoekmachines. Ik begin in hoofdstuk 1 met een inzicht geven in hoe de zoekmachine is ontstaan en hoe deze op het internet is geëvolueerd. Daarna ga ik in hoofdstuk 2 in op wat Search Engine Marketing en Search Engine Optimization precies inhouden en wat er allemaal bij komt kijken. Is SEO alleen genoeg of komt er meer bij kijken, zoals Adwords en Affiliate marketing, wat valt onder SEA. Ook wordt er een blik geworpen op wat er allemaal aan SEO marketing gedaan wordt bij commerciële websites. Vervolgens wordt er in hoofdstuk 3 een scheidslijn beschreven tussen user generated content en editorial content en wat de verschillen van deze twee soorten website inhouden zijn. Vervolgens zal hoofdstuk 4 van de scriptie zich toespitsen op het gebruik van SEO op community based websites. Zijn SEO methodes voor community based websites het zelfde als bij commerciële sites? Is user generated content te optimaliseren voor Google en wat is het perspectief van een interactie ontwerper op SEO marketing? Met dit alles zal er een antwoord komen op de vraag: Wat moet je doen als interactie ontwerper om bij community sites optimaal gebruik te maken van SEO marketing? Dat zal uitgebreid in hoofdstuk 5 uitgelegd worden.
Hoofdstuk 1: Zoekmachines
De oorsprong van de zoekmachine
De geschiedenis van de zoekmachine gaat ver terug en heeft een lange weg afgelegd om te komen tot waar hij nu is. In dit hoofdstuk zal ik een aantal van de belangrijkste gebeurtenissen in de zoekmachine geschiedenis aankaarten. Het principe zoekmachine stamt uit het jaar 1945, waar Vannevar Bush samen met een groep wetenschappers een database van informatie heeft gemaakt voor de mensheid. Hij geloofde sterk in het opslaan van gegevens, maar was wel van mening dat gegevensbronnen zodanig gepresenteerd moeten worden, dat als een bron nuttig is voor de mens, deze ook begrijpbaar is. Bush heeft het idee gecreëerd dat er een virtueel systeem moest komen, dat snel, betrouwbaar, uitbreidbaar is, waarmee informatie opgeslagen kan worden. Dit noemde hij memex. Gegard Salton heeft een grote rol gespeelt op het gebied van Moderne zoektechnologie. Hij en zijn teams van wetenschappers op Harvard en Cornell hebben het SMART (Salton’s Magic Automatic Retriever of Text) information retrieval system ontwikkeld. Dit systeem bevat een aantal belangrijke concepten zoals: het vector space model8 en het relevantie feedback mechanisme9. Hij heefteen boek geschreven, A Theory of indexing, waarin theorieën staan beschreven, waar de huidige zoekmachines op gebaseerd zijn. Ted Nelson heeft in 1960 een project opgezet, genaamd Xanadu en heeft in 1963 de term hypertext bedacht. Xanadu is in het leven geroepen om een computernetwerk te creëren met een simpele user interface. Ted was tegen complexe markup code, maar veel van de inspiratie in het World Wide Web is gebaseerd op zijn werk. Project Xanadu heeft gefaald, maar er is tot op de dag van vandaag nog steeds niet duidelijk waarom dit is gebeurd. 8 Een algebra model voor het representeren van tekstdocumenten en andere objecten, bijvoorbeeld in de vorm van een indexering. http://en.wikipedia.org/wiki/Vector_space_model 9 Een systeem dat ervoor zorgt dat zoekresultaten gerangschikt worden op relevantie. Bron: http://en.wikipedia.org/wiki/Relevance_feedback
De eerste echte zoekmachine, in de vorm zoals we nu op internet tegenkomen, nog voor het internet, heette Archie. Dit is een afkorting van Archives, in 1990 gecreëerd door een student aan de McGill University in Montreal. Kort daarna in 1993, zijn pas de eerste websites ontwikkeld. Het principe van de zoekmachine hoe we hem nu kennen, is sinds de oorsprong niet heel veel veranderd. Je hebt een massa aan informatie, waar zelf zoeken geen mogelijkheid is, omdat het ontzettend veel tijd in beslag neemt, voordat je dat wat je zoekt hebt gevonden. Dan praat je over jaren zoeken. Het is de techniek erachter die door de jaren verbeterd is. Bibliotheken hebben systemen bedacht om grote hoeveelheden informatie te categoriseren. Door tags te koppelen aan informatie kun je informatie terugvinden. Dit is geëvolueerd en gedigitaliseerd. Het internet heeft op het probleem van informatie terugvinden de zoekmachine als antwoord gegevonden. Het is veel gemakkelijker geworden om toegang te krijgen tot bepaalde informatie. Het tijdperk van de zoekmachines op internet is zo’n 15 jaar geleden begonnen en is inmiddels gigantisch gegroeid.
Zoekmachines op het internet
In het jaar 1993 is de eerste zoekrobot geïntroduceerd Deze is gecreëerd om de grootte van het internet te meten, door te tellen hoeveel actieve web servers er zijn. Later is deze robot geüpgraded om ook echt URL’s (webpagina’s) te vinden, dit is alweer specifieker dan webservers. In 1994 heeft Brian Pinkerton van de Universiteit van Washington een webcrawler uitgebracht. Dit was de eerste crawler die volledige webpagina’s kon indexeren. Daarna is het heel hard gegaan. In 1994 zijn de grote zoekmachines Lycos en Alta Vista gestart. Lycos was een hele grote zoekmachine. Zij begon op 20 juli met 54.000 documenten en was in januari 1995 uitgegroeid tot een database met 1,5 miljoen documenten. In 1996 waren zij met een index van 60 miljoen documenten de grootste zoekmachine ter wereld.10 Alta Vista is in dezelfde maand gelanceerd als Lycos. Alta Vista bevatte veel nieuwe features ten opzichte 10 bron: History of Search Engines: From 1945 to Google 2007, op: http://www.searchenginehistory.com/van bestaande zoekmachines. Zo was Alta Vista de eerste zoekmachine waar je geavanceerd mee kon zoeken. Met die geavanceerde zoekfunctie, kon je meerdere zoekcriteria opgeven en zo doelgerichtere resultaten krijgen. Ook was Alta Vista een zoekmachine die ongelimiteerde bandbreedte11 had. Daarnaast maakte Alta Vista het mogelijk om ‘natural language search’ uit te voeren. Dit wil zeggen dat je aan de hand van spreektaal een vraag of zin kan zoeken. De zoekmachine gebruikt dan geprogrammeerde logica om keywords uit de zin te halen en aan de hand daarvan de database te raadplegen om zo de gewenste zoekresultaten te vinden.
gevonden worden. Google wil dat mensen via hun zoekmachine hetgeen dat ze zoeken zo snel mogelijk vinden. Om dit mogelijk te maken moeten websites zo geoptimaliseerd zijn dat deze goed te vinden zijn. Dit is een flinke klus en hier zijn flink wat regels, voorwaarden en trucs mee gemoeid. Daarvoor gaan we eerst maar eens kijken hoe zo’n zoekmachine te werk gaat. We gaan in dit onderzoek uit van de Google standaarden.
Werking van de zoekmachine
Zoekmachines zijn in het leven geroepen om het voor internetgebruikers gemakkelijker te maken om te vinden wat men zoekt. Er zijn miljoenen sites op het internet te vinden. Als je de juiste website daaruit wilt hebben, is het zonder de juiste tools zoeken naar een speld in een hooiberg. Het zou niet eens mogelijk zijn zonder zoekmachine, of je moet alle URL’s weten van alle websites en ze één voor één afgaan. En dan voor jezelf uitmaken welke van de sites voor jou geschikt zijn. Niet doen! Dan doen zoekmachines vele malen sneller vóór jou. Daarbij zet een zoekmachine de resultaten netjes in een index, gesorteerd op relevantie. Het enigste wat een zoekmachine doet, is de hele dag het internet afspeuren naar websites. Dit wordt gedaan door programma’s die herhaaldelijk taken uitvoeren met zo’n gigantische snelheid, die niet door de mens uit te halen is.13 Deze programma’s heten Zoekmachinespiders. Ze worden ook wel Zoekmachinerobots genoemd. Als een site door een Zoekmachinespider gevonden wordt, dan wordt deze in een index geplaatst. Databases van zoekmachines zijn enorm, de Google index telt meer dan drie miljard webpagina’s.14 Het doorzoeken van het web is één kant van het verhaal, nu is het nog van belang dat er gezocht kan worden. Dus als iemand een zoekwoord invoert, dan moet er een resultaat uitkomen wat past bij dat zoekwoord. Het is heel moeilijk voor een zoekmachine als Google, om zoekresultaten te koppelen aan de zoektermen die u invoert. Als u naar auto’s aan het zoeken bent 13 bron: What is a Bot? op: www.searchenginehistory.com 14 Bron: ’De keiharde Google feiten’ op: http://www.googlefacts.nl (24 mei 2009)en Google geeft resultaten van websites met fietsen, dan is dat niet waar u op zit te wachten. Google heeft hiervoor een aantal algoritmes bedacht. Die werken als volgt. Google heeft een aantal factoren die bepalen of een website hoog in de lijst komt of niet. Het wordt door Google geheim gehouden welke factoren dat zijn. Volgens sommigen zijn dat er meer dan 200. Al deze factoren te samen vormen het algoritme dat de relevantie van een website bepaalt. De reden dat Google de informatie achter de algoritmes geheim houdt is om manipulatie van zoekresultaten tegen te houden. Ook worden de algoritmes constant geüpdate met nieuwe factoren. Aan de ene kant denk ik dat het wel goed is dat Google de factoren en SEO algoritmes geheim houden, omdat zo de concurrentie tussen bedrijven in de strijd tot het bereiken van de top rankings eerlijk blijft. Maar aan de andere kant is het lastig om zo een hoge positie te bereiken. Talloze bedrijven zeggen expert te zijn op het gebied van SEO, maar voordat je weet dat ze er echt iets af weten, ben je een hoop geld verder en aangezien het een tijd duurt voordat je resultaat ziet van SEO inspanningen, kun je er niet op tijd achter komen of ze daadwerkelijk expert zijn, of dat het oplichters zijn. Veel SEO experts gebruiken zogenaamde “Black hat” methodes. Dat zijn illegale methodes waardoor je snel in de rankings omhoog schiet, maar een grote kans loopt door Google gebanned te worden. En eenmaal gebanned, kom je niet snel terug in de rankings, behalve als je een groot erkend bedrijf bent en ook dat is een heel traject. Wanneer een website wordt gevonden door Google, bepaalt zij hoe belangrijk deze is ten opzichte van de inhoud. Dit bepaald ook de positie in de index. Het is goed voor een website als andere websites een link op hun site hebben staan die naar hem verwijzen. Het beste is, dat deze websites over hetzelfde onderwerp gaan. Het heeft ook invloed wanneer de websites die naar jouw website linken een hoge pagerank hebben, dus hoog in de Google index staan. Het linken van belangrijke externe websites vindt Google heel belangrijk, omdat dit niet beïnvloed kan worden door de beheerder van de website. We weten dat Zoekmachinespiders het hele web afstruinen. De spiders doorzoeken tekst en stukken code van de site, meta‐tags genaamd. Ook spelen de
datum wanneer de site voor het laatst is geüpdate mee en de hoeveelheid websites die naar jouw website linken. Als een zoekmachine (Google is de standaard in dit onderzoek) een pagina doorzoekt, maakt hij er een kopie van. Deze informatie is opgeslagen in zogenaamde ‘cache’ van hun eigen computers. Deze kopie bevat niet alles van de website. Alleen bepaalde stukken, zoals tekst, data en code van de website. Alle gegevens in de cache worden in een handige structuur opgeslagen. Op het moment dat iemand een zoekterm in de zoekmachine intypt, wordt deze informatie opgeroepen. Door de structuur waarin de informatie is opgeslagen, krijg je razendsnel de resultaten binnen.
Google vs. Andere zoekmachines
In een het artikel van Aaron Wall dat hij op 13 juni 2006 schreef, vertelt hij over de verschillen tussen de drie zoekgiganten op het internet, namelijk Yahoo!, MSN en Google. Ondanks dat dit een oud artikel is, is het niet achterhaald. In dit artikel komt duidelijk naar voren dat Google veruit de beste, grootste en volledigste zoekmachine is. Daarna komt Yahoo!. Dit komt onder andere doordat Yahoo! al lang bestaat en dus veel ervaring heeft. De hekkensluiter is MSN Search, dit vanwege dat het een vrij jonge zoeksite is. MSN Search weet ook niet zo goed om te gaan met het bepalen of een link ‘Natural’15 is of ‘Artificial’.16 Ditdoet Yahoo! beter dan MSN search, maar Google spant de kroon op het gebied van het bepalen van Natural of Artificial linking. Google blinkt uit op nog meer vlakken. Bijvoorbeeld in de interface van de site, die is veel eenvoudiger en overzichtelijker dan Yahoo! en MSN search. Yahoo! en MSN search staan beide volgepropt met nieuws, commercials en advertenties. Waar Yahoo! en MSN search zich focussen op nieuws en reclame, is Google puur en alleen gefocust op zoeken. Google richt zijn zoekmachine op informatieve zoekresultaten, terwijl Yahoo! en MSN search veel meer gericht zijn op nieuws en reclame gerichte resultaten. De bots van Google hechten veel meer waarde aan kwalitatieve links, dan aan de hoeveelheid links naar een website, 15 Natural linking: Doordat veel bezoekers vanuit andere hoogwaardige sites naar jouw website komen. Dus op de natuurlijke manier een hogere pagerank behalen 16 Artificial linking: Door het spammen van links hogerop komen in de page rank. Dit is een illegale manier.
vergeleken met van Yahoo! en MSN search. Google waardeert websites die langer bestaan beter. Google hecht waarde aan sites die “oud” zijn. Het is dus heel lastig om een nieuwe website hoog in de rankings te krijgen. Ook al heb je flink wat aan je website geoptimaliseerd, dan duurt het toch een tijd voordat je echt merkt dat je pagerank verhoogd wordt. Bij RedesignMe merkten we wel dat toen Google het indexeren van de site eenmaal op orde had, we van pagerank 1 meteen naar pagerank 5 gingen. Pagerank gaat op schaal 1 tot 10.
Hfdst 2: Search Engine Marketing
Ondanks dat het heel lang duurt, zorg dan toch dat je site zo goed mogelijk geoptimaliseerd is. Als je website dan opgepikt wordt door Google, dan zie je ook meteen een duidelijke verbetering van je pagerank. Dus wil je dat jouw site gevonden wordt? Dan zul je een website moeten optimaliseren. Een site bevat in veel gevallen tekst. Dit is goed, omdat de spiders van Google dol zijn op tekst. Search Engine Marketing is hetgeen wat relevant is als je wilt dat jouw site gevonden wordt in Zoekmachines. Search Engine Marketing (SEM) heeft alles te maken met het verschijnen van een website in zoekmachines, zodat deze geïndexeerd kan worden en in de zoekresultaten voorkomt. Dit niet geheel zonder reden. Dit moet uiteindelijk gaan leiden naar meer klanten, meer verkoop, een grotere gebruikersgroep van een website. Dit is per bedrijf verschillend. SEM is eigenlijk een totaalpakket van tools en middelen om een website zo goed mogelijk te laten scoren in een zoekmachine als Google. Een onderdeel van SEM is Search Engine Optimization. Dit is ook meteen een belangrijk deel. Hiermee zorg je ervoor dat je een website op bepaalde plekken van de infrastructuur aanpast, zodat een Zoekmachine Spider hierin kan crawlen en de benodigde informatie vindt, om deze te indexeren. Eerder is aan bod gekomen waar een zoekmachine op let. Hier volgt een lijstje met belangrijke aspecten voor een website, die een rol spelen bij het indexeren van de website. ‐ De titel van de pagina ‐ Meta‐Tags ‐ Datum van de laatste wijziging ‐ Domeinnaam ‐ Alt‐tags ‐ De inhoud van de pagina (Voornamelijk tekst)17 17 Bron: Zoekmachine Marketing, auteur: Mark JansenDit zijn aspecten die een onderdeel zijn van site optimalisatie voor SEO. Een zoekmachine heeft bepaalde input nodig van een website, waar hij zijn zoekcriteria op vaststelt. Hieraan zijn een hoop regels, trucs en tactieken verbonden, die bij verschillende bronnen steeds wat anders zijn. Bij iedere bron, die ik gevonden heb, die op de materie ingaat; daarbij komt het hierboven staande lijstje aan bod. Voor mij een reden om dit altijd uit te voeren bij het optimaliseren van je website en uit te zoeken hoe dat in z’n werk gaat. Een van de bronnen, die SEO heel duidelijk in beeld brengt, is het boek zoekmachine marketing van Mark Jansen. Een website wordt in een HTML code gebouwd. Dit is een frame van codes, waarmee je een webpagina kan opmaken, zodat hij goed zichtbaar is voor mensen die de pagina bezoeken. Een HTML element dat zeer gewaardeerd wordt door zoekmachinespiders is de titel. Wat er precies in de titel moet staan en hoe dit voor SEO eruit moet zien, daar zijn de meningen over verdeeld. Maar wat in ieder geval belangrijk is, is dat de titel aansluit bij de inhoud van de teksten op de website. Je moet dus niet alleen de domeinnaam in de titel zetten, of alleen de bedrijfsnaam, maar een duidelijke zin. Deze moet kort, bondig en leesbaar zijn. Als je met je website wilt laten zien wat je als bedrijf doet, zou ik daar de titel op aanpassen en bepaalde kernwoorden gebruiken, die bij de uitleg van jouw bedrijf passen. Een titel is een toevoeging aan het onderwerp van de webpagina. Het is niet slim om op iedere pagina van de website dezelfde titel te gebruiken. Het is belangrijk dat de titel aangepast wordt op het onderwerp van de pagina. Meta‐Tags zijn net als titels HTML elementen. Meta‐Tags bevatten informatie, die belangrijk zijn voor zoekmachines. Je hebt verschillende meta‐tags: Description, keywords, copyright, author, robots en publisher. In de code ziet een meta‐tag er als volgt uit: <meta name="description" content="Op deze pagina vind je een overzicht van alle producten of diensten waaraan jij kan bijdragen met je creatieve input. De ideeën met de meeste stemmen worden beloond." /> <meta name="keywords" content="Producten, diensten, cocreatie, challenges"/>
Voor veel zoekmachines wegen alle meta‐tags zwaar. Bij Google is dat anders. Voor Google telt alleen het keyword en de description tag mee. Van deze twee is de description tag de belangrijkste. Deze bevat een korte beschrijving van de inhoud van een webpagina. Het is niet duidelijk wat de juiste lengte is van de omschrijving. Hier zijn de meningen over verdeeld. Naar mijn idee is een bondige tekst beter dan een te uitgebreide tekst, zolang de kern maar goed naar voren komt. Een andere reden waarom de description tag erg belangrijk is, is omdat aan de hand van de info van deze tag, bepaald wordt of de website relevant is voor bepaalde zoekopdrachten. Het is belangrijk dat je zoekwoorden die gebruikt zouden kunnen worden voor het vinden van jouw website, ook gebruikt wordenin de description tag. De inhoud van deze tag is niet zichtbaar in de pagina inhoud. Wel is het belangrijk dat je woorden die in de description tag staan, terug laat komen in de inhoud van de pagina. Dit is, evenals het gebruiken van zoekwoorden in de description tag, bevorderlijk voor zoekmachines om een site te indexeren. Google laat de tekst in de description tag zien onder de link van de website in de index van zoekresultaten. Inhoud van een website is natuurlijk de kern, dus ook belangrijk voor zoekmachines. Zoekmachinespiders smullen van tekst, veel tekst. Websites waar veel tekst in staat, scoren goed in Google. Als je een website hebt waar bijna alleen afbeeldingen, Javascript, Flash, muziek of video op staan en geen tekst, dan zal Google daar niets mee kunnen. Nu kun je zeggen dat dit bij video niet waar is. Het is namelijk het geval dat filmpjes van Youtube regelmatig bovenaan de zoekresultaten staan van bepaalde zoekopdrachten. Dit komt omdat Youtube een onderdeel is van Google en dit door Google zelf geïndexeerd wordt. Google weet als geen ander hoe content geïndexeerd moet worden. Dus daarom is Youtube een uitzondering. De net genoemde elementen beïnvloeden de kans dat je in zoekresultaten voorkomt zeer negatief. Hoewel Flash elementen en javascript ook tekstuele inhoud hebben, worden deze niet geïndexeerd, vanwege het feit, dat ze niet direct in de HTML opmaak van een website staan. Een Flash object is een los bestand dat in de site embedded (bijgevoegd) is. Het schijnt dat Google wel Flash kan indexeren, maar toch werkt het niet naar behoren. De site www.checkit.nl heeft een onderzoek gedaan naar Nederlandse Flash websites en
of Google de tekst van deze sites indexeert. Hieruit bleek dat de websites wel gevonden worden, omdat het vaak spin‐offs zijn van Grote websites, bijvoorbeeld een promotie site van het merk Heineken. Die website heeft een pagerank van 6. Omdat er een link is gemaakt tussen de promotie site en de Heineken site, wordt de promotie site wel gevonden, maar wordt de Flash tekst niet bij het zoekresultaat weergegeven. Door andere manieren van zoeken, kwam checkit.nl wel tot de conclusie dat het geïndexeerd wordt, alleen moet de tekst selecteerbaar zijn in het Flash bestand. De reden waarom de webpagina’s die zij in het onderzoek bekeken hebben nog niet goed in Google weergegeven werden, is dat Google deze pagina’s nog niet geïndexeerd heeft Vanwege de grote hoeveelheid websites die er op het internet te vinden zijn. 18 Als een website teksten bevat die in de HTML code geplaatst zijn en die code met ongeveer 2% voorzien is van zoektermen waarop de site gevonden wilt worden, dan is er geen probleem met het indexeren van de website. Belangrijk is dat de content op een website regelmatig up to date gehouden wordt. Dit is een aspect waar Google ook naar kijkt. Als een site ooit online is gezet en er wordt verder niets mee gedaan, dan is dit al heel snel verouderde informatie en iemand is natuurlijk op zoek naar oude informatie. Een belangrijk aspect van tekst zelf is de opmaak van de tekst door middel van gebruik van HTML tags in de tekst. Bijvoorbeeld titels in de inhoud moeten meer aandacht krijgen, omdat ze een aankondiging van een nieuw onderwerp zijn. Je kunt deze dus benadrukken met h‐tags. Een h‐tag benadrukt een titel door deze dikgedrukt en groter te maken. <h1> is de grootste variant en <h5> is de kleinste variant. Google kijkt dus naar dit soort tags. Als een titel tussen h‐tags zoekwoorden bevat, ziet Google dit als belangrijke woorden. Andere tags die dit effect hebben zijn: <b> Bold Vetgedrukte tekst <i> Italic Cursieve tekst <strong> Benadrukte tekst
Het is niet gewenst, om de HTML tags in de site inhoud te misbruiken. Google bestraft websites die overmatig gebruik maken van <h1> en soortgelijke tags. Dit
heeft als gevolg, dat je lager in de page rank komt. Al deze elementen optimaliseren je website, zodat hij als het ware leesbaar wordt voor Google. Zo wordt je site zoekmachine vriendelijk.
Maak je website zoekmachine vriendelijk, maar vergeet de gebruiker
niet
Wil je gevonden worden op het internet, moet je een site optimaliseren voor zoekmachines. Een website moet dus Zoekmachine vriendelijk zijn. Wat hierin belangrijk is, is dat je niet moet vergeten dat je niet een website aan het maken bent voor een zoekmachine, maar voor de bezoekers van je website. Veel mensen stellen zich de vraag: Waar wil ik op gevonden worden. Dat kan, maar je moet ook zeker denken aan: Waar zou de gebruiker op zoeken als hij mij zou willen vinden. Optimalisatie is belangrijk, gevonden worden is belangrijk, maar wat ook zeker belangrijk is, is dat je de juiste bezoekers naar je website krijgt. Als je auto’s verkoopt, wil je geen wielrenners naar je website die een nieuwe fiets willen kopen. Houdt dus altijd de focus op de gebruikers. Houdt daar met ontwerpen ook rekening mee, als een site volgestopt wordt met zware content, zoals Flash intro’s, muziek en andere zware content, wordt een site heel traag, en zullen bezoekers afhaken, ook heeft dit soort content negatieve uitwerking op de vindbaarheid in Google. Het betekent niet dat je absoluut geen andere content dan tekst kan gebruiken, maar zorg wel dat het in balans is. Twee andere factoren die van belang zijn met Zoekmachine optimalisatie, zijn de URL en de sitemap. Het is belangrijk bij de URL, dat je geen betekenisloze termen in de link laat voorkomen. Dus niet: www.redesignme.com/product/product1/398.item1.html, maar www.redesignme.com/challenge/pickwick/tea‐twister.html. In de laatste URL zitten woorden in, die voorkomen in de inhoud van de pagina en hebben betekenis. Google zal hier een link tussen leggen en hierdoor zal de site hoger in de pagerank komen. Een sitemap is een overzicht, vaak onderin op de pagina, waar je in een oogopslag alle onderdelen van de website ziet. Hierdoor kunnen gebruikers gemakkelijk de weg vinden en daarbij kan Google heel handig de gehele site indexeren. Het is natuurlijk goed als je website op pagina één staat in de Google index, maar dit moet niet in de weg staan van degebruiksvriendelijkheid van de website. Als interactie ontwerper, ben ik altijd bezig om een site zo gebruiksvriendelijk mogelijk te maken. Als ik een website optimaliseer voor zoekmachines, ga ik er geen extra tekst bijstoppen omdat dit goed is voor de vindbaarheid. Want je wilt dat gebruikers zich lekker voelen op jouw website, en niet weggaan omdat ze een te lange tekst moeten door spitten. Het is dus belangrijk om een goede balans te vinden in het optimaliseren van een website, zonder dat het de gebruiksvriendelijkheid van de site benadeelt.
Search Engine Advertising
Het effect van het optimaliseren van uw website zal niet meteen zichtbaar zijn. Google heeft talloze sites te indexeren. Het is dus even geduld hebben. Er is nog een andere manier om een zichtbare positie te bemachtigen. Dat is de andere kant van SEM, namelijk Search Engine Advertising (SEA). Toen Google de grootste zoekmachine op het internet begon te worden, verdiende het nauwelijks geld. Dat is nu wel anders. Google heeft een eigen advertentie dienst opgezet, Google Adwords. Hiermee kun je betaald een toppositie krijgen in de Google zoekmachine. Je kunt zelf een bedrag bepalen dat je per bezoeker wilt betalen. Het verschil tussen zoekmachine optimalisatie en zoekmachine advertising is dat er met optimalisatie geen kosten gemoeid zijn. Een nadeel is wel, dat het lang duurt voordat je resultaat hebt. Bij zoekmachine advertising kun je zodra een site online staat een campagne starten, alleen kost het veel geld. Je hebt wel meteen resultaat. De campagne stopt meteen als de betaling wordt stopgezet. Bij optimalisatie blijf je in de index staan. Terwijl je bij zoekmachine marketing uit de index wordt gehaald, zodra het geld op is. Er is nog een relevant verschil, met Google Adwords kom je in een apart gedeelte met zoekresultaten te staan, de zogenaamde gesponsorde links. Dat staat los van de organische zoekresultaten, waar je inkomt als je jouw site hebt geoptimaliseerd.19 19 Bron: Zoekmachine marketing, auteur: Mark JansenEen website is in veel gevallen een middel voor bedrijven om nieuwe klanten te winnen. Deze mensen moeten via bepaalde elementen op de site aangespoord worden tot een aanmelding van een nieuwsbrief, opvragen van informatie of in het geval van webwinkels het kopen van een product. Deze acties noemt men conversies. Conversie betekend omzetting. Op het gebied van e‐commerce is het dus een site bezoek omzetten naar een conversiedoel. Een conversiedoel kan zijn, een boek kopen op Bol.com of een brochure van een bedrijf opvragen. Bij een community based website is dat geen commercieel georiënteerd doel. Dan praat je over een aanmelding bij een community en dat je daar vervolgens actief deel in neemt. SEO en SEM worden ingezet om ervoor te zorgen dat er meer mensen naar een site toe komen. Binnen SEM zijn een aantal methodes die vaak gebruikt worden en betrekking hebben op het online adverteren. De oudste betaalmethode is een tarief op basis van het aantal keren dat een advertentie is vertoond. De methode heet CPM, wat een afkorting is voor ‘cost per mille’. Dat is het bedrag wat betaald wordt per 1000 vertoningen van de advertentie. Bij CPM is het zo, dat de prijs afhankelijk is van de populariteit van de website. Op sommige impopulaire sites betaalt u 0.05 dollarcent per 1000 vertoningen. In het boek Zoekmachinemarketing van Mark Jansen, wordt een voorbeeld gegeven aan de hand van de website van de Telegraaf. Deze site heeft dagelijks enkele honderdduizenden bezoekers. Met CPM is het zo dat niet alleen alle bezoekers worden geteld, maar alle webpagina’s binnen een website die de bezoekers aanklikken. Als een website per dag 100.000 keer wordt aangeklikt, en het tarief van CPM is 10 euro, betaalt u 1000 euro. Je advertentie wordt gemiddeld door 1% van die bezoekers aangeklikt. Van die 1% die uw advertentie aanklikt, komt slechts 1% tot een conversie. Als je dan als bedrijf tubes tandpasta verkoopt van 2 euro per stuk, krijgt u 20 euro extra omzet door een advertentie campagne die 1000 euro heeft gekost. Ik ben van mening dat deze manier van adverteren veel te veel geld kost, in verhouding voor wat je ervoor terug krijgt. In het hierboven genoemde voorbeeld staat dat je 20 euro extra omzet maakt, terwijl je 1000 euro investeert.
Dat is dus één vijftigste van je bedrag dat je terugverdient. Dan lijkt mij dat je verder moet kijken naar betere methodes. Er is een methode, PPC of CPC genaamd, die veel gunstiger is. PPC staat voor pay per click, ook wel CPC, cost per click genoemd. Bij deze methode betaal je alleen als er op jouw advertentie geklikt wordt. Beide methodes betreffen tekst advertenties. Hier heb je voordelen bij, omdat je product al gepromoot wordt zonder dat je advertentie wordt aangeklikt en je gaat pas betalen als er daadwerkelijk op wordt geklikt. Zo heb je ook nog CPL, cost per lead. Dan betaal je alleen een vergoeding als er daadwerkelijk een conversie heeft plaatsgevonden. Cost per click vind ik een betere oplossing dan Cost per mille, omdat het hier pas geld kost als je er ook daadwerkelijk iets gebeurt. Een klik op je banner is nog geen conversie, maar in ieder geval weet je wel dat er interesse is. Je zou er dan aan kunnen denken om de landingspage20 waar je op uit komt aan te passen qua boodschap. Dit kan zijn een offerte aanvragen of aanvraagformulier invullen. CPL methodes worden vaak gebruikt door affiliate programma’s. Affiliate marketing is het promoten van producten of diensten op andere websites. Dit gebeurt op basis van commissie.21 Een voorbeeld: Als een bedrijf pc’s via internet verkoopt, maar het gaat niet zo goed als het bedrijf gehoopt had, dan kun je er voor kiezen om in plaats van te adverteren het product te promoten via andere websites. Het bedrijf komt dan met website link op relevante websites te staan. Dit gaat in samenwerking met een bedrijf die hierin gespecialiseerd is. Er wordt vooraf een budget afgesproken. Het bedrijf betaald dan per lead, bezoeker of sale die gegenereerd wordt in deze campagne. Dit is een effectieve manier van adverteren, omdat het op basis van het ‘no cure no pay’ principe werkt. Alleen als er leads, bezoekers of sales worden gegenereerd dan kost het geld. Stel dat 20 Landingspage: Dit is een pagina waar je op uitkomt na op een tekstadvertentie of banner te klikken. Deze pagina bevat een boodschap als vervolg op de tekst in uit de advertentie waar je op het geklikt. 21 bron: Affiliate marketing op: http://nl.wikipedia.org/wiki/affiliate_marketing (02 juni 2009)
het vooraf afgesproken budget 1000 euro is en een lead kost 2,50 euro, dan wordt de campagne na 400 leads de campagne stop gezet. 22 Deze methodes, vooral Search Engine marketing, worden door commerciële websites gebruikt. Omdat Search Engine Optimization zelf gedaan kan worden, als je verstand hebt van HTML, wordt dit ook vaak op niet commerciële sites toegepast. Google Adwords is een van de meest voorkomende marketing Tools voor Zoekmachines. Adwords maakt gebruik van de Cost Per Click methode.
22 bron: Zoekmachinemarketing, auteur: Mark Jansen
Hfdst 3: Editorial content versus User generated content
Tijdens mijn stage bij RedesignMe is mij gevraagd om te onderzoeken wat er gedaan kon worden aan de website om hem hoger in de Google index te krijgen. En dan ook te onderzoeken of Google comments indexeert. Bij community based website is het geval dat de gebruiker ook inhoud op de website zet. Dat gaat via een andere weg, dan dat hij door een webmaster geplaatst wordt. Het is dus zo dat Google comments en andere user generated content niet goed of helemaal niet indexeert. De reden waarom dit niet geïndexeerd wordt is mij niet duidelijk en zal ik met dit onderzoek onder de loep nemen. Het probleem is gebleken bij mijn onderzoek bij RedesignMe. Er moet eerst gekeken worden naar wat het verschil is tussen zogenaamde user generated content en editorial (redactioneel) content. Het internet staat vol met websites met allerlei verschillende soorten content. Op de website www.ddux.org vertelt Bas Evers in en artikel dat de definitie van content tekst is (d.i. paragrafen, zinnen en woorden). Op het internet kun je onder content alles bevatten wat je daar vindt, afbeeldingen, filmpjes, flash elementen, tekst en muziek. Zelfs de navigatie en knoppen op de website vallen onder content. Nu is er goed een onderscheid te maken tussen twee overkoepelende soorten content, namelijk: redactionele content en user generated content (verder aangeduid als UGC). Redactionele content is door een team van experts uitgedacht. Deze content is zorgvuldig geschreven en heeft een duidelijk doel, bijvoorbeeld als nieuwsbericht, recensie of informatie verschaffen over een bedrijf. Deze tekst wordt ook door een webmaster op een site gezet en staat hard in de site. User generated content wordt niet van te voren door een webmaster op de website gezet, maar pas als de website actief is en toegankelijk voor gebruikers. Deze wordt geupload door de gebruiker van de site en via een upload formulier geplaatst en in een database opgeslagen. Vervolgens wordt het in de HTML‐code gezet. Mij lijkt het dat Google hier meer moeite mee heeft om het te indexeren, omdat het een langere weg is voordat het online staat..User Generated Content is content die door een gebruiker van de website op de site wordt gezet. Dit kan tekst zijn, maar ook video of afbeeldingen. Een belangrijk verschil tussen redactionele content en UGC, is dat UGC op een andere manier in de site wordt gezet als redactionele content. Redactionele content is door een webmaster direct in de HTML code gezet, terwijl UGC via een upload formulier van de site online wordt gezet. In beide gevallen komt de content in de HTML structuur van de website te staan en zal Google er geen onderscheid in maken. Er zijn genoeg websites die via een Content Management System (CMS) hun editorial content plaatsen. Er zullen andere redenen gemoeid zijn met het indexeren van User Generated Content. Het is niet dat Google de tekst niet kan indexeren, het is dat de content die door gebruikers wordt geupload, wel te maken heeft met het onderwerp, maar niet is afgestemd op de zoekmachine optimalisatie van de site. In Hoofdstuk 2 is uitgelegd wat er moet gebeuren om een website te optimaliseren voor zoekmachines. Hierin werd uitgelegd dat meta‐tags en tekst een grote rol spelen. En dan met name dat de meta‐tags met de tekst overeen komen. Bij User Generated Content websites is het het geval dat een groot deel van de tekst die geplaatst wordt, niet overeen komt met de optimalisatie die is toegepast. Als bijvoorbeeld een fietsenmaker een blog heeft ingericht waarop zijn klanten hun mening over de service kwijt kunnen en hij heeft als meta‐tag keywords: fietsreparaties, onderdelen, trappers, zadels, frame. Dan moeten deze woorden terugkomen in de tekst die een user schrijft. Als een persoon dan het volgende commentaar schrijft: “Ik heb m’n fiets gister opgehaald en hij fietst weer fantastisch. Gister lekker in de Veluwe rondgereden.” Deze tekst komt helemaal niet met elkaar overeen. Google ziet geen link tussen tags en de tekst, waardoor Google dit niet als relevant beschouwd. In dit voorbeeld kan het zijn dat de website van de fietsenmaker is ingericht om zijn diensten te promoten en dat de fietsenmaker later heeft besloten om zijn website ook als panel te laten dienen, waarop klanten hun mening kunnen geven. Hierdoor is de SEO niet voor het Blog geschikt. In het volgende hoofdstuk, komt aan bod wat erbij komt kijken als je een website wilt optimaliseren voor zoekmachines.
Hfdst 4: SEO voor community based websites
Zijn SEO methodes voor commerciële sites ook toepasbaar op community based websites? Community based websites hebben hele andere doeleinden dan commerciële websites. Commerciële websites zijn voornamelijk in het leven geroepen om conversiedoelen te halen die alles te maken hebben met verkoop, nieuwe klanten binden en bekendheid voor het bedrijf te verkrijgen. Community websites zijn plekken waar grote groepen mensen online actief deelnemen aan activiteiten, dat kan zijn: je vrienden in de gaten houden, teksten schrijven voor logs of fora, filmpjes plaatsen en daarover discussiëren. Community based websites hebben als conversiedoel om hun community te vergroten met leden die actief deelnemen in de community. Als de conversiedoelen anders zijn, zijn dezelfde usability methoden dan nog wel toepasbaar? Een Google Adwords campagne is altijd toepasbaar op een community based website. Een Adwords campagne kun je helemaal specificeren op de community. Je kunt een bedrijf dat gespecialiseerd is in Adwords campagnes, zoekwoorden laten samenstellen waarop jouw site gevonden moet worden. Dit kun je natuurlijk altijd zelf doen. Optimalisatie voor zoekmachines (SEO) is ook toepasbaar op community based websites. Iedere website, hoe groot of hoe klein, heeft een HTML structuur, waarin meta‐tags te definiëren zijn met een discription en keywords. De meta tags moeten door de gehele website adequaat doorgevoerd zijn. Dit aan de hand van het voorbeeld dat ik in hoofdstuk 2 geef. “In de code ziet een metatag er als volgt uit: <meta name="description" content="Op deze pagina vind je een overzicht van alle producten of diensten waaraan jij kan bijdragen met je creatieve input. De ideeën met de meeste stemmen worden beloond." /> <meta name="keywords" content="Producten, diensten, cocreatie, challenges"/>” Ook de pagina titel is een cruciaal SEO element wat absoluut belangrijk is voor wat voor site dan ook.Het weblog SEOmoz heeft een lijst opgesteld met belangrijke SEO elementen met daarbij een gradatie van welke het zwaarst wegen. Dit zijn de vier meest cruciale: 1. Keyword Use in Title Tag – Keywords moeten terugkomen in de titel 2. Anchor Text of Inbound Link – Naamgebruik in de paginalinks
3. Global Link Popularity of Site – Globale link populariteit van de website (Linken van andere websites naar jouw website)
4. Age of Site – Oudere site worden als betrouwbaarder gezien.
Bovenstaande lijst geldt voor SEO in het algemeen en is toepasbaar op zowel commerciële websites als op community based websites. Het is dus belangrijk om een community based website net zo te optimaliseren als je bij een commerciële website doet. Ook al is je website in het geheel user generated, zorg dat er altijd een stuk redactionele tekst in staat, waar keywords in voorkomen, zodat Google daar in ieder geval houvast aan heeft.
Community optimaliseren
Bij een community based website moet je wel met bepaalde dingen rekening houden, omdat die net wat anders gaan dan bij commerciële website. In het blog SERoundtable is een artikel gewijd aan SEO optimalisatie van fora en Community websites. Hierin stonden een aantal interessante punten. Zij zeggen terecht, dat bij een community based website, de users enorm belangrijk zijn. Daarom is het relevant om de gebruikersnamen met h1 tags te highlighten. Dit ook zo met de titels op de profielpagina. Hierdoor worden deze beter door Google opgepikt. Als er een mogelijkheid is om widgets23 in te zetten, is dit zeer aan te bevelen. Dit heeft alles te maken met het linken naar externe websites. Als je een widget beschikbaar stelt en deze wordt door de leden van de community op andere websites geplaatst, dan heb je grote kans dan je veel verkeer krijgt vanuit andere websites. Dit is een aspect dat Google als zeer positief ziet en daarom jouw site 23 Een widget is een interactieve banner, die je in andere sites kan plaatsten, hierdoor krijg je meer exposure en meer hits naar een site.als relevant zal zien. Om dit aantrekkelijk te maken voor de community, moet je er dan wel voor zorgen dat de widget er leuk uit ziet. Nog een belangrijk aspect van SEO voor community based websites is dat je ervoor moet zorgen dat alle titels van onderwerpen goed gemodereerd zijn, zodat deze goed matchen. De community zorgt voor de tekst en inhoud van een groot deel van de pagina’s. Maar het zou goed zijn als je zelf controle houdt op wat er gepost wordt en dat je zelf ook reageert op de posts van mensen. Hiermee kun je namelijk sturen, dat de community blijft praten over het onderwerp. Als de tekst gerelateerd blijft aan het onderwerp, blijft Google deze inhoud ten goede indexeren. Als mensen van het onderwerp afwijken en over iets anders gaan praten, dan krijg je vervuilde inhoud en zal Google geen link leggen met het onderwerp en de optimalisatie, waardoor Google de informatie niet goed indexeert.
Hfdst 5: Conclusie – SEO wel of niet toepasbaar op community
websites
SEO is zeer zeker toepasbaar op community based websites. De SEO methodes van commerciële websites zijn ook toe te passen op community based websites. De kwaliteit van editorial content is heel hoog omdat het vooraf is uitgedacht en een duidelijke boodschap heeft, waar keywords en zoekwoorden aan kunnen worden gekoppeld. Bij UGC is dat een ander verhaal. Gebruikers van community websites plaatsten vaak wat ze denken. Wat dus totaal niet aansluit op het onderwerp van de pagina, waar dus alle SEO factoren zoals meta‐tags, enz op aangepast zijn. Google ziet geen relevantie met de user generated tekst en het editorial gedeelte in de code, waardoor het zeer slecht of niet geïndexeerd wordt. Zodra dit wel het geval is, wordt het door Google opgepikt en zal dit jouw plek in de rankings verhogen. Houd er wel rekening mee dat Google tijd nodig heeft om een website te indexeren. Het kan dus even duren, maar wordt de website opgepikt, zul je het resultaat merken. Er zijn methodes waar je specifiek SEO aanpassingen maakt voor community based websites. Maar om te zorgen dat een community based website net zo hoog scoort moeten gebruikers bijna redactioneel gaan schrijven. Wikipedia is een heel goed voorbeeld van een redactionele Community based website. Hier werkt een community van mensen aan het aanvullen en bewerken van artikelen van een online encyclopedie. Het voordeel van deze website, is dat ieder onderwerp dat door een gebruiker wordt gestart, van begin tot einde puur en alleen over het onderwerp gaat. De inhoud van een artikel komt dus ook heel goed overeen met de titel en de optimalisatie van de pagina. Waardoor Google heel veel overeenkomsten zien met het onderwerp, de inhoud en de meta onderdelen van de site. Hierdoor scoort Wikipedia heel hoog in de zoekresultaten van Google. Op de website van search engine land ben ik artikel tegengekomen die hebben het over tagclouds. Dat zijn veel gebruikte zoekwoorden die in een wolkje op de website staan. Deze woorden hebben ook verschillende groottes. Des te groter het woord des te meer er op gezocht is. Ditschijnt. Het is een soort van catalogus met alle populaire zoekwoorden. Als je op een tag klikt, zie je een overzicht met alle recente items. Dit werkt zeer positief voor SEO. Het stimuleert het linken binnen de website. Je navigeert zo op een strategische manier door de content van je website heen. Je link doormiddel van een tagcloud ook altijd nar relevante items, wat Google positief indexeert. Daarnaast zijn de tags tekstuele links, waardoor de bots van Google deze goed kan indexeren. Nu zegt de interactie ontwerper in mij, dat dit niet een hele functionele manier is. Een tagcloud ziet er onverzorgd uit, omdat alle woorden door elkaar staan. Als je je best hebt gedaan om een mooie overzichtelijke website te maken en je plaatst er vervolgens een tagcloud in, kan deze cloud een storende factor in de site zijn. Je moet dus goed afwegen of je dit qua SEO nodig hebt. Als je site goed vindbaar is door de andere aanbevelingen en methodes, zou ik heb achterwege laten om de site helder en rustig te houden. Verder is het heel belangrijk dat iedere aparte pagina, keywords heeft die zijn aangepast. Er moet altijd een overeenkomst zijn tussen de optimalisatie elementen in de HTML structuur, de meta‐tags en de tekst. Een ander belangrijk aspect is dat de gebruikers van de website blijven schrijven met betrekking tot het onderwerp van de pagina en niet afdwalen, waardoor je vervuilde inhoud krijgt. Je moet dus als webmaster de community een bepaalde richting insturen, waar zij over gaan praten (Semi redactioneel). Een aanvullende methode is om de serieuzere gebruikers in de community aan te stellen tot editors. Zij kunnen meehelpen de topics of onderwerpen van een community based website aan te sturen, waardoor andere gebruikers daarop kunnen reageren en meer teksten schrijven die gerelateerd zijn aan de keywords die gedefineerd zijn aan de hand van het onderwerp van het blog. Zoals bij RedesignMe heeft iedere bedrijfscase een eigen pagina met tekst waarin de opdracht omschreven staat, aan de hand daarvan kunnen gebruikers aan de slag met het posten van hun ideeën, user generated content. In de editorial tekst van RedesignMe, zijn keywords gekozen die in de meta‐tags terugkomen. Deze zullen terugkomen in de titels en beschrijvingen van de redesigns, maar ook in de comments die mensen schrijven over de redesigns. Gebeurt dit niet, kun je mensen uit de community vragen om een aanzet te geven, door een aantal
comments te plaatsten. Deze teksten zijn dan user generated, maar wel gericht op de keywords die relevant zijn aan het onderwerp. Zorg wel dat het objectief blijft. Het mag niet doorschemeren bij gebruikers dat ze erg gecontroleerd worden, of dat ze gestuurd worden. Als dit openbaar wordt, zal dit de sfeer in de community aantasten en zullen gebruikers negatieve comments posten, waardoor je content krijgt die totaal niet met het onderwerp te maken hebben. Ook beïnvloedt het andere gebruikers in de community, waardoor zij zich met de discussie bemoeien. Het is en blijft een community, waar eigenlijk niets geregisseerd is als het om de gebruikers gaat. Dit heeft ook weer alles te maken met de gebruiksvriendelijkheid van de website. Het is algemeen bekend dat het een tijd duurt voordat je resultaat ziet van optimalisatie. Dit kan een aantal weken duren, soms maanden. Daarom is het in het geval van RedesignMe nuttig om toch op een andere manier bekendheid te geven aan challenges. Omdat challenges maar een aantal weken actief zijn. Een betere manier om snel nieuwe bezoekers aan te trekken is door persberichten te sturen en widgets in te zetten, waarmee de bestaande community op andere sites en communities aandacht trekken. Zo heb je kans dat er via andere sociale netwerken mensen naar de site toe komen. Toch raad ik aan de webpages te optimaliseren, mocht het in sommige gevallen toch niet al te lang duren voordat Google langskomt. En des te meer pagina’s er te vinden zijn (ondanks de challenges niet meer actief zijn, blijven ze wel bestaan op de website), des te betrouwbaarder de site wordt voor Google, wat ook weer positief zal uitwerken op de vindbaarheid en de rankings. Als interactie ontwerper kun je er niet omheen, dat een website geoptimaliseerd moet zijn voor zoekmachines. Je kunt een site heel gebruiksvriendelijk maken, maar hij moet eerst gevonden worden, voordat er gebruik van kan worden gemaakt. Maar SEO moet niet in de weg staan van een gebruiksvriendelijke site. Dit noem ik nog een keer, omdat het ontzettend belangrijk is dat de website een soort thuisbasis wordt van de gebruiker. Commerciële websites bezoek je een keer, vervolgens haal je er informatie af en kom je hooguit één of twee keer terug. Een community based website is een site waar men dagelijks op bezoek komt. Dit moet dan ook qua workflow, interactie en ook tekstgebruik op de gebruiker afgestemd zijn.
In mijn onderzoek heb ik ondervonden dat er ontzettend veel artikelen zijn geschreven over Search Engine Optimization en Search Engine Marketing. En allemaal zijn ze verschillend. Een 100 tal factoren spelen een rol. Alleen wordt over het geheel niet duidelijk wat nu echt waar is. Er is een klein groepje mensen, die echt weten wat er nu precies moet gebeuren met zoekmachine optimalisatie. Tientallen bedrijven zijn al meer dan 10 jaar bezig te zijn met zoekmachine optimalisatie. Zij blijven zeer geheimzinnig over SEO. Ze vertellen vaak wat van de grondbeginselen, maar lang niet genoeg om uit te vinden hoe het nu precies zit. Als je een specialist benaderd over SEO, zal hij jouw site willen optimaliseren en niet vertellen wat de geheimen van de smid zijn. Uit een aantal handleidingen over Zoekmachine optimalisatie, van bijvoorbeeld SEOguru en zoekmachine marketing van Mark Jansen, krijg je een goed beeld van wat je moet doen om je website in de Google rankings te krijgen. Maar uiteindelijk is er maar één partij die het echt weet en dat is Google zelf. Alleen geven zij geen concrete informatie uit handen, omdat er zoveel concurrentie is tussen bedrijven om maar zo hoog mogelijk in de lijst te komen. Dus ze willen dat het zo eerlijk mogelijk verloopt, door maar een fractie uit handen te geven. Misschien zit er meer achter de geheimhouding van de excacte regels en doet Google dit om een machtspositie te houden. Als je naar een SEO specialist toegaat is het belangrijk om te controleren (voor zover mogelijk), of dit bedrijf betrouwbaar is. Het kan zijn dat bedrijven de zogenaamde ‘black hat’ methode toepassen. Dat is het illegaal optimaliseren door bepaalde trucs te gebruiken, waardoor je in één keer omhoog schiet in de rankings. En na een bepaalde periode van tijd zal Google hier achter komen en wordt je site nooit meer gevonden, omdat je uit de rankings wordt verwijderd. SEO kost veel inspanning en geld, maar je kunt met zelf optimaliseren, zowel een commerciële als community website goed vindbaar maken. Je moet wel even geduld opbrengen voordat het resultaat er is.