• No results found

Search Engine Optimization voor Community based websites

N/A
N/A
Protected

Academic year: 2021

Share "Search Engine Optimization voor Community based websites"

Copied!
36
0
0

Bezig met laden.... (Bekijk nu de volledige tekst)

Hele tekst

(1)

Search Engine Optimization voor 

Community based websites  

                 

Wel of niet geschikt? 

 

(2)

Voorwoord 

  SEO is een breed alomvattend onderwerp, waar ontzettend veel over geschreven  is. Door een stage bij RedesignMe heb ik kennis gemaakt met Web 2.0 en  community based websites en is mijn interesse gegroeid voor dit onderwerp. Het  gebrek aan informatie over SEO omtrent community based websites, is de  fundering van deze scriptie. Bij het schrijven van deze scriptie ben ik tot nieuwe  inzichten gekomen op het gebied van SEO. Met deze scriptie hoop ik community  based websites te helpen met het optimaliseren van hun community.  Allereerst wil ik Caroline Maessen bedanken voor haar begeleiding gedurende  dit proces. Tevens wil ik RedesignMe bedanken, dat ik de site RedesignMe.com  als voorbeeld van community site voor mijn onderzoek mocht gebruiken. Zo heb  ik een goed inzicht gekregen in het principe van community based websites.                           

(3)

Samenvatting 

  Search Engine Marketing en Search Engine Optimization zijn begrippen die een  belangrijke rol zijn gaan spelen op het internet en hebben alles te maken met het  vindbaar maken van een website bij verschillende zoekdiensten. In deze scriptie  ga ik beschrijven wat SEM en SEO inhouden en leg ik in het kort uit wat Search  Engine Advertising is.  SEM is een totaalpakket van methodes om je website  vindbaar te maken voor zoekmachines. SEM is onder te verdelen in SEO, de  optimalisatie van een website en SEA, het adverteren in zoekmachines. De  hoofdvraag in dit verhaal is: Wat moet je als interactie ontwerper doen om een  community based website te optimaliseren op het gebied van Search Engine  Marketing, zodat deze net als commerciële websites goed gevonden kunnen  worden in Google.? In antwoord op deze vraag heb ik onderzoek gedaan naar  hoe de zoekmachine zoals we hem nu kennen is ontstaan en leg ik uit hoe een  zoekmachine precies werkt. Zoekmachines kijken vooral naar tekst in de website  en bepaalde stukken HTML code, die META tags heten. Daarnaast krijg je inzicht  in de verschillen tussen editorial content en user generated content. User  generated content wordt door gebruikers van een website geplaatst, terwijl  editorial content van te voren uitgedacht en geplaatst is door een webmaster.  Vervolgens leg ik uit wat je kunt doen aan SEO en SEM bij commerciële websites.   Je krijgt uitleg wat er moet gebeuren als je een website optimaliseert voor  zoekmachines, met de nadruk op Google. Vervolgens wordt er specifiek  toegelicht welke methodes er bij een community based website te gebruiken zijn  en wat daarnaast nog moet gebeuren om een community net zo goed vindbaar te  maken als een commerciële website. Het optimaliseren van meta tags, pagina  titels en zorgen voor veel external linking, zorgt voor betere vindbaarheid in  Google, zowel voor commerciële sites als voor community based websites.       

(4)

Inhoud 

  Voorwoord ...2  Samenvatting...3  Inhoud...4  Inleiding...5  Hoofdstuk 1: Zoekmachines...9  De oorsprong van de zoekmachine ...9  Zoekmachines op het internet... 10  Google... 11  Werking van de zoekmachine... 12  Google vs. Andere zoekmachines... 14  Hfdst 2: Search Engine Marketing ... 16  Maak je website zoekmachine vriendelijk, maar vergeet de gebruiker niet... 20  Search Engine Advertising ... 21  Hfdst 3: Editorial content versus User generated content ... 25  Hfdst 4: SEO voor community based websites ... 27  Community optimaliseren... 28  Hfdst 5: Conclusie – SEO wel of niet toepasbaar op community websites.... 30  Literatuur:... 34  Webbronnen: ... 34                   

(5)

Inleiding 

  “Heb je die film al gezien?” “Nee, wel van gehoord. Hij schijnt echt goed te zijn.”    “Wacht, ik zal eens even zoeken naar een recensie.”   Door dit soort scenario’s krijgt Google per dag meer dan 200 miljoen zoekacties  te verwerken. Op de drukste uren gaat dit met 2000 zoekopdrachten per  seconde. Dit zijn immense getallen. Google heeft ’s werelds grootste webpagina  index van meer dan 3 miljard pagina’s. 1     Dit bevestigt dat het internet in de loop der jaren gigantisch is gegroeid en de  mogelijkheden oneindig zijn. Omdat het internet zo massaal is geworden, is het  moeilijker te vinden waar je naar op zoek bent. Daarom zijn zoekmachines in het  leven geroepen. Zoekmachines bestaan uit twee delen. Aan de ene kant heb je de  website waar jij jouw zoekacties op uitvoert, aan de andere kant heb je de  achterliggende programma’s die het internet afstruinen op zoek naar websites.   Deze intelligente programmaatjes, bots of spiders genaamd, die vooral teksten  en bepaalde stukken code van de website doorzoeken en koppelen aan  zoekcriteria.  Ze onthouden informatie en slaan deze op in een index. 2  Als je een zoekterm in een zoekmachine intypt en vervolgens op zoek klikt, dan  gaat een zoekmachine de woorden in de zoekterm vergelijken met de informatie  in de index. Zijn hier overeenkomsten, dan worden deze op volgorde van  relevantie weergegeven. De relevantie van zoekopdrachten is door de  webmaster zelf te beïnvloeden. Als je een website goed optimaliseert voor  zoekmachines op woorden zoals: fietsen, fietsspecialist fietshandelaar Drunen,  zal bijvoorbeeld Google de site hoog in de zoekresultaten zetten, als mensen  zoeken op deze woorden of woorden die daarmee te maken hebben.    Er zijn methodes om een website zo te bouwen, dat hij beter door zoekmachines  gevonden wordt dan andere websites, dus relevanter wordt. Hoe zorg je er voor         1 Bron: ’De keiharde Google feiten’ op: http://www.googlefacts.nl (22 mei 2009)  2  Bron: ’SEOguru, 2.1 Zoekspiders’ op: http://www.seoguru.nl/zoekmachine‐werking.html (22 mei 2009) 

(6)

dat jouw pagina de meest relevante wordt bij bepaalde zoekopdrachten. Hier  komt SEO om de hoek kijken, wat een afkorting is van Search Engine  Optimization. In het Nederlands heet dit zoekmachine optimalisatie. Dit is een  onderdeel van SEM, wat een afkorting is van Search Engine Marketing. SEM is op  te delen in SEO en SEA. SEA is een afkorting voor Search Engine Advertising.     Google is op dit moment de meest gebruikte zoekmachine. 98% Van de mensen  die op internet te vinden zijn, maakt gebruik van zoekmachines. Volgens een  artikel op de website adformatie.nl van 28 februari 2009 is Google met 95% de  meest gebruikte zoekmachine in Nederland.3 Daarom wil ik me in mijn  onderzoek richten op Google als zoekmachine.     Als je wilt dat jouw website gevonden wordt, moet je ervoor zorgen dat jouw  website in zoekmachines voorkomt. Het liefst zo hoog mogelijk. 62% Van alle  internet gebruikers kijkt niet verder dan de eerste pagina met zoekresultaten. 4    Het doel van deze scriptie is niet puur en alleen het onderzoek naar het  toepassen van SEO op websites, maar specifiek voor Community based websites.    Tot nu toe is SEO voornamelijk toegepast op commerciële of zogenaamde 

editorial websites 5 en er is onderzocht hoe community based websites 6 de SEO 

van commerciële websites beïnvloeden.  Maar is SEO ook te optimaliseren, zodat  community based websites beter gevonden worden?  Uit een traject van een stage en projecten, die ik als interactie ontwerper bij het  bedrijf RedesignMe heb gedaan, heb ik ervaren, dat SEO voor community based  websites een stuk minder voor de hand ligt dan voor editorial websites.          3 bron: “Google veruit meest gebruikte zoekmachine” http://www.adformatie.nl/nieuws/bericht/google‐veruit‐ meest‐gebruikte‐zoekmachine  4’Bron: Zoekmachine marketing: wat is uw strategie?’ op: http://www.zoekmachine‐marketing.net (22 mei 2009)  5 Editorial website: een website met door een team van professionals geschreven en uitgedachte teksten  6 Community based website: een website waar een actieve groep van gebruikers of klanten content plaatsten in de       vorm van bijv. tekst, afbeeldingen  

(7)

RedesignMe is een community portal, waar bedrijven samen met hun  consumenten een samenwerking aangaan om zo hun producten te verbeteren.  Een bedrijf koopt een pagina op de website, die vervolgens in hun stijl wordt  ingericht met een probleemstelling en een vraag. Deze pagina wordt  verduidelijkt met tekst, afbeeldingen en/of een video. Deze informatie wordt  door RedesignMe geplaatst en is het editorial gedeelte van de pagina. Aan de  hand van deze informatie kan een redesigner in de vorm van beeld en tekst een  oplossing of idee plaatsten op de probleemstelling. Vervolgens kunnen andere  redesigners (leden uit de community) commentaar geven op dat ‘redesign’,  waardoor er een discussie ontstaat en mensen feedback geven over het ontwerp.  Hierdoor is de redesigner van het idee in staat om het te verbeteren. Het bedrijf  achter de probleemstelling krijg zo input voor verbeteringen van zijn product en  de redesigner wordt beloond voor een idee als er door meerdere leden in de  community positief op wordt gestemd. Een redesign wordt beloond met 500  RDM’s, dat zijn punten die kunnen worden ingeleverd voor producten in de  webwinkel van RedesignMe. 500 RDM’s staat gelijk aan 50 euro. Alle content die  door de community wordt geupload is user generated content. 7  Het is niet duidelijk of dat user generated content, wat een community based  website voornamelijk bevat, te optimaliseren valt en of deze wel door Google te  indexeren is. In het geval van RedesignMe worden er veel afbeeldingen, maar  vooral ook veel comments en stukken tekst op de site geplaatst. Deze bevatten  nuttige info, die de vindbaarheid van de website kan bevorderen. Als deze  content te indexeren valt door Google, zal de site nog beter gevonden worden.   Omdat ik door een eerder oriënterend onderzoek heb ondervonden dat het  vaker voorkomt dat community based websites minder goed geïndexeerd  worden door Google, wil ik een onafhankelijk onderzoek doen, naar wat je als  interactie ontwerper moet doen om een community based website te  optimaliseren op het gebied van Search Engine Marketing, zodat deze net als  commerciële websites goed gevonden kan worden in Google.            7 Bron: www.redesignme.com 

(8)

In deze scriptie zal aan bod komen, hoe zoekmachines zijn ontstaan, hoe een  zoekmachine werkt en wat het verschil is met Google en andere zoekmachines.  Ik begin in hoofdstuk 1 met een inzicht geven in hoe de zoekmachine  is ontstaan  en hoe deze op het internet is geëvolueerd. Daarna ga ik in hoofdstuk 2 in op wat  Search Engine Marketing en Search Engine Optimization precies inhouden en  wat er allemaal bij komt kijken. Is SEO alleen genoeg of komt er meer bij kijken,  zoals Adwords en Affiliate marketing, wat valt onder SEA.  Ook wordt er een blik  geworpen op wat er allemaal aan SEO marketing gedaan wordt bij commerciële  websites. Vervolgens wordt er in hoofdstuk 3 een scheidslijn beschreven tussen  user generated content en editorial content en wat de verschillen van deze twee  soorten website inhouden zijn. Vervolgens zal hoofdstuk 4 van de scriptie zich  toespitsen op het gebruik van SEO op community based websites. Zijn SEO  methodes voor community based websites het zelfde als bij commerciële sites?  Is user generated content te optimaliseren voor Google en wat is het perspectief  van een interactie ontwerper op SEO marketing? Met dit alles zal er een  antwoord komen op de vraag: Wat moet je doen als interactie ontwerper om bij  community sites optimaal gebruik te maken van SEO marketing? Dat zal  uitgebreid in hoofdstuk 5 uitgelegd worden.                   

(9)

Hoofdstuk 1: Zoekmachines  

 

De oorsprong van de zoekmachine 

De geschiedenis van de zoekmachine gaat ver terug en heeft een lange weg  afgelegd om te komen tot waar hij nu is. In dit hoofdstuk zal ik een aantal van de  belangrijkste gebeurtenissen in de zoekmachine geschiedenis aankaarten. Het  principe zoekmachine stamt uit het jaar 1945, waar Vannevar Bush samen met  een groep wetenschappers een database van informatie heeft gemaakt voor de  mensheid. Hij geloofde sterk in het opslaan van gegevens, maar was wel van  mening dat gegevensbronnen zodanig gepresenteerd moeten worden, dat als  een bron nuttig is voor de mens, deze ook begrijpbaar is. Bush heeft het idee  gecreëerd dat er een virtueel systeem moest komen, dat snel, betrouwbaar,  uitbreidbaar is, waarmee informatie opgeslagen kan worden. Dit noemde hij  memex.  Gegard Salton heeft een grote rol gespeelt op het gebied van Moderne  zoektechnologie. Hij en zijn teams van wetenschappers op Harvard en Cornell  hebben het SMART (Salton’s Magic Automatic Retriever of Text) information  retrieval system ontwikkeld. Dit systeem bevat een aantal belangrijke concepten  zoals: het vector space model8 en het relevantie feedback mechanisme9. Hij heeft 

een boek geschreven, A Theory of indexing, waarin theorieën staan beschreven,  waar de huidige zoekmachines op gebaseerd zijn.  Ted Nelson heeft in 1960 een project opgezet, genaamd Xanadu en heeft in 1963  de term hypertext bedacht. Xanadu is in het leven geroepen om een  computernetwerk te creëren met een simpele user interface.  Ted was tegen complexe markup code, maar veel van de inspiratie in het World  Wide Web is gebaseerd op zijn werk. Project Xanadu heeft gefaald, maar er is tot  op de dag van vandaag nog steeds niet duidelijk waarom dit is gebeurd.          8 Een algebra model voor het representeren van tekstdocumenten en andere objecten, bijvoorbeeld in de vorm van een  indexering. http://en.wikipedia.org/wiki/Vector_space_model  9 Een systeem dat ervoor zorgt dat zoekresultaten gerangschikt worden op relevantie. Bron:  http://en.wikipedia.org/wiki/Relevance_feedback 

(10)

De eerste echte zoekmachine, in de vorm zoals we nu op internet tegenkomen,  nog voor het internet, heette Archie. Dit is een afkorting van Archives, in 1990  gecreëerd door een student aan de McGill University in Montreal. Kort daarna in  1993, zijn pas de eerste websites ontwikkeld.   Het principe van de zoekmachine hoe we hem nu kennen, is sinds de oorsprong  niet heel veel veranderd. Je hebt een massa aan informatie, waar zelf zoeken  geen mogelijkheid is, omdat het ontzettend veel tijd in beslag neemt, voordat je  dat wat je zoekt hebt gevonden. Dan praat je over jaren zoeken. Het is de  techniek erachter die door de jaren verbeterd is. Bibliotheken hebben systemen  bedacht om grote hoeveelheden informatie te categoriseren. Door tags te  koppelen aan informatie kun je informatie terugvinden. Dit is geëvolueerd en  gedigitaliseerd. Het internet heeft op het probleem van informatie terugvinden  de zoekmachine als antwoord gegevonden. Het is veel gemakkelijker geworden  om toegang te krijgen tot bepaalde informatie.  Het tijdperk van de  zoekmachines op internet is zo’n 15 jaar geleden begonnen en is inmiddels  gigantisch gegroeid. 

Zoekmachines op het internet 

In het jaar 1993 is de eerste zoekrobot geïntroduceerd Deze is gecreëerd om de  grootte van het internet te meten, door te tellen hoeveel actieve web servers er  zijn. Later is deze robot geüpgraded om ook echt URL’s (webpagina’s) te vinden,  dit is alweer specifieker dan webservers. In 1994 heeft Brian Pinkerton van de  Universiteit van Washington een webcrawler uitgebracht. Dit was de eerste  crawler die volledige webpagina’s kon indexeren.  Daarna is het heel hard gegaan. In 1994 zijn de grote zoekmachines Lycos en Alta  Vista gestart. Lycos was een hele grote zoekmachine. Zij begon op 20 juli met  54.000 documenten en was in januari 1995 uitgegroeid tot een database met 1,5  miljoen documenten. In 1996 waren zij met een index van 60 miljoen  documenten de grootste zoekmachine ter wereld.10 Alta Vista is in dezelfde  maand gelanceerd als Lycos. Alta Vista bevatte veel nieuwe features ten opzichte         10 bron: History of Search Engines: From 1945 to Google 2007, op: http://www.searchenginehistory.com/ 

(11)

van bestaande zoekmachines. Zo was Alta Vista de eerste zoekmachine waar je  geavanceerd mee kon zoeken. Met die geavanceerde zoekfunctie, kon je  meerdere zoekcriteria opgeven en zo doelgerichtere resultaten krijgen. Ook was  Alta Vista een zoekmachine die ongelimiteerde bandbreedte11 had. Daarnaast  maakte Alta Vista het mogelijk om ‘natural language search’ uit te voeren. Dit wil  zeggen dat je aan de hand van spreektaal een vraag of zin kan zoeken. De  zoekmachine gebruikt dan geprogrammeerde logica om keywords uit de zin te  halen en aan de hand daarvan de database te raadplegen om zo de gewenste  zoekresultaten te vinden. 

Google 

De oprichters van Google, Larry Page en Sergey Brin hebben elkaar ontmoet op  Stanford in 1995. Larry, 22, leidde Sergey, 21, rond. Volgens geruchten hadden  ze veel discussies en waren ze het niet veel met elkaar eens. Het jaar daarop zijn  ze beiden informatica student op Stanford en werken samen aan een  zoekmachine genaamd Backrub. Deze zoekmachine heeft meer dan een jaar  gefunctioneerd op Stanford, maar gebruikte teveel bandbreedte van de  universiteit, waardoor ze de zoekmachine hebben stopgezet.  Zelf zijn ze verder gegaan met Backrub en hebben ze besloten dat de  zoekmachine een andere naam moest hebben. Na veel brainstormen is de naam  Google bedacht, afgeleid van Googol, een wiskundige term voor het nummer 1  met 100 nullen, anders gezegd, sexdeciljard.12  10.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000  De reden voor het kiezen van deze naam, is dat het getal Googol hun missie  representeert; en dat is het organiseren van wat het lijkt, een oneindige  hoeveelheid informatie.   Deze missie ligt aan het begin van mijn onderzoek. De behoefte om snel een  bepaald resultaat te vinden, lijdt tot het optimaliseren van websites, zodat ze         11 Het transferlimiet van een verbinding, wordt aangeduid in Kilobits per seconden(KB/s) bron:  http://nl.wikipedia.org/wiki/Bandbreedte#Internet  12 bron: Google Corporate information, op: www.google.com/coporate/history.html 

(12)

gevonden worden. Google wil dat mensen via hun zoekmachine hetgeen dat ze  zoeken zo snel mogelijk vinden. Om dit mogelijk te maken moeten websites zo  geoptimaliseerd zijn dat deze goed te vinden zijn. Dit is een flinke klus en hier  zijn flink wat regels, voorwaarden en trucs mee gemoeid. Daarvoor gaan we  eerst maar eens kijken hoe zo’n zoekmachine te werk gaat. We gaan in dit  onderzoek uit van de Google standaarden. 

Werking van de zoekmachine 

Zoekmachines zijn in het leven geroepen om het voor internetgebruikers  gemakkelijker te maken om te vinden wat men zoekt. Er zijn miljoenen sites op  het internet te vinden. Als je de juiste website daaruit wilt hebben, is het zonder  de juiste tools zoeken naar een speld in een hooiberg. Het zou niet eens mogelijk  zijn zonder zoekmachine, of je moet alle URL’s weten van alle websites en ze één  voor één afgaan. En dan voor jezelf uitmaken welke van de sites voor jou  geschikt zijn. Niet doen! Dan doen zoekmachines vele malen sneller vóór jou.  Daarbij zet een zoekmachine de resultaten netjes in een index, gesorteerd op  relevantie.  Het enigste wat een zoekmachine doet, is de hele dag het internet afspeuren naar  websites. Dit wordt gedaan door programma’s die herhaaldelijk taken uitvoeren  met zo’n gigantische snelheid, die niet door de mens uit te halen is.13  Deze programma’s heten Zoekmachinespiders. Ze worden ook wel  Zoekmachinerobots genoemd. Als een site door een Zoekmachinespider  gevonden wordt, dan wordt deze in een index geplaatst. Databases van  zoekmachines zijn enorm, de Google index telt meer dan drie miljard  webpagina’s.14 Het doorzoeken van het web is één kant van het verhaal, nu is het  nog van belang dat er gezocht kan worden. Dus als iemand een zoekwoord  invoert, dan moet er een resultaat uitkomen wat past bij dat zoekwoord.  Het is heel moeilijk voor een zoekmachine als Google, om zoekresultaten te  koppelen aan de zoektermen die u invoert. Als u naar auto’s aan het zoeken bent         13 bron: What is a Bot? op: www.searchenginehistory.com  14 Bron: ’De keiharde Google feiten’ op: http://www.googlefacts.nl (24 mei 2009) 

(13)

en Google geeft resultaten van websites met fietsen, dan is dat niet waar u op zit  te wachten. Google heeft hiervoor een aantal algoritmes bedacht. Die werken als  volgt. Google heeft een aantal factoren die bepalen of een website hoog in de lijst  komt of niet. Het wordt door Google geheim gehouden welke factoren dat zijn.  Volgens sommigen zijn dat er meer dan 200. Al deze factoren te samen vormen  het algoritme dat de relevantie van een website bepaalt. De reden dat Google de  informatie achter de algoritmes geheim houdt is om manipulatie van  zoekresultaten tegen te houden. Ook worden de algoritmes constant geüpdate  met nieuwe factoren.   Aan de ene kant denk ik dat het wel goed is dat Google de factoren en SEO  algoritmes geheim houden, omdat zo de concurrentie tussen bedrijven in de  strijd tot het bereiken van de top rankings eerlijk blijft. Maar aan de andere kant  is het lastig om zo een hoge positie te bereiken. Talloze bedrijven zeggen expert  te zijn op het gebied van SEO, maar voordat je weet dat ze er echt iets af weten,  ben je een hoop geld verder en aangezien het een tijd duurt voordat je resultaat  ziet van SEO inspanningen, kun je er niet op tijd achter komen of ze  daadwerkelijk expert zijn, of dat het oplichters zijn. Veel  SEO experts gebruiken  zogenaamde “Black hat” methodes. Dat zijn illegale methodes waardoor je snel in  de rankings omhoog schiet, maar een grote kans loopt door Google gebanned te  worden. En eenmaal gebanned, kom je niet snel terug in de rankings, behalve als  je een groot erkend bedrijf bent en ook dat is een heel traject.    Wanneer een website wordt gevonden door Google, bepaalt zij hoe belangrijk  deze is ten opzichte van de inhoud. Dit bepaald ook de positie in de index. Het is  goed voor een website als andere websites een link op hun site hebben staan die  naar hem verwijzen. Het beste is, dat deze websites over hetzelfde onderwerp  gaan. Het heeft ook invloed wanneer de websites die naar jouw website linken  een hoge pagerank hebben, dus hoog in de Google index staan. Het linken van  belangrijke externe websites vindt Google heel belangrijk, omdat dit niet  beïnvloed kan worden door de beheerder van de website.   We weten dat Zoekmachinespiders het hele web afstruinen. De spiders  doorzoeken tekst en stukken code van de site, meta‐tags genaamd. Ook spelen de 

(14)

datum wanneer de site voor het laatst is geüpdate mee en de hoeveelheid  websites die naar jouw website linken. Als een zoekmachine (Google is de  standaard in dit onderzoek) een pagina doorzoekt, maakt hij er een kopie van.  Deze informatie is opgeslagen in zogenaamde ‘cache’ van hun eigen computers.  Deze kopie bevat niet alles van de website. Alleen bepaalde stukken, zoals tekst,  data en code van de website. Alle gegevens in de cache worden in een handige  structuur opgeslagen. Op het moment dat iemand een zoekterm in de  zoekmachine intypt, wordt deze informatie opgeroepen. Door de structuur  waarin de informatie is opgeslagen, krijg je razendsnel de resultaten binnen. 

Google vs. Andere zoekmachines 

In een het artikel van Aaron Wall dat hij op 13 juni 2006 schreef, vertelt hij over  de verschillen tussen de drie zoekgiganten op het internet, namelijk Yahoo!, MSN  en Google. Ondanks dat dit een oud artikel is, is het niet achterhaald.  In dit artikel komt duidelijk naar voren dat Google veruit de beste, grootste en  volledigste zoekmachine is. Daarna komt Yahoo!. Dit komt onder andere doordat  Yahoo! al lang bestaat en dus veel ervaring heeft. De hekkensluiter is MSN  Search, dit vanwege dat het een vrij jonge zoeksite is. MSN Search weet ook niet  zo goed om te gaan met het bepalen of een link ‘Natural’15 is of ‘Artificial’.16 Dit 

doet Yahoo! beter dan MSN search, maar Google spant de kroon op het gebied  van het bepalen van Natural of Artificial linking.   Google blinkt uit op nog meer vlakken. Bijvoorbeeld in de interface van de site,  die is veel eenvoudiger en overzichtelijker dan Yahoo! en MSN search. Yahoo! en  MSN search staan beide volgepropt met nieuws, commercials en advertenties.  Waar Yahoo! en MSN search zich focussen op nieuws en reclame, is Google puur  en alleen gefocust op zoeken. Google richt zijn zoekmachine op informatieve  zoekresultaten, terwijl Yahoo! en MSN search veel meer gericht zijn op nieuws  en reclame gerichte resultaten. De bots van Google hechten veel meer waarde  aan kwalitatieve links, dan aan de hoeveelheid links naar een website,         15 Natural linking: Doordat veel bezoekers vanuit andere hoogwaardige sites naar jouw website komen. Dus op de  natuurlijke manier een hogere pagerank behalen  16 Artificial linking: Door het spammen van links hogerop komen in de page rank. Dit is een illegale manier.  

(15)

vergeleken met van Yahoo! en MSN search. Google waardeert websites die langer  bestaan beter. Google hecht waarde aan sites die “oud” zijn.  Het is dus heel lastig om een nieuwe website hoog in de rankings te krijgen. Ook  al heb je flink wat aan je website geoptimaliseerd, dan duurt het toch een tijd  voordat je echt merkt dat je pagerank verhoogd wordt. Bij RedesignMe merkten  we wel dat toen Google het indexeren van de site eenmaal op orde had, we van  pagerank 1 meteen naar pagerank 5 gingen. Pagerank gaat op schaal 1 tot 10.                                   

(16)

Hfdst 2: Search Engine Marketing 

  Ondanks dat het heel lang duurt, zorg dan toch dat je site zo goed mogelijk  geoptimaliseerd is. Als je website dan opgepikt wordt door Google, dan zie je ook  meteen een duidelijke verbetering van je pagerank.   Dus wil je dat jouw site gevonden wordt? Dan zul je een website moeten  optimaliseren. Een site bevat in veel gevallen tekst. Dit is goed, omdat de spiders  van Google dol zijn op tekst. Search Engine Marketing is hetgeen wat relevant is  als je wilt dat jouw site gevonden wordt in Zoekmachines. Search Engine  Marketing (SEM) heeft alles te maken met het verschijnen  van een website in  zoekmachines, zodat deze geïndexeerd kan worden en in de zoekresultaten  voorkomt. Dit niet geheel zonder reden. Dit moet uiteindelijk gaan leiden naar  meer klanten, meer verkoop, een grotere gebruikersgroep van een website.  Dit  is per bedrijf verschillend. SEM is eigenlijk een totaalpakket van tools en  middelen om een website zo goed mogelijk te laten scoren in een zoekmachine  als Google. Een onderdeel van SEM is Search Engine Optimization. Dit is ook  meteen een belangrijk deel. Hiermee zorg je ervoor dat je een website op  bepaalde plekken van de infrastructuur aanpast, zodat een Zoekmachine Spider  hierin kan crawlen en de benodigde informatie vindt, om deze te indexeren.     Eerder is aan bod gekomen waar een zoekmachine op let. Hier volgt een lijstje  met belangrijke aspecten voor een website, die een rol spelen bij het indexeren  van de website.   ‐ De titel van de pagina  ‐ Meta‐Tags  ‐ Datum van de laatste wijziging  ‐ Domeinnaam  ‐ Alt‐tags  ‐ De inhoud van de pagina (Voornamelijk tekst)17            17 Bron: Zoekmachine Marketing, auteur: Mark Jansen 

(17)

Dit zijn aspecten die een onderdeel zijn van site optimalisatie voor SEO. Een  zoekmachine heeft bepaalde input nodig van een website, waar hij zijn  zoekcriteria op vaststelt. Hieraan zijn een hoop regels, trucs en tactieken  verbonden, die bij verschillende bronnen steeds wat anders zijn. Bij iedere bron,  die ik gevonden heb, die op de materie ingaat; daarbij komt het hierboven  staande lijstje aan bod. Voor mij een reden om dit altijd uit te voeren bij het  optimaliseren van je website en uit te zoeken hoe dat in z’n werk gaat. Een van  de bronnen, die SEO heel duidelijk in beeld brengt, is het boek zoekmachine  marketing van Mark Jansen.    Een website wordt in een HTML code gebouwd. Dit is een frame van codes,  waarmee je een webpagina kan opmaken, zodat hij goed zichtbaar is voor  mensen die de pagina bezoeken. Een HTML element dat zeer gewaardeerd wordt  door zoekmachinespiders is de titel. Wat er precies in de titel moet staan en hoe  dit voor SEO eruit moet zien, daar zijn de meningen over verdeeld. Maar wat in  ieder geval belangrijk is, is dat de titel aansluit bij de inhoud van de teksten op de  website. Je moet dus niet alleen de domeinnaam in de titel zetten, of alleen de  bedrijfsnaam, maar een duidelijke zin. Deze moet kort, bondig en leesbaar zijn.  Als je met je website wilt laten zien wat je als bedrijf doet, zou ik daar de titel op  aanpassen en bepaalde kernwoorden gebruiken, die bij de uitleg van jouw  bedrijf passen. Een titel is een toevoeging aan het onderwerp van de webpagina.   Het is niet slim om op iedere pagina van de website dezelfde titel te gebruiken.  Het is belangrijk dat de titel aangepast wordt op het onderwerp van de pagina.    Meta‐Tags zijn net als titels HTML elementen. Meta‐Tags bevatten informatie, die  belangrijk zijn voor zoekmachines. Je hebt verschillende meta‐tags:  Description, keywords, copyright, author, robots en publisher. In de code ziet een  meta‐tag er als volgt uit:    <meta name="description" content="Op deze pagina vind je een overzicht van alle producten of  diensten waaraan jij kan bijdragen met je creatieve input. De ideeën met de meeste stemmen  worden beloond." />  <meta name="keywords" content="Producten, diensten, co­creatie, challenges"/>   

(18)

Voor veel zoekmachines wegen alle meta‐tags zwaar. Bij Google is dat anders.  Voor Google telt alleen het keyword en de description tag mee. Van deze twee is  de description tag de belangrijkste. Deze bevat een korte beschrijving van de  inhoud van een webpagina. Het is niet duidelijk wat de juiste lengte is van de  omschrijving. Hier zijn de meningen over verdeeld. Naar mijn idee is een bondige  tekst beter dan een te uitgebreide tekst, zolang de kern maar goed naar voren  komt. Een andere reden waarom de description tag erg belangrijk is, is omdat  aan de hand van de info van deze tag, bepaald wordt of de website relevant is  voor bepaalde zoekopdrachten. Het is belangrijk dat je zoekwoorden die  gebruikt zouden kunnen worden voor het vinden van jouw website, ook gebruikt  wordenin de description tag.  De inhoud van deze tag is niet zichtbaar in de  pagina inhoud. Wel is het belangrijk dat je woorden die in de description tag  staan, terug laat komen in de inhoud van de pagina. Dit is, evenals het gebruiken  van zoekwoorden in de description tag, bevorderlijk voor zoekmachines om een  site te indexeren. Google laat de tekst in de description tag zien onder de link van  de website in de index van zoekresultaten.    Inhoud van een website is natuurlijk de kern, dus ook belangrijk voor  zoekmachines. Zoekmachinespiders smullen van tekst, veel tekst. Websites waar  veel tekst in staat, scoren goed in Google. Als je een website hebt waar bijna  alleen afbeeldingen, Javascript, Flash, muziek of video op staan en geen tekst, dan  zal Google daar niets mee kunnen. Nu kun je zeggen dat dit bij video niet waar is.   Het is namelijk het geval dat filmpjes van Youtube regelmatig bovenaan de  zoekresultaten staan van bepaalde zoekopdrachten. Dit komt omdat Youtube een  onderdeel is van Google en dit door Google zelf geïndexeerd wordt. Google weet  als geen ander hoe content geïndexeerd moet worden. Dus daarom is Youtube  een uitzondering. De net genoemde elementen beïnvloeden de kans dat je in  zoekresultaten voorkomt zeer negatief. Hoewel Flash elementen en javascript  ook tekstuele inhoud hebben, worden deze niet geïndexeerd, vanwege het feit,  dat ze niet direct in de HTML opmaak van een website staan. Een Flash object is  een los bestand dat in de site embedded (bijgevoegd) is. Het schijnt dat  Google  wel Flash kan indexeren, maar toch werkt het niet naar behoren. De site  www.checkit.nl heeft een onderzoek gedaan naar Nederlandse Flash websites en 

(19)

of Google de tekst van deze sites indexeert. Hieruit bleek dat de websites wel  gevonden worden, omdat het vaak spin‐offs zijn van Grote websites,  bijvoorbeeld een promotie site van het merk Heineken. Die website heeft een  pagerank van 6. Omdat er een link is gemaakt tussen de promotie site en de  Heineken site, wordt de promotie site wel gevonden, maar wordt de Flash tekst  niet bij het zoekresultaat weergegeven. Door andere manieren van zoeken,  kwam checkit.nl wel tot de conclusie dat het geïndexeerd wordt, alleen moet de  tekst selecteerbaar zijn in het Flash bestand. De reden waarom de webpagina’s  die zij in het onderzoek bekeken hebben nog niet goed in Google weergegeven  werden, is dat Google deze pagina’s nog niet geïndexeerd heeft Vanwege de grote  hoeveelheid websites die er op het internet te vinden zijn. 18   Als een website teksten bevat die in de HTML code geplaatst zijn en die code met  ongeveer 2% voorzien is van zoektermen waarop de site gevonden wilt worden,  dan is er geen probleem met het indexeren van de website. Belangrijk is dat de  content op een website regelmatig up to date gehouden wordt. Dit is een aspect  waar Google ook naar kijkt. Als een site ooit online is gezet en er wordt verder  niets mee gedaan, dan is dit al heel snel verouderde informatie en iemand is  natuurlijk op zoek naar oude informatie.  Een belangrijk aspect van tekst zelf is de opmaak van de tekst door middel van  gebruik van HTML tags in de tekst. Bijvoorbeeld titels in de inhoud moeten meer  aandacht krijgen, omdat ze een aankondiging van een nieuw onderwerp zijn. Je  kunt deze dus benadrukken met h‐tags. Een h‐tag benadrukt een titel door deze  dikgedrukt en groter te maken. <h1> is de grootste variant en <h5> is de kleinste  variant. Google kijkt dus naar dit soort tags. Als een titel tussen h‐tags  zoekwoorden bevat, ziet Google dit als belangrijke woorden. Andere tags die dit  effect hebben zijn:   <b>    Bold    Vetgedrukte tekst  <i>    Italic    Cursieve tekst  <strong>      Benadrukte tekst 

Het is niet gewenst, om de HTML tags in de site inhoud te misbruiken. Google  bestraft websites die overmatig gebruik maken van <h1> en soortgelijke tags. Dit        

(20)

heeft als gevolg, dat je lager in de page rank komt. Al deze elementen  optimaliseren je website, zodat hij als het ware leesbaar wordt voor Google. Zo  wordt je site zoekmachine vriendelijk.   

Maak je website zoekmachine vriendelijk, maar vergeet de gebruiker 

niet 

Wil je gevonden worden op het internet, moet je een site optimaliseren voor  zoekmachines. Een website moet dus Zoekmachine vriendelijk zijn. Wat hierin  belangrijk is, is dat je niet moet vergeten dat je niet een website aan het maken  bent voor een zoekmachine, maar voor de bezoekers van je website. Veel  mensen stellen zich de vraag: Waar wil ik op gevonden worden. Dat kan, maar je  moet ook zeker denken aan: Waar zou de gebruiker op zoeken als hij mij zou  willen vinden. Optimalisatie is belangrijk, gevonden worden is belangrijk, maar  wat ook zeker belangrijk is, is dat je de juiste bezoekers naar je website krijgt.  Als je auto’s verkoopt, wil je geen wielrenners naar je website die een nieuwe  fiets willen kopen. Houdt dus altijd de focus op de gebruikers. Houdt daar met  ontwerpen ook rekening mee, als een site volgestopt wordt met zware content,  zoals Flash intro’s, muziek en andere zware content, wordt een site heel traag, en  zullen bezoekers afhaken, ook heeft dit soort content negatieve uitwerking op de  vindbaarheid in Google. Het betekent niet dat je absoluut geen andere content  dan tekst kan gebruiken, maar zorg wel dat het in balans is. Twee andere  factoren die van belang zijn met Zoekmachine optimalisatie, zijn de URL en de  sitemap. Het is belangrijk bij de URL, dat je geen betekenisloze termen in de link  laat voorkomen. Dus niet:  www.redesignme.com/product/product1/398.item1.html, maar  www.redesignme.com/challenge/pickwick/tea‐twister.html. In de laatste URL  zitten woorden in, die voorkomen in de inhoud van de pagina en hebben  betekenis. Google zal hier een link tussen leggen en hierdoor zal de site hoger in  de pagerank komen.  Een sitemap is een overzicht, vaak onderin op de pagina,  waar je in een oogopslag alle onderdelen van de website ziet. Hierdoor kunnen  gebruikers gemakkelijk de weg vinden en daarbij kan Google heel handig de  gehele site indexeren. Het is natuurlijk goed als je website op pagina één staat in  de Google index, maar dit moet niet in de weg staan van de 

(21)

gebruiksvriendelijkheid van de website. Als interactie ontwerper, ben ik altijd  bezig om een site zo gebruiksvriendelijk mogelijk te maken. Als ik een website  optimaliseer voor zoekmachines, ga ik er geen extra tekst bijstoppen omdat dit  goed  is voor de vindbaarheid. Want je wilt dat gebruikers zich lekker voelen op  jouw website, en niet weggaan omdat  ze een te lange tekst moeten door spitten.  Het is dus belangrijk om een goede balans te vinden in het optimaliseren van een  website, zonder dat het de gebruiksvriendelijkheid van de site benadeelt.    

Search Engine Advertising 

Het effect van het optimaliseren van uw website zal niet meteen zichtbaar zijn.  Google heeft talloze sites te indexeren. Het is dus even geduld hebben. Er is nog  een andere manier om een zichtbare positie te bemachtigen. Dat is de andere  kant van SEM, namelijk Search Engine Advertising (SEA). Toen Google de  grootste zoekmachine op het internet begon te worden, verdiende het  nauwelijks geld. Dat is nu wel anders. Google heeft een eigen advertentie dienst  opgezet, Google Adwords. Hiermee kun je betaald een toppositie krijgen in de  Google zoekmachine. Je kunt zelf een bedrag bepalen dat je per bezoeker wilt  betalen.   Het verschil tussen zoekmachine optimalisatie en zoekmachine advertising is dat  er met optimalisatie geen kosten gemoeid zijn. Een nadeel is wel, dat het lang  duurt voordat je resultaat hebt. Bij zoekmachine advertising kun je zodra een  site online staat een campagne starten, alleen kost het veel geld. Je hebt wel  meteen resultaat. De campagne stopt meteen als de betaling wordt stopgezet. Bij  optimalisatie blijf je in de index staan. Terwijl je bij zoekmachine marketing uit  de index wordt gehaald, zodra het geld op is. Er is nog een relevant verschil, met   Google Adwords kom je in een apart gedeelte met zoekresultaten te staan, de  zogenaamde gesponsorde links. Dat staat los van de organische zoekresultaten,  waar je inkomt als je jouw site hebt geoptimaliseerd.19           19 Bron: Zoekmachine marketing, auteur: Mark Jansen 

(22)

Een website is in veel gevallen een middel voor bedrijven om nieuwe klanten te  winnen. Deze mensen moeten via bepaalde elementen op de site aangespoord  worden tot een aanmelding van een nieuwsbrief, opvragen van informatie of in  het geval van webwinkels het kopen van een product. Deze acties noemt men  conversies. Conversie betekend omzetting. Op het gebied van e‐commerce is het  dus een site bezoek omzetten naar een conversiedoel. Een conversiedoel kan  zijn, een boek kopen op Bol.com of een brochure van een bedrijf opvragen. Bij  een community based website is dat geen commercieel georiënteerd doel. Dan  praat je over een aanmelding bij een community en dat je daar vervolgens actief  deel in neemt. SEO en SEM worden ingezet om ervoor te zorgen dat er meer  mensen naar een site toe komen.   Binnen SEM zijn een aantal methodes die vaak gebruikt worden en betrekking  hebben op het online adverteren.   De oudste betaalmethode is een tarief op basis van het aantal keren dat een  advertentie is vertoond. De methode heet CPM, wat een afkorting is voor ‘cost  per mille’. Dat is het bedrag wat betaald wordt per 1000 vertoningen van de  advertentie. Bij CPM is het zo, dat de prijs afhankelijk is van de populariteit van  de website. Op sommige impopulaire sites betaalt u 0.05 dollarcent per 1000  vertoningen. In het boek Zoekmachinemarketing van Mark Jansen, wordt een  voorbeeld gegeven aan de hand van de website van de Telegraaf. Deze site heeft  dagelijks enkele honderdduizenden bezoekers. Met CPM is het zo dat niet alleen  alle bezoekers worden geteld, maar alle webpagina’s binnen een website die de  bezoekers aanklikken. Als een website per dag 100.000 keer wordt aangeklikt,  en het tarief van CPM is 10 euro, betaalt u 1000 euro. Je advertentie wordt  gemiddeld door 1% van die bezoekers aangeklikt. Van die 1% die uw advertentie  aanklikt, komt slechts 1% tot een conversie. Als je dan als bedrijf tubes tandpasta  verkoopt van 2 euro per stuk, krijgt u 20 euro extra omzet door een advertentie  campagne die 1000 euro heeft gekost.     Ik ben van mening dat deze manier van adverteren veel te veel geld kost, in  verhouding voor wat je ervoor terug krijgt. In het hierboven genoemde  voorbeeld staat dat je 20 euro extra omzet maakt, terwijl je 1000 euro investeert. 

(23)

Dat is dus één vijftigste van je bedrag dat je terugverdient. Dan lijkt mij dat je  verder moet kijken naar betere methodes.  Er is een methode, PPC of CPC genaamd, die veel gunstiger is. PPC staat voor pay  per click, ook wel CPC, cost per click genoemd. Bij deze methode betaal je alleen  als er op jouw advertentie geklikt wordt. Beide methodes betreffen tekst  advertenties. Hier heb je voordelen bij, omdat je product al gepromoot wordt  zonder dat je advertentie wordt aangeklikt en je gaat pas betalen als er  daadwerkelijk op wordt geklikt. Zo heb je ook nog CPL, cost per lead. Dan betaal  je alleen een vergoeding als er daadwerkelijk een conversie heeft  plaatsgevonden.   Cost per click vind ik een betere oplossing dan Cost per mille, omdat het hier pas  geld kost als je er ook daadwerkelijk iets gebeurt. Een klik op je banner is nog  geen conversie, maar in ieder geval weet je wel dat er interesse is. Je zou er dan  aan kunnen denken om de landingspage20 waar je op uit komt aan te passen qua  boodschap.   Dit kan zijn een offerte aanvragen of aanvraagformulier invullen. CPL methodes  worden vaak gebruikt door affiliate programma’s. Affiliate marketing is het  promoten van producten of diensten op andere websites. Dit gebeurt op basis  van commissie.21 Een voorbeeld: Als een bedrijf pc’s via internet verkoopt, maar  het gaat niet zo goed als het bedrijf gehoopt had, dan kun je er voor kiezen om in  plaats van te adverteren het product te promoten via andere websites. Het  bedrijf komt dan met website link op relevante websites te staan. Dit gaat in  samenwerking met een bedrijf die hierin gespecialiseerd is. Er wordt vooraf een  budget afgesproken. Het bedrijf betaald dan per lead, bezoeker of sale die  gegenereerd wordt in deze campagne. Dit is een effectieve manier van  adverteren, omdat het op basis van het ‘no cure no pay’ principe werkt. Alleen  als er leads, bezoekers of sales worden gegenereerd dan kost het geld. Stel dat         20 Landingspage: Dit is een pagina waar je op uitkomt na op een tekstadvertentie of banner te klikken. Deze pagina bevat  een boodschap als vervolg op de tekst in uit de advertentie waar je op het geklikt.  21 bron: Affiliate marketing op: http://nl.wikipedia.org/wiki/affiliate_marketing  (02 juni 2009) 

(24)

het vooraf afgesproken budget 1000 euro is en een lead kost 2,50 euro, dan  wordt de campagne na 400 leads de campagne stop gezet. 22  Deze methodes, vooral Search Engine marketing, worden door commerciële  websites gebruikt. Omdat Search Engine Optimization zelf gedaan kan worden,  als je verstand hebt van HTML, wordt dit ook vaak op niet commerciële sites  toegepast. Google Adwords is een van de meest voorkomende marketing Tools  voor Zoekmachines. Adwords maakt gebruik van de Cost Per Click methode.                             

 

       22 bron: Zoekmachinemarketing, auteur: Mark Jansen 

(25)

Hfdst 3: Editorial content versus User generated content 

  Tijdens mijn stage bij RedesignMe is mij gevraagd om te onderzoeken wat er  gedaan kon worden aan de website om hem hoger in de Google index te krijgen.  En dan ook te onderzoeken of Google comments indexeert. Bij community based  website is het geval dat de gebruiker ook inhoud op de website zet. Dat gaat via  een andere weg, dan dat hij door een webmaster geplaatst wordt. Het is dus zo  dat Google comments en andere user generated content niet goed of helemaal  niet indexeert. De reden waarom dit niet geïndexeerd wordt is mij niet duidelijk  en zal ik met dit onderzoek onder de loep nemen. Het probleem is gebleken bij  mijn onderzoek bij RedesignMe. Er moet eerst gekeken worden naar wat het  verschil is tussen zogenaamde user generated content en editorial (redactioneel)  content.  Het internet staat vol met websites met allerlei verschillende soorten content. Op  de website www.ddux.org vertelt Bas Evers in en artikel dat de definitie van  content tekst is (d.i. paragrafen, zinnen en woorden). Op het internet kun je  onder content alles bevatten wat je daar vindt, afbeeldingen, filmpjes, flash  elementen, tekst en muziek. Zelfs de navigatie en knoppen op de website vallen  onder content. Nu is er goed een onderscheid te maken tussen twee  overkoepelende soorten content, namelijk: redactionele content en user  generated content (verder aangeduid als UGC). Redactionele content is door een  team van experts uitgedacht. Deze content is zorgvuldig geschreven en heeft een  duidelijk doel, bijvoorbeeld als nieuwsbericht, recensie of informatie verschaffen  over een bedrijf. Deze tekst wordt ook door een webmaster op een site gezet en  staat hard in de site. User generated content wordt niet van te voren door een  webmaster op de website gezet, maar pas als de website actief is en toegankelijk  voor gebruikers. Deze wordt geupload door de gebruiker van de site en via een  upload formulier geplaatst en in een database opgeslagen. Vervolgens wordt het  in de HTML‐code gezet. Mij lijkt het dat Google hier meer moeite mee heeft om  het te indexeren, omdat het een langere weg is voordat het online staat.. 

(26)

User Generated Content is content die door een gebruiker van de website op de  site wordt gezet. Dit kan tekst zijn, maar ook video of afbeeldingen. Een  belangrijk verschil tussen redactionele content en UGC, is dat UGC op een andere  manier in de site wordt gezet als redactionele content. Redactionele content is  door een webmaster direct in de HTML code gezet, terwijl UGC via een upload  formulier van de site online wordt gezet. In beide gevallen komt de content in de  HTML structuur van de website te staan en zal Google er geen onderscheid in  maken. Er zijn genoeg websites die via een Content Management System (CMS)  hun editorial content plaatsen. Er zullen andere redenen gemoeid zijn met het  indexeren van User Generated Content.   Het is niet dat Google de tekst niet kan indexeren, het is dat de content die door  gebruikers wordt geupload, wel te maken heeft met het onderwerp, maar niet is  afgestemd op de zoekmachine optimalisatie van de site. In Hoofdstuk 2 is  uitgelegd wat er moet gebeuren om een website te optimaliseren voor  zoekmachines. Hierin werd uitgelegd dat meta‐tags en tekst een grote rol spelen.  En dan met name dat de meta‐tags met de tekst overeen komen. Bij User  Generated Content websites is het het geval dat een groot deel van de tekst die  geplaatst wordt, niet overeen komt met de optimalisatie die is toegepast. Als  bijvoorbeeld een fietsenmaker een blog heeft ingericht waarop zijn klanten hun  mening over de service kwijt kunnen en hij heeft als meta‐tag keywords:  fietsreparaties, onderdelen, trappers, zadels, frame. Dan moeten deze woorden  terugkomen in de tekst die een user schrijft. Als een persoon dan het volgende  commentaar schrijft: “Ik heb m’n fiets gister opgehaald en hij fietst weer  fantastisch. Gister lekker in de Veluwe rondgereden.” Deze tekst komt helemaal  niet met elkaar overeen. Google ziet geen link tussen tags en de tekst, waardoor  Google dit niet als relevant beschouwd. In dit voorbeeld kan het zijn dat de  website van de fietsenmaker is ingericht om zijn diensten te promoten en dat de  fietsenmaker later heeft besloten om zijn website ook als panel te laten dienen,  waarop klanten hun mening kunnen geven. Hierdoor is de SEO niet voor het Blog  geschikt. In het volgende hoofdstuk, komt aan bod wat erbij komt kijken als je  een website wilt optimaliseren voor zoekmachines.   

(27)

Hfdst 4: SEO voor community based websites 

  Zijn SEO methodes voor commerciële sites ook toepasbaar op community based  websites?  Community based websites hebben hele andere doeleinden dan commerciële  websites. Commerciële websites zijn voornamelijk in het leven geroepen om  conversiedoelen te halen die alles te maken hebben met verkoop, nieuwe klanten  binden en bekendheid voor het bedrijf te verkrijgen. Community websites zijn  plekken waar grote groepen mensen online  actief deelnemen aan activiteiten,  dat kan zijn: je vrienden in de gaten houden, teksten schrijven voor logs of fora,  filmpjes plaatsen en daarover discussiëren. Community based websites hebben  als conversiedoel om hun community te vergroten met leden die actief  deelnemen in de community. Als de conversiedoelen anders zijn, zijn dezelfde  usability methoden dan nog wel toepasbaar?  Een Google Adwords campagne is altijd toepasbaar op een community based  website. Een Adwords campagne kun je helemaal specificeren op de community.  Je kunt een bedrijf dat gespecialiseerd is in Adwords campagnes, zoekwoorden  laten samenstellen waarop jouw site gevonden moet worden. Dit kun je  natuurlijk altijd zelf doen. Optimalisatie voor zoekmachines (SEO) is ook  toepasbaar op community based websites. Iedere website, hoe groot of hoe klein,  heeft een HTML structuur, waarin meta‐tags te definiëren zijn met een  discription en keywords. De meta tags moeten door de gehele website adequaat  doorgevoerd zijn. Dit aan de hand van het voorbeeld dat ik in hoofdstuk 2 geef.     “In de code ziet een meta­tag er als volgt uit:    <meta name="description" content="Op deze pagina vind je een overzicht van alle producten of  diensten waaraan jij kan bijdragen met je creatieve input. De ideeën met de meeste stemmen  worden beloond." />  <meta name="keywords" content="Producten, diensten, co­creatie, challenges"/>    Ook de pagina titel is een cruciaal SEO element wat absoluut belangrijk is voor  wat voor site dan ook. 

(28)

Het weblog SEOmoz heeft een lijst opgesteld met belangrijke SEO elementen met  daarbij een gradatie van welke het zwaarst wegen.    Dit zijn de vier meest cruciale:  1. Keyword Use in Title Tag – Keywords moeten terugkomen in de titel  2. Anchor Text of Inbound Link – Naamgebruik in de paginalinks 

3.  Global  Link  Popularity  of  Site  –  Globale  link  populariteit  van  de  website  (Linken van andere websites naar jouw website) 

4. Age of Site – Oudere site worden als betrouwbaarder gezien.   

Bovenstaande  lijst  geldt  voor  SEO  in  het  algemeen  en  is  toepasbaar  op  zowel  commerciële  websites  als  op  community  based  websites.  Het  is  dus  belangrijk  om  een  community  based  website  net  zo  te  optimaliseren  als  je  bij  een  commerciële website doet. Ook al is je website in het geheel user generated, zorg  dat er altijd een stuk redactionele tekst in staat, waar keywords in voorkomen,  zodat Google daar in ieder geval houvast aan heeft.   

Community optimaliseren 

Bij een community based website moet je wel met bepaalde dingen rekening  houden, omdat die net wat anders gaan dan bij commerciële website. In het blog  SERoundtable is een artikel gewijd aan SEO optimalisatie van fora en Community  websites. Hierin stonden een aantal interessante punten. Zij zeggen terecht, dat  bij een community based website, de users enorm belangrijk zijn. Daarom is het  relevant om de gebruikersnamen met h1 tags te highlighten. Dit ook zo met de  titels op de profielpagina. Hierdoor worden deze beter door Google opgepikt. Als  er een mogelijkheid is om widgets23 in te zetten, is dit zeer aan te bevelen. Dit  heeft alles te maken met het linken naar externe websites. Als je een widget  beschikbaar stelt en deze wordt door de leden van de community op andere  websites geplaatst, dan heb je grote kans dan je veel verkeer krijgt vanuit andere  websites. Dit is een aspect dat Google als zeer positief ziet en daarom jouw site         23 Een widget is een interactieve banner, die je in andere sites kan plaatsten, hierdoor krijg je meer exposure en meer  hits naar een site. 

(29)

als relevant zal zien. Om dit aantrekkelijk te maken voor de community, moet je  er dan wel voor zorgen dat de widget er leuk uit ziet.  Nog een belangrijk aspect van SEO voor community based websites is dat je  ervoor moet zorgen dat alle titels van onderwerpen goed gemodereerd zijn,  zodat deze goed matchen. De community zorgt voor de tekst en inhoud van een  groot deel van de pagina’s. Maar het zou goed zijn als je zelf controle houdt op  wat er gepost wordt en dat je zelf ook reageert op de posts van mensen. Hiermee  kun je namelijk sturen, dat de community blijft praten over het onderwerp. Als  de tekst gerelateerd blijft aan het onderwerp, blijft Google deze inhoud ten goede  indexeren. Als mensen van het onderwerp afwijken en over iets anders gaan  praten, dan krijg je vervuilde inhoud en zal Google geen link leggen met het  onderwerp en de optimalisatie, waardoor Google de informatie niet goed  indexeert.                         

(30)

Hfdst 5: Conclusie – SEO wel of niet toepasbaar op community 

websites 

  SEO is zeer zeker toepasbaar op community based websites. De SEO methodes  van commerciële websites zijn ook toe te passen op community based websites.  De kwaliteit van editorial content is heel hoog omdat het vooraf is uitgedacht en  een duidelijke boodschap heeft, waar keywords en zoekwoorden aan kunnen  worden gekoppeld. Bij UGC is dat een ander verhaal. Gebruikers van community  websites plaatsten vaak wat ze denken. Wat dus totaal niet aansluit op het  onderwerp van de pagina, waar dus alle SEO factoren zoals meta‐tags, enz op  aangepast zijn. Google ziet geen relevantie met de user generated tekst en het  editorial gedeelte in de code, waardoor het zeer slecht of niet geïndexeerd wordt.  Zodra dit wel het geval is, wordt het door Google opgepikt en zal dit jouw plek in  de rankings verhogen. Houd er wel rekening mee dat Google tijd nodig heeft om  een website te indexeren. Het kan dus even duren, maar wordt de website  opgepikt, zul je het resultaat merken.    Er zijn methodes waar je specifiek SEO aanpassingen maakt voor community  based websites. Maar om te zorgen dat een community based website net zo  hoog scoort moeten gebruikers bijna redactioneel gaan schrijven. Wikipedia is  een heel goed voorbeeld van een redactionele Community based website. Hier  werkt een community van mensen aan het aanvullen en bewerken van artikelen  van een online encyclopedie. Het voordeel van deze website, is dat ieder  onderwerp dat door een gebruiker wordt gestart, van begin tot einde puur en  alleen over het onderwerp gaat. De inhoud van een artikel komt dus ook heel  goed overeen met de titel en de optimalisatie van de pagina. Waardoor Google  heel veel overeenkomsten zien met het onderwerp, de inhoud en de meta  onderdelen van de site. Hierdoor scoort Wikipedia heel hoog in de  zoekresultaten van Google. Op de website van search engine land ben ik artikel  tegengekomen die hebben het over tagclouds. Dat zijn veel gebruikte  zoekwoorden die in een wolkje op de website staan. Deze woorden hebben ook  verschillende groottes. Des te groter het woord des te meer er op gezocht is. Dit 

(31)

schijnt. Het is een soort van catalogus met alle populaire zoekwoorden. Als je op  een tag klikt, zie je een overzicht met alle recente items. Dit werkt zeer positief  voor SEO. Het stimuleert het linken binnen de website. Je navigeert zo op een  strategische manier door de content van je website heen. Je link doormiddel van  een tagcloud ook altijd nar relevante items, wat Google positief indexeert.  Daarnaast zijn de tags tekstuele links, waardoor de bots van Google deze goed  kan indexeren. Nu zegt de interactie ontwerper in mij, dat dit niet een hele  functionele manier is. Een tagcloud ziet er onverzorgd uit, omdat alle woorden  door elkaar staan. Als je je best hebt gedaan om een mooie overzichtelijke  website te maken en je plaatst er vervolgens een tagcloud in, kan deze cloud een  storende factor in de site zijn. Je moet dus goed afwegen of je dit qua SEO nodig  hebt. Als je site goed vindbaar is door de andere aanbevelingen en methodes, zou  ik heb achterwege laten om de site helder en rustig te houden.    Verder is het heel belangrijk dat iedere aparte pagina, keywords heeft die zijn  aangepast. Er moet altijd een overeenkomst zijn tussen de optimalisatie  elementen in de HTML structuur, de meta‐tags en de tekst. Een ander belangrijk  aspect is dat de gebruikers van de website blijven schrijven met betrekking tot  het onderwerp van de pagina en niet afdwalen, waardoor je vervuilde inhoud  krijgt. Je moet dus als webmaster de community een bepaalde richting insturen,  waar zij over gaan praten (Semi redactioneel). Een aanvullende methode is om  de serieuzere gebruikers in de community aan te stellen tot editors. Zij kunnen  meehelpen de topics of onderwerpen van een community based website aan te  sturen, waardoor andere gebruikers daarop kunnen reageren en meer teksten  schrijven die gerelateerd zijn aan de keywords die gedefineerd zijn aan de hand  van het onderwerp van het blog.  Zoals bij RedesignMe heeft iedere bedrijfscase een eigen pagina met tekst waarin  de opdracht omschreven staat, aan de hand daarvan kunnen gebruikers aan de  slag met het posten van hun ideeën, user generated content. In de editorial tekst  van RedesignMe, zijn keywords gekozen die in de meta‐tags terugkomen. Deze  zullen terugkomen in de titels en beschrijvingen van de redesigns, maar ook in  de comments die mensen schrijven over de redesigns. Gebeurt dit niet, kun je  mensen uit de community vragen om een aanzet te geven, door een aantal 

(32)

comments te plaatsten. Deze teksten zijn dan user generated, maar wel gericht  op de keywords die relevant zijn aan het onderwerp. Zorg wel dat het objectief  blijft. Het mag niet doorschemeren bij gebruikers dat ze erg gecontroleerd  worden, of dat ze gestuurd worden. Als dit openbaar wordt, zal dit de sfeer in de  community aantasten en zullen gebruikers negatieve comments posten,  waardoor je content krijgt die totaal niet met het onderwerp te maken hebben.  Ook beïnvloedt het andere gebruikers in de community, waardoor zij zich met de  discussie bemoeien. Het is en blijft een community, waar eigenlijk niets  geregisseerd is als het om de gebruikers gaat. Dit heeft ook weer alles te maken  met de gebruiksvriendelijkheid van de website. Het is algemeen bekend dat het  een tijd duurt voordat je resultaat ziet van optimalisatie. Dit kan een aantal  weken duren, soms maanden. Daarom is het in het geval van RedesignMe nuttig  om toch op een andere manier bekendheid te geven aan challenges. Omdat  challenges maar een aantal weken actief zijn. Een betere manier om snel nieuwe  bezoekers aan te trekken is door persberichten te sturen en widgets in te zetten,  waarmee de bestaande community op andere sites en communities aandacht  trekken. Zo heb je kans dat er via andere sociale netwerken mensen naar de site  toe komen. Toch raad ik aan de webpages te optimaliseren, mocht het in  sommige gevallen toch niet al te lang duren voordat Google langskomt. En des te  meer pagina’s er te vinden zijn (ondanks de challenges niet meer actief zijn,  blijven ze wel bestaan op de website), des te betrouwbaarder de site wordt voor  Google, wat ook weer positief zal uitwerken op de vindbaarheid en de rankings.    Als interactie ontwerper kun je er niet omheen, dat een website geoptimaliseerd  moet zijn voor zoekmachines. Je kunt een site heel gebruiksvriendelijk maken,  maar hij moet eerst gevonden worden, voordat er gebruik van kan worden  gemaakt. Maar SEO moet niet in de weg staan van een gebruiksvriendelijke site.  Dit noem ik nog een keer, omdat het ontzettend belangrijk is dat de website een  soort thuisbasis wordt van de gebruiker. Commerciële websites bezoek je een  keer, vervolgens haal je er informatie af en kom je hooguit één of twee keer  terug. Een community based website is een site waar men dagelijks op bezoek  komt. Dit moet dan ook qua workflow, interactie en ook tekstgebruik op de  gebruiker afgestemd zijn.  

(33)

  In mijn onderzoek heb ik ondervonden dat er ontzettend veel artikelen zijn  geschreven over Search Engine Optimization en Search Engine Marketing. En  allemaal zijn ze verschillend. Een 100 tal factoren spelen een rol. Alleen wordt   over het geheel niet duidelijk wat nu echt waar is. Er is een klein groepje mensen,  die echt weten wat er nu precies moet gebeuren met zoekmachine optimalisatie.  Tientallen bedrijven zijn al meer dan 10 jaar bezig te zijn met zoekmachine  optimalisatie. Zij blijven zeer geheimzinnig over SEO. Ze vertellen vaak wat van   de grondbeginselen, maar lang niet genoeg om uit te vinden hoe het nu precies  zit. Als je een specialist benaderd over SEO, zal hij jouw site willen optimaliseren   en niet vertellen wat de geheimen van de smid zijn. Uit een aantal handleidingen  over Zoekmachine optimalisatie, van bijvoorbeeld SEOguru en zoekmachine  marketing van Mark Jansen, krijg je een goed beeld van wat je moet doen om je  website in de Google rankings te krijgen. Maar uiteindelijk is er maar één partij  die het echt weet en dat is Google zelf. Alleen geven zij geen concrete informatie  uit handen, omdat er zoveel concurrentie is tussen bedrijven om maar zo hoog  mogelijk in de lijst te komen. Dus ze willen dat het zo eerlijk mogelijk verloopt,  door maar een fractie uit handen te geven. Misschien zit er meer achter de  geheimhouding van de excacte regels en doet Google dit om een machtspositie te  houden. Als je naar een SEO specialist toegaat is het belangrijk om te controleren  (voor zover mogelijk), of dit bedrijf betrouwbaar is. Het kan zijn dat bedrijven de  zogenaamde ‘black hat’ methode toepassen. Dat is het illegaal optimaliseren door  bepaalde trucs te gebruiken, waardoor je in één keer omhoog schiet in de  rankings. En na een bepaalde periode van tijd zal Google hier achter komen en  wordt je site nooit meer gevonden, omdat je uit de rankings wordt verwijderd.   SEO kost veel inspanning en geld, maar je kunt met zelf optimaliseren, zowel een  commerciële als community website  goed vindbaar maken. Je moet wel even  geduld opbrengen voordat het resultaat er is.     

Referenties

GERELATEERDE DOCUMENTEN

Wanneer u een bezoekt brengt aan onze winkels of locaties of met ons communiceert via websites, sociale mediapagina’s, e-mail of andere digitale functies (“websites”), of wanneer

Deze brochure en de gesprekken die we graag met je voeren, maken dat we onze zorg zo goed mogelijk kunnen afstemmen op wat jij nodig hebt en belangrijk vindt?. Na het lezen van

Uw persoonsgegevens worden door Patina Dakdenkers opgeslagen ten behoeve van boven- genoemde verwerking(en) voor de periode:.. • Gedurende de looptijd van de overeenkomst + zes

Een site maken met website builder software kent nog veel meer voordelen, deze komen aan bod bij de volgende stappen.. De inrichting van je website is

Het doel van dit convenant is om afspraken vast te leggen over hoe Partijen procedures voor een Blokkeringsbevel vormgeven, wat zij daarbij over en weer van elkaar kunnen

[r]

Het blijkt dat consumenten eerder geneigd zijn om meerdere kanalen, zoals internet en de winkel in combinatie met elkaar te gebruiken dan het ene kanaal in te wisselen voor

In veel gevallen zijn het erg interessante en regelmatig aangepaste, verzorgde sites waar je met ple- zier geregeld eens gaat kijken en die zeker een meer- waarde geven aan de