• No results found

De toekomst van het Web

N/A
N/A
Protected

Academic year: 2021

Share "De toekomst van het Web"

Copied!
70
0
0

Bezig met laden.... (Bekijk nu de volledige tekst)

Hele tekst

(1)

De toekomst van het Web

Een toekomstvisie op de integratie van Web 2.0 en het

Semantic Web

6-7-2010

Rijksuniversiteit Groningen Florian Kunneman

Eindscriptie voor de master Communicatie- en Informatiewetenschappen, Hoofdrichting Computercommunicatie

(2)
(3)

3

Inhoudsopgave

Inleiding

4

1: Web 2.0

6

1.1: O’Reilly over Web 2.0

6

1.2: Anderen over Web 2.0

8

1.3: Web 2.0 diensten

9

1.4: Technologieën van Web 2.0

15

2.: Het Semantic Web

18

2.1: De herkomst van het Semantic Web

18

2.2: De totstandkoming van het Semantic Web

19

2.3: Het Semantic Web van nu

29

3: Aanknopingspunten tussen Web 2.0 en het Semantic Web

36

3.1: Semantische codering

37

3.2: Semantische uitwisseling

39

3.3: Totstandkoming van betekenis

40

4: Modellen voor de verbinding van folksonomie en ontologie

43

4.1: Het modelleren van folksonomieën in ontologieën

43

4.2: Automatische integratie van folksonomieën en het Semantic

Web

47

4.3: Ontologieën die bottom-up tot stand komen

49

4.4: Overige modellen

52

5: Toekomstvisie

56

5.1: Het belang van semantiek op het Web

56

5.2: De rol van de gebruiker bij semantiek op het Web

59

5.3: De bijdrage van de gebruiker aan de operationalisering van het

Semantic Web

61

5.4: Indicatoren voor de ontwikkeling van het Semantic Web

65

5.5: De evolutie van semantiek op het Web

66

(4)

4

Inleiding

Het Internet is zonder twijfel het grootste informatieplatform van de wereld. Het kent een lang ontwikkelproces dat in gang werd gezet in de jaren ’60. Het is een bekend verhaal dat het huidige Internet begon als een klein computernetwerk, genaamd ARPANET, dat

fungeerde als communicatie-instrument van het Amerikaanse leger. Dit kleine netwerk kon doorgroeien naar het Internet op basis van de ideologie van ‘open architecture networking’: nieuwe netwerken konden gecreëerd worden met een vrije keuze voor de gebruikte

technologie, en vervolgens verbonden worden met andere netwerken via een

overkoepelende ‘Internetworking Architecture’ (Leiner et. al., 2000). In het begin van de jaren ’90 kwam Tim Berners-Lee met een model op de proppen waarmee deze architectuur ten volle benut werd middels een universele plaats waarvandaan gebruikers toegang hebben tot informatie: het World Wide Web. Belangrijkste componenten hiervan waren URL’s, waardoor documenten afzonderlijke plaatsen op het Web kregen, en hyperlinks, waardoor alles met alles geassocieerd kon worden. Het kostte Berners-Lee aanvankelijk wat moeite om mensen te overtuigen van het nut om informatie aan te bieden of op te zoeken op het Internet, maar toen dit gelukt was gingen in navolging van onderzoekers en whiz kids steeds meer ‘gewone’ mensen ervan gebruik maken (Berners-Lee, 1996).

Een internationaal platform voor informatie leek voor veel mogelijkheden te gaan zorgen. Temeer daar het Web zeer vrij is ten opzichte van traditionele media als kranten en omroepen. Iedereen die dat wil kan voor informatie zorgen op het Web. Gek genoeg werd het in de eerste jaren vooral als traditioneel medium gebruikt: er was een klein aantal gespecialiseerde bedrijven die voor de meest gelezen inhoud zorgden en er werd een top tien van meest bezochte websites bijgehouden. Vergelijkbaar met televisiezenders die afgerekend worden op hun kijkcijfers. Redenen hiervoor waren de strategie van

‘Internetreuzen’ om zich te onderscheiden met het aanbod van informatie en het feit dat veel mensen afgeschrikt werden door de op het oog ingewikkelde webtaal HTML die nodig was om informatie aan te bieden.

De distributie van informatie is in de loop van het afgelopen decennium echter drastisch veranderd. Dit hangt samen met een verlaagde instapgrens voor het delen van informatie, die tot uiting komt in diensten als weblogs, wiki’s en sociale netwerksites. Kennis van HTML is hierbij niet nodig om teksten op het Web te publiceren. Het resulterende Web waarop de gebruiker zowel producent als consument van informatie is, wordt getypeerd als Web 2.0. Hierin is informatie afkomstig van een groot aantal mensen, in plaats van een klein aantal gespecialiseerde bedrijven.

Grotendeels afzonderlijk van het Web 2.0 heeft zich de afgelopen jaren nog een ander web ontwikkeld: het Semantic Web. Ook deze komt uit de hoge hoed van Tim

Berners-Lee, die na het ontwerpen van het World Wide Web bepaald niet stil heeft gezeten. Het Semantic Web is net als het gewone Web gebaseerd op vrij te gebruiken talen, die in dit geval echter gebruikt kunnen worden om gegevens op een semantische en voor computers begrijpelijke manier aan elkaar te verbinden. Mede door de complexiteit van deze taal is het Semantic Web nog niet het domein van de gewone gebruiker geworden, zoals het Web 2.0 dat wel is.

(5)

5

manieren aanvullen. Het Web 2.0 kan zorgen voor een brug tussen de gewone gebruiker en het Semantic Web, wat onder meer kan leiden tot de toevoer van semantiek. Aan de andere kant kan het Semantic Web ervoor zorgen dat informatie in Web 2.0 semantisch verbonden en geïntegreerd raakt. Een belangrijk obstakel voor een verbinding tussen de twee is echter dat Web 2.0 gericht is op mensen terwijl het Semantic Web gericht is op computers. In deze scriptie zoek ik naar aanknopingspunten en geef ik op basis daarvan een toekomstvisie van het Web.

In de eerst twee hoofdstukken zullen respectievelijk het Web 2.0 en het Semantic Web uitgebreid beschreven worden. In hoofdstuk 3 zoek ik vervolgens naar aanknopingspunten tussen de twee. Hoofdstuk 4 staat in het teken van een praktische manier waarop Web 2.0 en het Semantic Web geïntegreerd kunnen worden, met oog op folksonomieën en

(6)

6

1: Web 2.0

Hoewel Web 2.0 inmiddels een ingeburgerde term is, is het moeilijk om kort samen te vatten waar hij precies voor staat. De naam ‘Web 2.0’ suggereert een nieuwe versie van het Web met oog op de technologische componenten, en ontworpen door de ontwikkelaars van het oorspronkelijke web. Niets is minder waar. De term is in 2004 naar voren gebracht door Dale Dougherty (Vicepresident van mediabedrijf O’Reilly), om een groter wordende groep

websites, of eerder diensten, die significant verschilden van veel eerdere diensten samen te vatten (Madden & Fox, 2006: 1). Deze benaming sprak blijkbaar tot de verbeelding,

aangezien veel mensen het vervolgens opgepakt hebben. Tim O’Reilly, de oprichter van het gelijknamige mediabedrijf, constateerde echter dat de term vaak verkeerd gebruikt werd en trachtte voor opheldering te zorgen middels zijn vaak geciteerde artikel ‘What is Web 2.0 – Design Patterns and Business Models for the Next Generation of Software’ uit 2005. Daarin licht hij zeven principes toe die terug te zien zijn in applicaties en bedrijfsstrategieën van het Web 2.0-tijdperk. Toch gelden deze principes voor veel mensen niet als sluitende betekenis van Web 2.0. Mensen zijn het vooral met O’Reilly oneens waar hij bedrijven een belangrijk aandeel toebedeelt voor het ontstaan van het Web 2.0. De beschrijving van O’Reilly is echter wel zinvol met oog op specifieke technieken, applicaties en conventies op het nieuwe Web.

Dit hoofdstuk vangt aan met een samenvatting van de ideeën van O’Reilly over de kenmerken van Web 2.0. Vervolgens wordt gekeken naar reacties van anderen op deze visie, om de ontwikkeling van het Web in perspectief te zetten. Tot slot volgen inhoudelijke

beschrijvingen over Web 2.0, waarbij de aandacht uitgaat naar kenmerkende diensten en technologieën.

1.1: O’Reilly en Web 2.0

Zoals gezegd is de term ‘Web 2.0’ voor het eerst genoemd in 2004 door Dale Dougherty van O’Reilly Media Inc. om een opkomende groep Internetapplicaties te typeren. Als belangrijke aanleiding voor deze opkomst noemt O’Reilly (2005) de ‘dot-com boom’ in 2001. De periode 1995-2000 werd gemarkeerd door een ‘dot-com bubble’ waarin internetbedrijven de

beursen beklommen op basis van de belofte dat ze erg groot zouden worden. Al die bedrijven wilden een belangrijke rol spelen op het Internet, en hun beleid bestond uit het vergroten van de bekendheid middels reclame en het werven van zoveel mogelijk klanten. Aan winst maken werd nog niet gedacht. In 2001 daalden de aandelen van de meeste ‘dot-coms’ door een gebrek aan vertrouwen en raakten veel bedrijven failliet1. O’Reilly ziet deze boom niet als een teken dat het Web groter leek dan het is, maar als een keerpunt voor het Web waarbij de bedrijven die overbleven bepaalde overeenkomsten hadden. Een soort van evolutie van het Web door ‘survival of the fittest’ dus.

In totaal beschrijft O’Reilly zeven principes die volgens hem ten grondslag liggen aan diensten en technologieën op het nieuwe Web. Deze principes vormen een ‘Web 2.0-kern’, waartoe de diensten op het Web zich op een bepaalde manier verhouden. Niet iedere dienst vertoont dus in gelijke mate elk van de zeven principes.

1

(7)

7

Het eerste principe is The web as platform. Hiermee wijst O’Reilly op het verschil tussen de head en de long tail. De head is het geheel van grote bedrijven die informatie op het Web aanbieden en de long tail alle andere producenten van informatie, zoals mensen met persoonlijke websites. In de eerste jaren heerste het idee dat grootte er toe deed op het Web en werden ranglijsten bijgehouden van meest bezochte websites. Adverteerders

richtten zich vooral op deze topwebsites. Google zag echter brood in de long tail en vond een manier om advertenties te kunnen plaatsen op mogelijk iedere website. Dit heeft het bedrijf bepaald geen windeieren gelegd. Wat ze goed inzagen is dat het collectief van de long tail vele malen groter is dan de head van het Web. Door ieder deel van het Web te benutten is Google zeer groot geworden. Aan deze strategie ligt een belangrijke visie ten grondslag. Namelijk dat het Web niet enkel een massamedium is via welke mediabedrijven een groot publiek kunnen bereiken, maar vooral een platform voor mensen om te

participeren en informatie te delen.

Het tweede principe van O’Reilly is Harnessing Collective Intelligence. Dit is een erg belangrijk kenmerk voor O’Reilly, aangezien het centraal staat in een korte definitie van Web 2.0 die O’Reilly in een blog geeft (O’Reilly, 2006). Collectieve intelligentie heeft betrekking op de meerwaarde die het oplevert om de kennis die individuen delen op het Web te

combineren. Kort gezegd: de combinatie is meer dan de som der delen. Het gaat hier om de kunde om gebruikers zoveel mogelijk de kans en vooral motivatie te geven om informatie te delen op het Web en om deze informatie op een slimme manier samen te voegen en

vervolgens in nuttige vormen weer aan te bieden aan de gebruiker als dienst. Met het eerste principe wijst O’Reilly dus op het Web dat door mensen als platform gebruikt kan worden om actief deel te nemen in plaats van passief informatie te consumeren. Het tweede principe duidt op de voordelen met oog op informatie die dergelijke collectieve participatie met zich meebrengt.

Het derde principe heet Data is the Next Intel Inside. Hiermee wijst O’Reilly op een verschuiving van software naar database management als middel van een bedrijf om zich te onderscheiden. De belangrijkste software van een Web 2.0 bedrijf is haar database, en database management wordt de competitieve positie die een bedrijf verwerft ten opzichte van andere bedrijven. Kortom, de database met collectieve intelligentie is het belangrijkste product van een bedrijf. O’Reilly ziet wel in dat deze strategie gevolgen heeft voor de privacy van de gebruiker. Men neemt immers informatie mee naar een Website, die de website vervolgens in haar database opslaat en gebruikt voor eigen doeleinden.

Ook het vierde principe, genaamd End of the Software Release Cycle, heeft overlap met het principe ervoor. In het derde principe werd gewezen op het feit dat software niet meer het belangrijkste product van een bedrijf is. Dit heeft gevolgen voor de manier waarop het gebracht wordt, namelijk als dienst in plaats van product. Dit wil zeggen dat de software in orde moet zijn om de mensen te faciliteren in het gebruik van het Web als platform. De zoekmachine van Google is een middel via welke Google geld verdient door advertenties. Om deze reden moet het te allen tijde functioneren, en moet Google ervoor zorgen dat steeds het actuele Web doorzocht kan worden, zoekresultaten niet beïnvloed worden door spam en de snelheid niet vermindert door de vele gelijktijdige zoekopdrachten. Updates worden daarom niet zoals bij veel offline software in termijnen en tegen betaling

(8)

8

Met het vijfde principe, Lightweight Programming Models, belicht O’Reilly een ander spectrum van het nieuwe Web, namelijk de manier waarop met programmeermodellen van webapplicaties wordt omgegaan. Het codewoord hierbij is simplicity. Door simpele en open programmeermodellen te gebruiken bij applicaties wordt het mogelijk voor derden, als hackers en particuliere programmeurs, om het programma en haar gegevens te remixen tot nieuwe diensten. O’Reilly wijst in dit kader op technologieën als AJAX, REST en RSS. Deze zullen uitgebreid besproken worden in de sectie over technologieën in dit hoofdstuk. De meerwaarde van een simpel en open programmeermodel is dat de kans op originele applicaties een stuk groter is dan bij complexere diensten. Verder noemt O’Reilly geen duidelijk voordeel voor de aanbieder van de originele dienst. Het zou echter met bekendheid te maken kunnen hebben. Google Maps wordt bijvoorbeeld vaak hergebruikt voor nieuwe doeleinden, wat ervoor zorgt dat mensen het vaak terugzien.

Het zesde principe heet Software Above the Level of a Single Device. Dit principe houdt in dat het Web als platform niet langer gebonden is aan de PC, maar ook bijvoorbeeld vanaf de mobiele telefoon te bereiken is. Hierin is de dynamiek en openheid van Web 2.0 terug te zien. Bedrijven houden rekening met de flexibiliteit van het gebruikte apparaat en zorgen ervoor dat hun website ook vanaf de mobiele telefoon te gebruiken is.

Ook het zevende principe, Rich User Experiences, heeft betrekking op de gebruikte technologie. Net als bij het vijfde principe haalt O’Reilly in dit verband de webtechnologie AJAX aan. Deze is namelijk niet alleen heel dynamisch, maar maakt ook geavanceerde user interfaces mogelijk. Hierdoor beginnen applicaties op het Web steeds meer te lijken op applicaties op het besturingssysteem van de PC en wordt het voor bezoekers steeds prettiger om er gebruik van te maken. Dit zorgt er weer voor dat steeds meer mensen participeren op het Web. Dit laatste principe voert dus eigenlijk weer terug op het eerste principe van ‘Web as platform’.

Tot zover de zeven principes. Uit zijn artikel wordt duidelijk dat O’Reilly vooral enthousiast is over nieuwe ontwikkelingen op het gebied van bedrijfsstrategie en technologie. Om een vollediger beeld van Web 2.0 te schetsen besteed ik hieronder aandacht aan visies vanuit een ander perspectief.

1.2: Anderen over Web 2.0

Omdat O’Reilly het Web beschouwt vanuit het perspectief van het bedrijf, blijft het sociale aspect bij hem onderbelicht. Hij zegt weliswaar dat bedrijven die vallen onder de paraplu ‘Web 2.0’ gekenmerkt worden door hun aandacht voor informatie die iedere gebruiker meeneemt naar het Internet (collective intelligence), maar het meest opvallende aan Web 2.0 is dat steeds meer mensen er daadwerkelijk voor kiezen om actief bij te dragen aan het internet. Er is dus een bepaalde wisselwerking tussen bedrijven (profit en non-profit) die een platform bieden en gebruikers die hier massaal gebruik van maken.

(9)

9

Ook toen dit wel mogelijk werd is het slechts op kleine schaal opgepakt, vanwege de

schijnbaar hoge instapgrens om HTML-pagina’s te maken. Door technologische ontwikkeling is het echter een stuk makkelijker geworden voor mensen om bij te dragen aan het Web, waardoor het in feite weer terug is op het originele spoor. Kortom, wat wij kennen als Web 2.0 is niet zozeer een nieuw Web, maar het Web zoals het van origine bedoeld is.

Voor Berners-Lee is het hedendaagse Web een stap in de goede richting en een overwinning voor de massa, die collectief het web kleurt. Het is echter geen toeval dat de andere Tim, O’Reilly, juist veel aandacht heeft voor de bedrijfsmatige kant van het Web, aangezien daar het meest geprofiteerd wordt van de collectieve intelligentie. Toch lijkt O’Reilly geen gelijk te hebben wanneer hij spreekt van een revolutie op het Web. Hij noemt de dot-com boom als keerpunt voor de koers van het web, maar het lijkt vooral de komst van bepaalde technologieën te zijn die ervoor zorgde dat het Web steeds meer een platform voor participatie is geworden. Die technologieën waren er waarschijnlijk ook gekomen zonder een algehele verandering van koers voor bedrijven op het Web. Anderson (2007: 6) is het daarom eens met Berners-Lee en stelt dat er niet zozeer sprake is van duidelijke

tegenstellingen tussen een ‘Web 1.0’ en ‘Web 2.0’, maar dat de laatste gezien moet worden als een gevolg van een vollediger geïmplementeerd Web. Hij maakt het veelzeggende onderscheid tussen een verzameling van technologieën (het ‘Web’) en de poging om de significantie van verschillende uitkomsten van deze technologieën te conceptualiseren (‘Web 2.0’).

De ontwikkeling van technologieën is terug te zien in de diensten op het web. Cormode (2008) maakt duidelijk dat het grote verschil tussen een hypothetisch Web 1.0 en Web 2.0 te maken heeft met de mate waarin mensen bijdragen aan de inhoud. De grotere aantallen zijn met name een gevolg van de lagere instapgrens om van bepaalde diensten gebruik te maken. Veel diensten van Web 2.0 zijn volgens Cormode dan ook niet zozeer nieuw ten opzichte van eerdere diensten, maar vooral meer gericht op de ‘gewone’ gebruiker. Online encyclopedieën, de persoonlijke logboeken, sociale netwerksites en websites voor filesharing, ze waren er allemaal al in een vroeg stadium van het Web. Ze zijn met de ontwikkeling van het Web echter een stuk aantrekkelijk geworden voor een groot aantal mensen.

Of de naam ‘Web 2.0’ gerechtvaardigd is of niet, het is inmiddels een ingeburgerde term die gelijk staat aan participatie en de kracht van de massa. Er kan gediscussieerd worden over de vraag of het de bedrijven waren die technologieën op een slimme manier toepasten of de technologieën die ervoor zorgden dat bedrijven op een nieuwe manier te werk gingen. Zeker is dat de ontwikkeling van technologieën een belangrijke rol heeft gespeeld in de massale participatie op het Web, doordat dit leidde tot een verlaagde instapgrens voor het gebruik van bestaande diensten. Aangezien de diensten en technologieën zo belangrijk zijn voor het concept ‘Web 2.0’ wordt daar in de rest van dit hoofdstuk dieper op ingegaan.

1.3: Web 2.0 diensten

Er zijn verschillende diensten die vallen onder de noemer van Web 2.0, doordat ze de gebruiker op hun eigen manier de kans bieden te participeren op het Web. In deze sectie worden de belangrijkste diensten besproken. Diensten worden vaak aangeboden op

(10)

10

wat deze inhoudt en gekeken worden naar de implicaties die het heeft voor communicatie en informatie op het Web.

1.3.1: De Weblog

Het concept van de weblog (afgekort ‘blog’) is heel simpel. Het is een open logboek van een persoon of groep, die met een bepaalde regelmaat nieuws of commentaar geeft of

persoonlijke ervaringen beschrijft. Dit is geen noviteit van Web 2.0, aangezien men dit al kon doen met behulp van persoonlijke webpagina’s. Blogs zijn dan ook niet zozeer nieuw in sociaal opzicht, maar vooral in technologisch opzicht. Deze technologische hulpmiddelen zorgen voor meer dynamiek, waardoor de blog een stuk makkelijker te gebruiken is dan een gewone webpagina.

Allereerst is het in vergelijking met persoonlijke websites een stuk makkelijker voor mensen om een blog bij te houden. Terwijl het hebben van een persoonlijke website kennis vereist van de webtaal HTML, met een steile leercurve voor de gewone persoon tot gevolg, kan de gebruiker zich bij blogs vooral concentreren op het schrijven van teksten. Software als ‘Blogger’ en ‘EditThisPage’, die vanaf 2000 veel gebruikt werd, maakt dit mogelijk (Weiss, 2005: 20). De Blog is echter niet alleen makkelijker toe te passen dan de persoonlijke

homepages van de jaren ’90, maar ook veel functioneler met oog op updates en verbindingen.

Om te beginnen is tijd een belangrijke factor bij blogs. Dit blijkt bijvoorbeeld uit het feit dat alle teksten in chronologische volgorde onder elkaar komen te staan. Belangrijker is echter een technologisch hulpmiddel, RSS, dat desgewenst bijhoudt wanneer een nieuwe tekst geproduceerd is. Een nadeel van persoonlijke homepages is dat geïnteresseerden de site steeds zelf moeten bezoeken om te kijken of er iets nieuws op staat. Met behulp van RSS kan de gebruiker simpelweg wachten op het bericht dat er iets nieuws op een blog staat. De technologische details van RSS worden later uitvoeriger besproken. Belangrijk voor nu is dat een RSS-feed een grote vooruitgang is ten opzichte van de statische hyperlink die alleen naar een webpagina verwijst, zonder de veranderingen bij te houden. Het Web met RSS wordt door sommigen dan ook ‘the live web’ genoemd (O’Reilly, 2005).

Een andere handige functie die bij blogs gebruikt wordt is de permalink. Dit is een variatie op de hyperlink, waarmee naar een specifieke tekst op een blog verwezen kan worden. Dit is heel handig wanneer iemand speciaal daarop wil reageren (Kolbitsch 2006: 190).

Een derde en laatste hulpmiddel dat zorgt voor dynamiek bij blogs is de trackback. Gewone hyperlinks staan op een bepaalde webpagina en verwijzen naar een andere pagina. Op de andere pagina wordt nergens duidelijk dat daar vanuit de ene pagina naar verwezen wordt. De hyperlink heeft slechts één richting. De trackback zorgt echter voor een verbinding met twee richtingen, waardoor schrijvers van blogs altijd weten wanneer naar hun inhoud wordt verwezen (Kolbitsch 2006: 191).

(11)

11

genoemd wordt (Kolbitsch 2006: 190). Daarin geven mensen hun mening en visie, en kan dit tot reactie en tegenreactie leiden. Idealiter leidt dit tot open discussies en nieuwe inzichten. O’Reilly (2005) benadrukt dat de blog een sterke concurrent is van mainstream media, specifiek vanwege het collectief van de blogosphere dat bepaalt wat interessant en van waarde is. Weiss (2005: 20) geeft een soortgelijke analyse, en stelt dat blogs het gat tussen consument en producent heeft verkleind, met ‘de kritische massa’ als resultaat.

Toch kleven er ook nadelen aan blogs. Anderson (2007: 7-8) stelt bijvoorbeeld dat ook de nieuwe verbindingsmogelijkheden hun tekortkomingen hebben. De permalink houdt bijvoorbeeld geen rekening met eenheden op een blog die veranderd of verplaatst worden. Een permalink blijft altijd hetzelfde, waardoor het niet de inhoud van een plaatsing kan garanderen. Ook de trackback werkt niet altijd goed. Daarvoor is het namelijk noodzakelijk dat zowel degene die een verwijzing maakt als degene naar wiens post verwezen wordt de functie van trackback ondersteunen. Sommigen kiezen hier echter bewust niet voor, om spam te voorkomen. Ook hebben blogs nadelen met oog op de inhoud. Kolbitsch (2006: 191) geeft aan dat blogs soms gezien worden als gezaghebbende teksten, terwijl ze vaak

bevooroordeeld zijn. 1.3.2: De Wiki

Ook de wiki, vooral bekend geworden door de online encyclopedie wikipedia, biedt iedereen de kans om bij te dragen aan een gezamenlijke informatieruimte. In tegenstelling tot

weblogs bestaat de informatieruimte bij wiki’s echter niet per definitie uit een netwerk van persoonlijke teksten, maar uit een netwerk van teksten die coöperatief tot stand zijn gekomen. Iemand die een tekst plaatst op een wiki, staat toe dat deze door anderen

aangepast kan worden. In technologisch opzicht geldt de wiki als een content mangagement system (CMS), waar vaak iedereen dezelfde rechten heeft (Kolbitsch 2006: 192). Doordat alle bezoekers op een wiki teksten kunnen aanpassen hebben wiki’s vaak een history functie, waarmee iedere eerdere versie van een tekst bekeken kan worden, en een rollback functie, waarmee eerdere versies hersteld kunnen worden (Anderson 2007: 8).

Het duidelijke voordeel van een wiki schuilt in de Web 2.0 gedachte dat gezamenlijke kennis meer waard is dan individuele kennis. Als iemand een tekst op een wiki leest en vindt dat informatie niet klopt of ontbreekt kan hij deze gewoon aanpassen. Idealiter wordt een artikel op deze manier steeds beter en maakt het een teleologisch proces door om

uiteindelijk tot een optimale vorm te komen. Een groot voordeel van de wiki is daarnaast dat het erg makkelijk in het gebruik is: technologische kennis is niet vereist (Kolbitsch 2006: 193). Weiss (2005: 21) stelt dat de wiki in bepaalde opzichten een reflectie is van de visie van Berners-Lee op de web browser als middel voor zowel het schrijven als lezen van teksten.

Er kleven echter ook veel nadelen aan het concept van de wiki. Het idee dat iedereen aan teksten kan bijdragen is namelijk niet alleen een voordeel. Het biedt immers de kans voor mensen om onwaarheden te verkondigen, reclame te maken en bestaande teksten te verwijderen. Kolbitsch (2006: 193-198) ziet als grootste probleem van websites als wikipedia dat ze een bepaalde mate van kwaliteit en betrouwbaarheid suggereren, die er lang niet altijd is. Er is bijvoorbeeld sprake van sterk wisselende kwaliteit van teksten. Daarnaast vragen wiki’s vaak een neutraal gezichtspunt van de schrijvers, terwijl dit simpelweg niet altijd mogelijk is. Ook kunnen wiki’s problematisch zijn met oog op privacy, wanneer

(12)

12

er geen consensus over een onderwerp is en de tekst steeds dezelfde cyclus van aanpassingen over en weer doormaakt.

Toch is Kolbitsch van mening dat de voordelen van de wiki evident zijn en nadelen voorkomen kunnen worden. Hij wijst hierbij op de wiki als een ‘self-organising system’ zoals een mierenkolonie, waarbij gezamenlijk taken uitgevoerd worden en de fouten van

individuen hersteld worden. Een wiki-gemeenschap reguleert daardoor collectief de inhoud van teksten zodat problemen als vandalisme snel verholpen worden. Mensen die

onwaarheden lezen kunnen dit rapporteren, waarna voor een oplossing gezorgd wordt. Ook zijn er specifieke implementaties van het wiki-concept die ervoor zorgen dat de kans op vandalisme geminimaliseerd wordt. Kolbitsch noemt in dit verband de hiërarchische wiki. De structuur van de hiërarchische wiki perkt de mogelijkheid tot vandalisme in. Mensen die de hoogste positie in de hiërarchie hebben kunnen alle teksten aanpassen, maar mensen op lagere niveaus kunnen dat alleen met teksten van mensen op hetzelfde niveau en lagere niveaus. Bij een hiërarchische wiki heeft maar een paar mensen het hoogste niveau en het grootste deel van de gebruikers het laagste niveau. De mensen op lage niveaus zorgen in dit model voor het ontstaan van inhoud, terwijl de mensen op de hogere niveaus deze inhoud kunnen doorontwikkelen. Een andere mogelijkheid om kwaliteit te waarborgen is om

teksten die een volwassen staat bereikt hebben of uitgekristalliseerd zijn te bevriezen, zodat ze niet meer aangepast kunnen worden (Weiss, 2005: 21).

1.3.3: File sharing

Naast het bijdragen van tekstuele informatie is het voor gebruikers van het Internet veel makkelijker geworden om multimedia toe te voegen aan het Web en te delen met anderen. Bekendste voorbeelden zijn Flickr, voor het uploaden en delen van foto’s, en youtube, voor video’s. Belangrijk voor het massale gebruik van zulke websites is de ontwikkeling van digitale mediatechnologie zoals digitale camera’s, waardoor mensen tegen een relatief lage prijs foto’s en video’s van hoge kwaliteit kunnen maken en op het Web zetten (Anderson 2007: 10). Ook peer-to-peer websites (P2P) zoals KaZaa en BitTorrent, waarin het

gecombineerde netwerk van gebruikers toegepast wordt bij het downloaden van muziek, films en software door diezelfde gebruikers, zijn populaire websites voor file sharing. Deze zijn daarnaast een reflectie van het Web als platform: mensen gebruiken de sites om bestanden te downloaden, maar dragen tegelijkertijd met hun netwerk bij aan de snelheid waarmee anderen kunnen downloaden. In die zin zijn P2P’s vergelijkbaar met blogs en wiki’s, doordat ze automatisch beter worden naar mate meer mensen er gebruik van maken.

De grote meerwaarde van P2P’s is dat ze het makkelijk maken om bestanden te delen en op te zoeken. Websites als Youtube en Flickr delen dit voordeel, en hebben daarnaast een goed zoeksysteem om tot de gewenste bestanden te komen. Een belangrijke rol in dit

zoeksysteem spelen de tags die mensen zelf aan de bestanden koppelen. Daarover later meer.

(13)

13

waarbij de ontwikkeling veel geld kost. Doordat websites voor file sharing het mogelijk maken om dergelijke bestanden uit te wisselen, lopen producenten veel geld mis. 1.3.4: Social tagging

Een tag is een sleutelwoord dat verbonden is aan digitaal object (Anderson 2007: 9). In het geval van social tagging heeft de gebruiker de vrijheid om een tag te bedenken en te koppelen aan de objecten van zijn keuze. Het sociale aspect is dat meerdere mensen

dezelfde objecten kunnen taggen, en van elkaars tags gebruik kunnen maken. Social tagging neemt een centrale plek in bij websites voor social bookmarking, zoals del.icio.us. Een bookmark is een persoonlijke selectie van favoriete URL’s, ofwel websites, en bij del.icio.us wordt de bookmark gedeeld met anderen en van tags voorzien. Vaker vormt social tagging echter niet de hoofdmoot van een website, zoals bij veel van de eerder genoemde diensten, maar is het een extra dienst om het zoeken naar objecten te vergemakkelijken. Denk hierbij aan filmpjes op YouTube, foto’s op Flickr en blogs.

De grote meerwaarde van social tagging is dat mensen de vrijheid hebben om een eigen sleutelwoord aan objecten te koppelen, zodat die objecten op meerdere manieren getypeerd kunnen worden. In het geval van een formeel classificatiesysteem zijn de

beschikbare sleutelwoorden beperkt en vaak gekleurd door een bepaald perspectief. Social tagging biedt ruimte voor verschillende perspectieven en heeft zo een grote meerwaarde voor het zoeken naar objecten, aangezien mensen die zoeken vaak niet dezelfde

perspectieven hebben. Mensen kunnen er door te taggen voor zorgen dat objecten vanuit hun perspectief gevonden kunnen worden. Tegenover de vrijheid van het taggen staat echter een gebrek aan structuur, terwijl de structuur bij een formeel classificatiesysteem juist een centrale rol speelt. Toch lijkt ook een persoon die voor eigen gebruik een aantal objecten van tags voorziet ook voor een zekere structuur te zorgen. Thomas Vander Wal (2007) typeert deze structuur als een ‘folksonomy’, de classificatie van een enkel persoon waarin de eigen betekenis aan objecten gekoppeld is. De structuur die hieruit voorkomt is niet zozeer gebaseerd op een hiërarchische boom van concepten, maar op de verbanden tussen objecten die met dezelfde term getypeerd zijn. De term ‘folksonomy’ wordt vaak gebruikt om te verwijzen naar social tagging, hoewel social tagging eerder staat voor de gezamenlijke tags van een groep dan een persoonlijk geheel van tags en bijbehorende objecten. De structuur van een ‘groeps-folksonomy’ lijkt zeer waardevol. Op basis van de tags van meerdere mensen kunnen immers mensen en objecten met dezelfde tags aan elkaar gekoppeld worden, resulterend in meer semantiek en betere zoekresultaten. Een ander voordeel van social tagging dat Gruber (2007) noemt is dat het de ruis veroorzaakt door spam in zoekmachines tegen kan gaan. Wanneer veel mensen een object van dezelfde tag voorzien, is deze tag meer waard dan het werk van een kleine groep spammers.

(14)

14

mensen objecten typeren. Iemand kan een website heel specifiek met ‘java’ typeren, terwijl een ander persoon de meer algemene tag ‘programming’ gebruikt.

Ondanks de nadelen die op kunnen treden bij het samenvoegen van tags is duidelijk dat een folksonomie veel meerwaarde heeft voor het vinden van objecten. Dit is een goed voorbeeld van de collectieve intelligentie die O’Reilly (2005) in zijn derde principe noemt. Meer nog dan verbindingen van teksten in blogs en gezamenlijke teksten in wiki’s schuilt in social tagging de gezamenlijke semantiek van de gebruiker. Bij het taggen is deze semantiek namelijk overzichtelijk, doordat ze in enkele termen besloten ligt die bovendien hele stukken tekst kunnen typeren.

1.3.5: Overige diensten en applicaties

Naast de hierboven besproken diensten zijn er een aantal applicaties waarbij diensten slim samenkomen, die overeenkomsten vertonen met diensten of die op een andere manier gebruik maken van de participatie van mensen.

Websites voor sociale netwerken hebben de afgelopen jaren een grote opmars doorgemaakt. Met name Facebook is erg groot geworden. Dergelijke websites zijn primair een communicatiemedium, en daarin vergelijkbaar met e-mail. Hun grote meerwaarde boven e-mail is in de eerste plaats het netwerk: een netwerk van vrienden kan makkelijk groeien op basis van de netwerken van anderen. Een tweede voordeel is de openheid en het bereik. Wanneer iemand op een sociale netwerksite ergens een mening over geeft of

aangeeft waar hij of zij mee bezig is, kan iedere vriend dit zien. Netwerksites hebben een overlap en koppeling met applicaties als file sharing en blogs. Iedereen kan foto’s en filmpjes op de persoonlijke pagina zetten en koppelingen maken met eigen weblogs. De verbindingen tussen personen nemen naast vormen van communicatie mogelijkheden met zich mee voor het zoeken naar informatie. Er kunnen bijvoorbeeld vragen gesteld worden over mensen, zoals ‘Is iemand van mijn vrienden op vakantie naar Spanje geweest?’ of ‘Welke recente artikelen zijn gemaakt door mensen gerelateerd aan Sjaak Groen?’. Daarnaast kan het netwerk gebruikt worden bij het doorzoeken van het Web. Wanneer iedereen de favoriete websites markeert ontstaat er een ‘Personal Web’, met alle pagina’s die vrienden opslaan (Kolbitsch, 2006: 204). Facebook maakt serieus werk van dit principe, door ervoor te zorgen dat mensen op een groot aantal websites een knop met ‘I like it’ kunnen gebruiken. De openheid van sociale netwerksites neemt echter ook problemen met zich mee. Veel mensen delen persoonlijke informatie met vrienden, terwijl deze ook vaak door buitenstaanders te lezen is. Mensen denken op het Web te makkelijk over hun privacy, en sociale netwerken bieden ze de kans om juist veel persoonlijke informatie mee te nemen. Ook maakt de netwerkstructuur het makkelijk voor de kwaadwillende om spam en virussen te laten circuleren op het Web.

Een andere dienst die meegegroeid is met het Web 2.0 is de webwinkel. Een goed voorbeeld hiervan is Amazon. O’Reilly (2005) stelt dat Amazon een wetenschap heeft

(15)

15

producten vaak door dezelfde bezoekers gekocht worden. Amazon maakt dus op een slimme manier gebruik van collectieve intelligentie.

Ook aan de zoekmachine van Google dragen Internetgebruikers onbewust bij. Voor de volgorde waarin zoekresultaten worden weergegeven maakt Google gebruik van het PageRank systeem. Dit houdt in dat de webpagina waar het meeste naar verwezen wordt met hyperlinks bovenaan komt te staan. Mensen die in een blog naar een webpagina verwijzen dragen dus bij aan de zoekresultaten.

1.4: Technologieën van Web 2.0

Paul Anderson (2007: 27) noemt de nieuwe generatie van Web-gerelateerde technologieën als belangrijke ondersteuning voor het door O’Reilly genoemde gebruik van het Web als platform. Interfaces op het web worden steeds functioneler en uitgebreider, en zorgen zo voor een groter gemak in het gebruik. Op deze manier hebben de technologieën een belangrijk aandeel van de hoge mate van participatie op het Web. Anderson neemt in zijn rapport voor de JISC Technology & Standards Watch verschillende technologieën onder de loep die belangrijk zijn voor de door O’Reilly genoemde dynamiek van het Web. Hieronder zijn de belangrijkste technologieën samengevat.

1.4.1: Ajax

Ajax is geen op zichzelf staande technologie, maar een combinatie van technologieën. Anderson (2007) geeft een uitgebreide beschrijving van Ajax. Het is een afkorting die staat voor Asynchronous Javascript + XML, en genoemd wordt als samenvatting voor het gebruik van de combinatie van een aantal technologieën op het Web met bepaalde doeleinden. De doeleinden hebben alles te maken met het eerste woord van de afkorting, asynchronous. Ajax kan gezien worden als verbetering ten opzichte van websites die puur op HTML

gebaseerd zijn. Wanneer de gebruiker daar een optie kiest of op een hyperlink klikt moet de pagina steeds opnieuw geladen worden. Ajax zorgt voor een asynchrone communicatie met de server, zodat delen van een webpagina dynamisch worden en kunnen veranderen zonder dat de hele pagina herladen hoeft te worden.

In de afkorting ‘Ajax’ worden al twee technologieën genoemd. Toch omvat Ajax er nog een aantal. Ten eerste worden HTML/XHTML en CSS gebruikt voor het presenteren van informatie in de browser. Ten tweede worden XML en XSLT gebruikt voor het uitwisselen en manipuleren van gegevens. De informatie op een webpagina kan daarmee op de gewenste manier gestructureerd worden. Ten derde wordt Document Object Model gebruikt voor de dynamische controle van een webdocument. DOM maakt gebruik van de structuur die is aangebracht met XML en/of XSLT om vervolgens te reguleren welke delen van het document dynamisch functioneren. Ten vierde is er XMLHttpRequest, voor het asynchroon ophalen van informatie van de server. Dit is een variatie op het gebruikelijke communicatieprotocol met de server en maakt gebruik van de XML-structuur van een document. Tot slot wordt het in de afkorting genoemde javascript als programmeertaal gebruikt om het geheel te verbinden.

(16)

16

Gmail veel op de e-mailinterface Outlook van Microsoft, die niet op de server maar op de PC draait. Een ander voorbeeld is Google Maps, waarbinnen de gebruiker verschillende acties kan uitvoeren zonder dat steeds contact gezocht hoeft te worden met de server. Naar verschillende posities op een kaart gaan en in- en uitzoomen verloopt op deze manier zeer prettig. Naast de rijke user interfaces noemt O’Reilly Ajax als component van de simpelheid van webdiensten. Doordat Ajax een open technologie is en simpel in elkaar zit, kunnen hackers een website makkelijk doorgronden en nieuwe diensten maken.

1.4.2: REST

Waar Ajax zorgt voor dynamische websites door een asynchrone communicatie met de server, heeft REST betrekking op de architectuur van het webverkeer, ofwel de uitwisseling van informatie tussen cliënt en server. Een belangrijk kernmerk van REST is haar simpelheid, getuige haar uitwisseling met XML (voor de gegevens) en http (communicatie met de

server). De afkorting staat voor REpresentational State Transfer. REST kan gezien worden als een manier voor het omgaan met nouns (zelfstandige naamwoorden) en verbs

(werkwoorden) op het Web. Anderson (2007: 29) haalt in dat licht McGrath aan, die stelt dat de kracht van REST schuilt in haar distributie van weinig verbs en veel nouns. Het Web bestaat uit een groot aantal nouns, in de vorm van webpagina’s en andere resources (URI’s). De kracht van REST schuilt in het gebruik van slechts een paar verbs als GET, POST, PUT en DELETE om intenties met resources naar de server te communiceren. REST wordt vaak afgezet tegen SOAP (Simple Open Access Protocol) als een simpele variant. McGrath stelt dat SOAP gebruik maakt van teveel ongewone werkwoorden.

REST is voor O’Reilly (2005) een belangrijke component van de simpelheid van webdiensten, zijn vijfde principe. In tegenstelling tot Ajax is het niet snel terug te zien in de user interface van een website. O’Reilly noemt de webwinkel Amazon als voorbeeld, waarvan de gehele website voor 95 procent draait op REST, terwijl alleen voor uitwisseling met partners als ToysRUs SOAP wordt gebruikt.

1.4.3: RSS

RSS kan gebruikt worden om updates van websites bij te houden. Daarvoor moeten websites in een standaardformaat gecodeerd zijn. De gecodeerde informatie kan zo verzameld

worden in een feed en doorgesluisd worden naar de gebruiker, typisch wanneer een

verandering bemerkt is. RSS wijkt als technologie af van Ajax en REST, doordat het niet direct bijdraagt aan het functioneren van een website. Wel is het belangrijk voor Web 2.0, doordat het zorgt voor meer gebruikersgemak. Gebruikers hoeven met RSS immers niet hun

favoriete websites steeds te bezoeken. Hoewel RSS in de eerste plaats een technologie is, beschrijft Anderson (2007) het als applicatie of dienst. Hier valt wat voor te zeggen, in zoverre de gebruiker de macht heeft over RSS en zelf kan kiezen welke feeds hij wil

ontvangen. Toch fungeert RSS in mijn ogen vooral als ondersteuning van websites, en is het geen volledige dienst die de mogelijkheid biedt om informatie te delen, een centrale actie op Web 2.0. Het is vooral een technologie die het Web dynamischer maakt.

(17)

17

Er zijn nog een aantal technologieën die bijdragen aan de dynamiek en openheid van Web 2.0, maar variaties zijn op de hierboven besproken technologieën of minder breed

geaccepteerd of toegepast.

Hoewel voor de user interfaces van websites vaak Ajax wordt gebruikt, is ook Flash een belangrijke technologie. Flash zorgt voor snel te downloaden, rijke animaties in het browserscherm, en wordt onder meer gebruikt voor de video-player van YouTube.

Microformats hebben betrekking op de semantiek van webpagina’s die gecodeerd zijn met XHTML, een taal die XML combineert met HTML. Microformats voegen semantiek aan deze webtaal toe, waardoor machines de informatie beter kunnen interpreteren. Hierdoor kan de informatie onder meer op een goede manier geïndexeerd en doorzocht worden2. Microformats bieden zo handvatten voor zoekmachines. Ook een mailservice als Gmail maakt gebruik van microformats, door mensen aan wie de gebruiker een e-mail stuurt bij te voegen in het adresboek.

Tot slot zijn open API’s belangrijk voor Web 2.0. API staat voor Application

Programming Interface, en zorgt ervoor dat programmeurs gebruik kunnen maken van de functionaliteit van bepaalde modules zonder toegang te hebben tot de broncode van een website. Als de programmeur hier geen geld voor hoeft te betalen wordt de API betiteld als ‘open’. Open API’s helpen bij de ontwikkeling van Web 2.0 diensten en de creatie van ‘data mash-ups’, combinaties van gegevens en applicaties op het Web. Een voorbeeld van een open API is Flickr. Mensen kunnen hun eigen applicatie maken en daarin foto’s en tags van Flickr verzamelen (Weiss, 2005: 22).

2

(18)

18

2: Het Semantic Web

In tegenstelling tot ‘Web 2.0’ is ‘Semantic Web’ geen arbitraire term. Waar Web 2.0 vooral samenhangt met een hoge mate van participatie, heeft het Semantic Web betrekking op de manier waarop informatie gestructureerd is. Voor deze structuur bestaan open standaarden op het web die iedereen kan gebruiken. Deze standaarden zijn vergelijkbaar met HTML, met als hoofdmoot de relaties die gelegd kunnen worden tussen Uniform Resource Identifiers (URI’s, een verzamelterm waar ook URL’s onder vallen). Het Semantic Web kan gezien worden als een mondiale database, waarin gegevens makkelijker gevonden kunnen worden dan in het huidige web van hyperlinks. De grote meerwaarde is echter dat niet alleen mensen de gegevens kunnen lezen, maar ook machines. Vandaar de naam ‘Semantic’: de datastructuur maakt het mogelijk om dingen te zeggen over de betekenis van gegevens (de semantiek), wat door machines te begrijpen is. De bedenker van het Semantic Web is Tim Berners-Lee, tevens bedenker van het World Wide Web.

In dit hoofdstuk zal ik beginnen met het uiteenzetten van de ideeën van Berners-Lee die tot het huidige Semantic Web hebben geleid. Vervolgens bespreek ik de standaarden die gebruikt kunnen worden voor het structuren en doorzoeken van informatie op het Semantic Web. Tot slot kijk ik naar wat er tot nu toe gerealiseerd is met deze middelen.

2.1: De herkomst van het Semantic Web

Tim Berners-Lee keek al in een vroeg stadium van het World Wide Web ver vooruit. Zijn grote idee van het Web is altijd geweest dat alles met alles verbonden kon worden. De hyperlink structuur van het World Wide Web was wat dat betreft absoluut een stap in de goede richting, maar Berners-Lee zag in dat het nog te wensen overliet en met name twee grote gebreken kent. Ten eerste kan vanaf een pagina enkel verwezen worden naar andere pagina’s of bepaalde punten daarin. Dit betekent dat relaties enkel globaal gemaakt kunnen worden op het niveau van algemene informatie, en specifieke eenheden niet aan elkaar gerelateerd kunnen worden zoals bij een database. Ten tweede zijn HTML-pagina’s alleen door mensen te lezen en interpreteren. Daardoor speelt de computer een passieve rol en geeft het de informatie enkel op de aangegeven manier weer aan de gebruiker, zonder iets te weten over de betekenis van de informatie of de reden dat HTML-pagina’s met elkaar verbonden zijn. Berners-Lee had een nieuwe datastructuur voor ogen die aan deze gebreken tegemoet komt en zou leiden tot een nieuw soort web van informatie: het Semantic Web.

(19)

19

gemaakt kan worden. Daarna laat hij hem kijken in het tijdschema van hem en zijn zus om te zien op welke tijden ze hun moeder naar die specialist kunnen brengen. Het idee is duidelijk: het leven zou een stuk simpeler zijn als we het doorzoeken van informatie konden overlaten aan machines.

Berners-Lee benadrukt twee belangrijke dingen over het Semantic Web dat hij voor ogen heeft. Ten eerste is het niet bedoeld als vervanging van het huidige Web van

hyperlinks, maar als een extensie. Het Semantic Web zorgt voor meer gegevens die door machines te interpreteren zijn, naast de gegevens die er al in grote getale zijn op het huidige Web. De bedoeling is dat het computers en mensen in staat stelt om beter met elkaar te communiceren. Computers krijgen met het Semantic Web immers een actievere rol, en HTML kan fungeren als communicatiemedium tussen mens en machine. Een tweede punt dat Berners-Lee maakt is dat het Semantic Web net als het World Wide Web zo decentraal mogelijk tot stand moet komen. Dit heeft voor het Web een grote meerwaarde gehad, en Berners-Lee ziet geen reden om het Semantic Web strikter te reguleren.

Belangrijk voor de decentrale ontwikkeling van het Semantic Web is dat er

standaarden zijn, zoals HTML voor het originele Web, waar mensen mee aan de slag kunnen om informatie te coderen en te relateren. Deze standaarden zullen in de komende sectie besproken worden.

2.2: De totstandkoming van het Semantic Web

Berners-Lee beschrijft in zijn artikels van 1998 en 2001 de verschillende lagen die nodig zijn om een Semantic Web mogelijk te maken. Het geheel van lagen heeft Berners-Lee

schematisch weergegeven in een Semantic Web Stack (figuur 1), en voor het eerst vertoond in een presentatie in 2000. De ‘stack’ zit dusdanig in elkaar dat iedere laag een extensie is op of gebruikt maakt van de laag eronder. Hij is grofweg in drie segmenten te verdelen:

standaarden die over het gehele web gebruikt worden, gerealiseerde standaarden die deel uitmaken van het Semantic Web en nog niet gerealiseerde standaarden die deel gaan uitmaken van het Semantic Web. Hieronder worden deze drie segmenten afzonderlijk besproken, waarbij de meeste aandacht uitgaat naar gerealiseerde standaarden die deel uitmaken van het Semantic Web.

2.2.1: Standaarden van het World Wide Web

Onderaan de stack staan standaarden die op het moment dat de stack opgesteld werd deel uitmaakten van het Web, wat onderstreept dat het Semantic Web een aanvulling is op het originele Web.

2.2.1.1: URI en Unicode

Linksonder in de stack staan URI en Unicode. Een URI is een resource op het Web, en staat voor Uniform Resource Identifier. Deze kan geïdentificeerd zijn met een locatie en

representatie op het Web, zoals een URL (Uniform Resource Locator), maar kan ook enkel een naam zijn, wat dan een URN (Uniform Resource Name) heet.

(20)

20

ander bitpatroon heeft, wat uitwisseling van informatie tussen bijvoorbeeld verschillende talen mogelijk maakt. Zeker op het Web is dit zeer nuttig.

Figuur 1: de Semantic Web Stack van Tim Berners-Lee

(Bron: http://www.w3c.it/talks/2007/eAcademy2007/images/swStack2006.png) 2.2.1.2: XML

(21)

21

2.2.2: Gerealiseerde standaarden van het Semantic Web

Vanaf een tree hoger op de ladder van de stack behoren de lagen echt toe aan het domein van het Semantic Web. De derde en vierde laag hebben voor een groot deel betrekking op standaarden die mensen kunnen gebruiken om betekenis te communiceren naar machines. 2.2.2.1: RDF

Het Resource Description Framework (RDF) is als datastructuur een belangrijk onderdeel van het Semantic Web. RDF staat boven XML in de stack omdat het gebruik maakt van XML als syntax. Waar XML bestaat uit de simpele structuur van tekst die ingebed is in vrije tags, voegt RDF extra restricties aan die structuur toe. Waar XML de syntax is, kan RDF gezien worden als een grammatica met specifieke woordsoorten. Zonder XML is RDF simpelweg een datastructuur, maar in combinatie zijn XML en RDF een webtaal. Inmiddels zijn naast XML andere talen ontwikkeld om met RDF te gebruiken, maar op het moment dat Berners-Lee zijn stack naar buiten bracht was die rol speciaal voor XML gereserveerd. Op dit punt zal ik niet ingaan op hoe de datastructuur in een taal tot uiting komt, en alleen aandacht

besteden aan de elementen die horen bij RDF.

De grammaticale restrictie van RDF bestaat uit de verplichting om statements van drie opeenvolgende eenheden te maken. Deze worden daarom ook wel ‘triples’ genoemd. Alle drie de eenheden hebben een eigen rol. De eerste is een subject, datgene waar de statement over gaat. De daaropvolgende eenheid is een predicate, en specificeert een bepaalde eigenschap of relatie van het subject. De derde eenheid is een object, en heeft betrekking op de waarde van de predicate. Een voorbeeld van een statement in schrijftaal is ‘Trudy is de moeder van Klaartje’. Bij deze zin is ‘Trudy’ het subject’, ‘is de moeder van’ de predicate’ en ‘Klaartje’ het object.

Binnen de strakke structuur van triples kunnen in RDF drie verschillende woordsoorten gebruikt worden. De allerbelangrijkste is de resource. Deze kan

geïdentificeerd worden met de eerder besproken URI’s. Een resource is een entiteit op het Web, al dan niet met representatie. De identificatie van de resource met de URI is erg belangrijk. Hierdoor kan een computer resources identificeren en van elkaar onderscheiden. Dit zorgt voor meer betekenis voor computers, doordat de identificatie onder meer

ambiguïteit opheft. Als er bijvoorbeeld naar een jaguar verwezen wordt als

‘www.animals.net/mammals/jaguar’, dan is duidelijk dat het gaat om de jaguar als dier. Aan de andere kant zou de URI ‘www.touringcar.net/jaguar’ verwijzen naar de jaguar als

sportwagen.

De twee andere woordsoorten die binnen RDF gebruikt kunnen worden zijn de literal en de blank node. De literal heeft in tegenstelling tot de resource geen eigen identificatie en is daarmee simpelweg kale informatie. De blank node kan gezien worden als een resource zonder identificatie, en kan gebruikt worden zoals een null-value bij databases.

Subject Predicate Object

Resource X X X

Literal X

Blank Node X X

(22)

22

Naast de grammatica en de te gebruiken woordsoorten is er nog een derde restrictie binnen RDF: de distributie van woordsoorten over de drie eenheden van een statement. Voor het overzicht heb ik deze in een tabel weergegeven (tabel 1). De belangrijkste woordsoort, de resource, kan op de plek van alle eenheden gebruikt worden. Voor de predicate is dit zelfs verplicht. Op die manier kunnen kenmerken immers van elkaar

onderscheiden worden. Daarnaast kan de resource tegelijk als subject en als object gebruikt worden. Dit betekent dat resources aan elkaar verbonden kunnen worden. Een voorbeeld van een statement waarin alle eenheden een resource zijn is de eerder genoemde zin ‘trudy is de moeder van Klaartje’. Deze is schematisch weergegeven in figuur 2 (waarbij de kleuren de verschillende eenheden van de triple aangeven en de vierkanten staan voor resources). Het gebruik van een resource als predicate biedt de mogelijkheid om verschillende relaties te leggen die van elkaar te onderscheiden zijn. Als aan bovenstaande zin de statement ‘Trudy is de dochter van Agaath’ toegevoegd zou worden, ziet dit er uit als in figuur 3. De resource ‘Trudy’ wordt hier naast Klaartje verbonden met ‘Agaath’, maar omdat een andere resource gebruikt wordt als predicate is duidelijk dat Trudy een andere relatie heeft met Agaath dan met Klaartje. RDF maakt het dus niet alleen mogelijk om resources met elkaar te verbinden, waardoor een web van resources gemaakt kan worden, maar biedt ook de mogelijkheid om via het gebruik van resources verschillende soorten relaties te maken. Een voordeel van het verbinden van resources is daarnaast dat dit een iteratief proces is: resources die met een resource verbonden zijn, kunnen zelf ook weer met resources verbonden zijn. Idealiter zouden de URI’s die verwijzen naar deze resources gekoppeld zijn aan een RDF-document met beschrijvingen over de resource, zodat van daaruit nieuwe resources gevonden kunnen worden. Op die manier kan het gehele web afgestruind worden.

Figuur 2: schematische weergave van de statement ‘Trudy is de moeder van Klaartje’

Figuur 3: schematische weergave van twee statements rond de resource ‘Trudy’

In tegenstelling tot de resource kan de literal niet op iedere plek van een triple gebruikt worden, maar enkel als object. De literal is nuttig om meta-informatie over een resource te geven, die geen eigen identificatie heeft. Een voorbeeld hiervan is de zin ‘Trudy heeft een leeftijd van 75’. Deze kan ook bij het netwerk betrokken worden (figuur 4, waarbij de cirkel staat voor een literal). Het mag duidelijk zijn dat het getal ‘75’ geen eigen

(23)

23

andere ‘75’. Naast de resource en de literal wordt de blank node vaak in speciale situaties gebruikt, maar dat is te specifiek om hier uitgebreid aandacht aan te besteden.

Figuur 4: schematische weergave van drie statements rond de resource ‘Trudy’

RDF is samengevat een datastructuur met restricties op grammatica en de te gebruiken woordsoorten. Berners-Lee (1998) beschrijft RDF als een middel om beweringen over resources te doen. Dit is zeer nuttig, doordat eenheden geïdentificeerd en aan elkaar gerelateerd kunnen worden. Toch benadrukt Berners-Lee ook dat de simpelheid van RDF een nadeel is. Met oog op bestaande gegevens binnen databases op het web kan RDF volgens hem vooral gebruikt worden om metadata te coderen, zonder de informatie veel rijker te maken. Wel kan het als universele taal een rol spelen bij de verbinding van applicaties, zo stelt hij. RDF ontbeert de expressiviteit om meer over gegevens te kunnen zeggen. In mijn ogen doet hij de datastructuur wat te kort, aangezien de mogelijkheid tot het relateren van identificeerbare eenheden meer mogelijk maakt dan het simpelweg coderen van metadata. Een boek kan met RDF bijvoorbeeld niet alleen met een auteur verbonden worden, maar auteurs kunnen ook weer onderling worden gerelateerd waardoor

verschillende boeken langs die route weer aan elkaar verbonden zijn. Wel heeft Berners-Lee gelijk dat het simpelweg doen van statements een vrij beperkte manier is om informatie te coderen. Een computer krijgt de situatie voorgeschoteld zoals hij is, zonder dat deze er actief over kan nadenken. Hij kan weliswaar eenheden van elkaar onderscheiden, maar weet daardoor nog niet wat ze betekenen. Berners-Lee had echter grootse plannen met het Semantic Web. Als computers daadwerkelijk als agents moesten kunnen fungeren was het noodzakelijk dat ze meer middelen hadden om gegevens te interpreteren. Een eerste stap in die richting is de mogelijkheid tot het maken van een schema.

2.2.2.2: RDFS

RDFS (Resource Description Framework Schema) is de taal voor het maken van een schema als semantische ondersteuning van RDF-statements. RDFS maakt gebruik van RDF als datastructuur, wat betekent dat met RDFS nog steeds beweringen over resources worden gedaan, maar voegt hier bepaalde functies aan toe.

Met RDFS vinden statements op een hoger niveau plaats. Dit heeft te maken met het onderscheid tussen klassen en individuen. Met RDF kunnen enkel de kenmerken van

(24)

24

in de context van individuen en klassen) gemaakt worden. Daarnaast kan van properties aangegeven worden welke klassen ze als domein en reikwijdte hebben. Op deze manier krijgen klassen en properties betekenis aan de hand van de beperking in de klassen en properties waar ze mee in verband staan. Bij de property ‘is de moeder van’ kan

bijvoorbeeld alleen een individu die behoort tot de klasse ‘vrouw’ als domein, of subject, gebruikt worden.

Een taxonomie van de RDF-statements van figuur 4 zou er uitzien als figuur 5. Links staat de statement die de hiërarchie van klassen aangeeft en rechts de statements voor de restricties op properties. Omdat RDFS uit specifieke elementen bestaat voor het maken van de hiërarchieën en restricties worden die hier expliciet in de statements opgenomen. De elementen hebben zelf de vorm van klassen en properties, waarbij de conventie is dat elementen die beginnen met een hoofdletter duiden op een klasse en elementen met een kleine letter op een property. In de klassenhiërarchie wordt het element ‘rdfs:Class’ gebruikt om een resource als klasse te typeren. In dit geval zijn dit de klassen ‘vrouw’ en ‘mens’. Deze klassen worden met elkaar in verband gebracht met de relatie ‘rdfs:subClassOf’, waarmee aangegeven wordt dat het subject van de statement een subklasse van het object is en daarmee de kenmerken van die klasse overneemt. Aan de rechterkant worden resources als properties getypeerd met het element ‘rdfs:Property’. Van de drie properties worden tevens het domein en de reikwijdte aangegeven, met respectievelijk de relaties ‘rdfs:domain’ en ‘rdfs:range’. Naast deze elementen heeft RDFS het element ‘rdfs:subPropertyOf’, om van een property aan te geven dat het een subproperty is van een andere property, en daar dus de kenmerken van overneemt.

Figuur 5: schematische weergave van een RDFS-taxonomie

RDFS is een middel om klassen en properties te beschrijven, waar vervolgens op een andere plek naar verwezen en gebruik van gemaakt kan worden. RDFS speelt een belangrijke rol bij de totstandkoming van vocabulaires. Een vocabulaire is een geheel van klassen,

(25)

25

gemaakte vocabulaires te gebruiken voor zijn statements of zelf nieuwe properties en klassen te maken. Wanneer iemand bijvoorbeeld zijn database van gevonden schelpdieren op het strand van Scheveningen wil coderen in RDF, kan hij gebruik maken van een

vocabulaire gericht op zeedieren. De dataset kan daardoor in verband komen te staan met andere datasets die gebruik maken van die vocabulaire. Het mag duidelijk zijn dat een

vocabulaire het meeste van waarde is wanneer deze door veel mensen toegepast wordt. Net zoals veel mensen op de wereld elkaar begrijpen als ze Engels spreken.

Berners-Lee, Hendler en Lasilla (2001: 34) zien klassen, subklassen en relaties tussen entiteiten als een erg krachtig middel voor gebruik op het Web. Zo stellen ze dat een groot aantal relaties tussen entiteiten uitgedrukt kunnen worden door properties te koppelen aan klassen en ervoor te zorgen dat subklassen deze properties overnemen. De computer krijgt via een schema met andere woorden meer handvatten om gegevens te interpreteren. Berners-Lee wilde echter nog een stapje verder gaan dan het begrijpen van elementen door computers. Een nog krachtiger effect kan bereikt worden door computers de mogelijkheid te bieden over gegevens te redeneren en tot nieuwe betekenis te komen.

2.2.2.3: OWL

Als afkorting is OWL een verwarrende naam, aangezien deze staat voor Web Ontology Language, en ‘WOL’ dus een logischer afkorting zou zijn. OWL is zoals de naam al zegt een webtaal voor het maken van een ontologie. De term ‘ontologie’ komt van origine uit de filosofie en staat voor de studie van dingen die zijn. De ‘tree of Porphyry’ uit de tijd van de Oude Grieken is bijvoorbeeld een hiërarchische boom van entiteiten als dieren en planten. In de context van computerwetenschap is een ontologie een model van een bepaald aspect van de wereld, en dient in dat opzicht als vocabulaire met expliciete specificaties voor de betekenis van elementen (Horrocks, 2007: 61). De taxonomie die gemaakt kan worden met RDFS geldt daarom ook als ontologie. Toch is RDFS een gelimiteerde taal voor het maken van een ontologie. De verbanden tussen elementen kunnen alleen gelegd worden met een hiërarchie van klassen en restricties op properties. RDFS ontbeert logische componenten die aanwezig zijn in veel modelleertalen en complexere relaties mogelijk maken tussen

elementen. Om die reden is OWL als standaardtaal ontwikkeld.

Net als RDFS is OWL een aanvulling op RDF, en bestaat uit properties en klassen die gebruikt kunnen worden om resources en relaties te typeren. In de Semantic Web stack staat OWL boven RDFS omdat het naast de RDF-structuur gebruik maakt van de elementen van RDFS. De elementen die OWL hieraan toevoegt maken logische relaties mogelijk, die hun oorsprong vinden in ‘Description Logics’ (DL). DL is gebaseerd op een object-georiënteerd model (en past daarom goed bij het Semantic Web), dat bestaat uit individuen, klassen en properties (Horrocks, 2007: 61). In tegenstelling tot RDFS lopen individuen en klassen bij OWL dus door elkaar. De logische kenmerken en restricties die met OWL aan individuen, klassen en properties toegeschreven kunnen worden, geven ieder mogelijkheid tot het redeneren door een computer. Daarnaast zorgen de logische verbanden ervoor dat een computer kan controleren of een ontologie logisch consistent, of aan kan sluiten op een andere ontologie.

In het officiële overzicht van OWL van het W3C3 worden ze opgedeeld in een aantal categorieën. Om de mogelijkheid tot redeneren bij de computer te illustreren wil ik hier

3 W3C: ‘OWL Web Ontology Language Overview’, Hoofdstuk 2: Language Synopsis

(26)

26

speciaal aandacht besteden aan de categorie die betrekking heeft op kenmerken van properties. Deze sluiten namelijk aan op de voorbeelden van figuur 4. OWL biedt ten eerste de mogelijkheid om twee properties te kenmerken als de inversie van elkaar. De property ‘is de moeder van’ is bijvoorbeeld de inversie van de property ‘is de dochter van’, wat betekent dat uit de statement ‘Trudy is de moeder van Klaartje’ een nieuwe statement afgeleid kan worden: ‘Klaartje is de dochter van Trudy’. Een andere mogelijkheid die OWL biedt is om een property als transitief te betitelen. In het voorbeeld kan dit duidelijk worden door een

nieuwe property toe te voegen: ‘is de erfgenaam van’. Deze is transitief: als A de erfgenaam is van B en B de erfgenaam is van C betekent dit dat A de erfgenaam is van C. Ook de titel ‘transitief’ geeft een computer de mogelijkheid om nieuwe informatie te beredeneren. Het is inmiddels bekend dat Klaartje de dochter is van Trudy en Trudy de dochter van Agaath. Nu hoeft alleen nog de property ‘is de dochter van’ gekenmerkt te worden als de subproperty van ‘is de erfgenaam van’, en de computer kan herleiden dat Klaartje de erfgenaam is van Agaath. Op deze manier maken de logische kenmerken van properties het een computer mogelijk om actief na te denken over informatie.

Naast het specificeren van kenmerken van properties biedt OWL de mogelijkheid om gelijkheid tussen klassen, individuen of properties aan te geven. Erg handig bij het verbinden van twee datasets waarbij dezelfde elementen verschillend geïdentificeerd zijn. Ook kunnen twee entiteiten om verwarring te voorkomen juist als ongelijk gemarkeerd worden.

Daarnaast is er een categorie van elementen in OWL die betrekking heeft op restricties op properties. Dit betekent dat een property als waarde de individuen uit specifieke klassen moet hebben (geen andere klassen) of juist in ieder geval de individuen uit specifieke klassen (en mogelijk ook anderen). Een andere categorie is de cardinaliteit van een property. Dit heeft betrekking op elementen waarmee gezegd kan worden dat een bepaalde property minimaal of maximaal een bepaald aantal instanties van een klasse als waarde moet hebben. Ook is er een categorie met booleaanse combinaties tussen klassen. Daarmee kunnen

klassen onder meer samengevoegd worden tot een nieuwe klasse, die de kenmerken van beide klassen vertoont.

Met OWL kan kortom veel meer gezegd worden over de relaties tussen individuen, klassen en properties dan met RDFS. Wel betekent dit dat de taal in sommige gevallen zelfs te expressief is, waardoor computers bij het redeneren niet tot een sluitende conclusie kunnen komen. Omdat de mate van expressiviteit afhangt van het doel van een ontologie, is OWL opgedeeld in drie versies die oplopen in expressiviteit (met betrekking op de te

gebruiken elementen): OWL Lite, OWL DL en OWL Full.

OWL sluit als taal het beste aan op de visie van het Semantic Web als een web waarin informatie expliciete betekenis heeft, wat het makkelijker maakt voor machines om

informatie automatisch te verwerken en met elkaar te integreren4. Berners-Lee, Hendler en Lasilla (2001: 35) zien het integreren van informatie als een belangrijk doel van OWL. Onder meer wijzen ze op het probleem dat in twee databases verschillende identificaties kunnen zijn van hetzelfde concept. Elementen van OWL kunnen ervoor zorgen dat deze twee aan elkaar gekoppeld worden. Belangrijk is echter ook de mogelijkheid die OWL schept om computers te laten redeneren. Ten eerste wordt de rekenkracht van de computer zo actief benut en kan deze nieuwe informatie herleiden wat de mens op basis van een groot aantal gegevens vaak niet lukt. Ten tweede krijgt de computer zo meer mogelijkheden in de

4 W3C: ‘OWL Web Ontology Language Overview’, Hoofdstuk 2.1: Why OWL?

(27)

27

interpretatie van gegevens, omdat elementen door de logische relaties die ze met elkaar hebben meer betekenis krijgen. OWL is echter vooral nuttig als standaardtaal. In de

computerwetenschap houdt men zich al een tijd bezig met het modelleren van ontologieën voor computers, maar de meerwaarde van OWL is dat het op het hele Web gebruikt kan worden en voor een groot deel tegemoet komt aan al bestaande ontologieën. De

mogelijkheid tot het aan elkaar relateren van resources met behulp van RDF in combinatie met de logische relaties die met OWL aangebracht kunnen worden, zorgt ervoor dat de kennis van verschillende ontologieën gecombineerd kan worden en computers kunnen redeneren over het resulterende web van logisch gestructureerde informatie. Een voordeel daarbij is dat de universele regels van OWL het mogelijk maken om logische inconsistentie tussen verschillende ontologieën aan het licht te brengen en eventueel te verhelpen. 2.2.2.4: SPARQL

Met OWL is in 2004 de laatste standaardtaal voor het coderen van gegevens op het

Semantic Web opgeleverd. Om daadwerkelijk agents gegevens te laten doorzoeken is echter nog meer nodig dan ontologieën op het Web. Een Web waarin het redeneren aan de orde van de dag is lijkt dan ook minstens tien jaar verwijderd. Het is echter niet zo dat semantisch gecodeerde gegevens op dit moment slechts wachten totdat er iets mee gedaan wordt. Redeneren wordt bijvoorbeeld al over gesloten ontologieën gedaan. Daarnaast heeft het W3C een zoektaal ontwikkeld die ervoor zorgt dat mensen zoekopdrachten kunnen formuleren om gegevens op het Semantic Web te doorzoeken: Simple Protocol And RDF Query Language (SPARQL). Aangezien het Semantic Web de structuur heeft van een database leent deze zich goed voor specifieke zoekopdrachten. Berners-Lee vergelijkt SPARQL met de zoektaal SQL voor relationele databases.

Met SPARQL kan naar specifieke eenheden in een triplestructuur gezocht worden. Binnen een database van een bibliotheek kan bijvoorbeeld gezocht worden naar alle titels van boeken die een bepaalde auteur geschreven heeft. De kennis van de URI van één bepaalde auteur is hier dus genoeg om alle gerelateerde informatie op te halen. De

meerwaarde van SPARQL is echter vooral dat het gebruik maakt van de relationele structuur van RDF. Dit betekent bijvoorbeeld dat op basis van de URI van een auteur gezocht kan worden naar gerelateerde auteurs en daarvandaan naar de onderwerpen waar ze over schrijven en vanuit die onderwerpen naar de boeken die erbij horen. Op deze manier kunnen boeken gezocht worden die (vaag) iets te maken hebben met het vakgebied van de auteur. SPARQL is kortom een zoektaal waarmee gericht gezocht kan worden naar gegevens, in tegenstelling tot zoekmachines die enkel lexicale informatie in documenten gebruiken. SPARQL biedt net als SQL verschillende functies voor het doorzoeken, filteren en weergeven van gegevens. Daarnaast kan het gebruikt worden om gegevens in specifieke triples te verwijderen of in te voegen.

(28)

28

RDF, RDFS, OWL en SPARQL zijn standaarden die al een aantal jaar toegepast worden en centraal staan in de totstandkoming en het gebruik van het Semantic Web. Wat er tot nu toe mee bereikt is zal in de volgende sectie besproken worden. In de rest van de huidige sectie wordt aandacht besteed aan standaarden die nog gerealiseerd moeten worden voor een volledig werkend Semantic Web waarbij het gebruik van agents een alledaagse actie is. 2.2.3: Nog te realiseren lagen van het Semantic Web

2.2.3.1: RIF

RIF is een afkorting voor Rules Interchange Format, en die naam geeft goed weer waar RIF toe dient: het uitwisselen van regels op het Web. Naast de logische relaties die met OWL gespecificeerd kunnen worden komt RIF zo tegemoet aan een ander spectrum binnen de computerwetenschap: regelsystemen (‘rule systems’). Regelsystemen zijn een specifieke vorm van logica en spelen een belangrijke rol in de communicatie met computers. Een bekend regelsysteem is ‘IF, THEN’ dat veel in programmeertalen gebruikt wordt5.

In tegenstelling tot OWL moet RIF niet gezien worden als een taal, maar als een uitwisselingssysteem. De reden hiervoor is dat regelsystemen te veel van elkaar verschillen om met één taal uit te kunnen drukken. RIF bestaat uit een aantal dialecten. Deze dialecten delen zoveel mogelijk componenten, wat de mogelijkheid biedt tot uitwisseling. De dialecten zijn gebaseerd op een XML-syntax. In de praktijk is het idee achter RIF dat regelsystemen overgezet worden in een RIF dialect en van daaruit vervolgens terug in een ander

regelsysteem. Op deze manier kan communicatie tussen verschillende regelsystemen plaatsvinden6.

Het is eigenlijk vreemd dat RIF op de stack boven RDFS en RDF staat, aangezien het geen gebruik maakt van RDF. Wel zijn er mogelijkheden om verbindingen te maken tussen regels en RDF-triples7. Op deze manier komt RIF niet los te staan van het Semantic Web. Bovenal biedt RIF meer mogelijkheden voor de communicatie tussen mens en computer op het Semantic Web, en brengt het het functioneren van agents een stap dichterbij.

Momenteel geldt RIF 1.0 als standaard, maar RIF is nog sterk in ontwikkeling. 2.2.3.2: Unifying Logic en Proof

Unifying Logic en Proof zijn volkomen gericht op de acties van agents die naar antwoorden zoeken. Berners-Lee, Hendler en Lassila (2001: 36) beschrijven de situatie waarin iemand een antwoord terugkrijgt van een agent en zich afvraagt hoe dit antwoord tot stand is gekomen. Daarom vraagt hij de agent om bewijs. Dit betekent dat de agent gebruik maakt een taal waarin de geünificeerde logica van het zoekproces gebruikt wordt om aan de gebruiker het proces van zoeken weer te geven. Dit is een belangrijke optie, aangezien het niet handig is om er vanuit te gaan dat de antwoorden waartoe agents gekomen zijn altijd kloppen. Er zouden rare stappen gemaakt kunnen zijn in het redeneerproces. Om bewijs van het antwoord te bieden is een geünificeerde logica belangrijk, aangezien op verschillende locaties verschillende vormen van redeneren nodig zouden kunnen zijn. De logica zorgt ervoor dat deze processen eenduidig zijn weer te geven. Het zal echter nog even duren

5

Wikipedia: ‘Rule Interchange Format’ (http://en.wikipedia.org/wiki/Rule_Interchange_Format)

6 W3C: ‘RIF Overview’, Introduction (http://www.w3.org/TR/2010/WD-rif-overview-20100511/#Introduction) 7

Referenties

GERELATEERDE DOCUMENTEN

De huidige marktontwikkelingen leiden tot steeds camplexere goederenstromen in produktiebedrijven. Hierdoar wordt een grote clalm gelegd op de produktiebeheersing en

• Het maken van een systematische afweging tussen de potentiële ecologische waarden van de nieuwe constructies en de huidige ecologische waarden van het schorgedeelte dat door

(A) Het opstellen van een methodiek voor het maken van een afweging tussen de potentiële eco- logische waarden van de groene dijk en de huidige waarden van het schorgedeelte dat

Eerder, eind jaren negentig, heeft Nederland haar kans niet gegrepen om de Europese draaischijf te worden voor aardgas, hetgeen onder andere heeft geresulteerd in het tot bloei

Het vooronderstelde voordeel van het combineren van methodes blijkt in de praktijk bewaarheid te worden. Door Space Syntax zijn de onderliggende randvoor- waarden

‘Het aspect gezondheid wordt soms onderbelicht, terwijl het essentieel is voor de participatie.’ Henneke Berkhout stelt dat grofweg 10 procent van de statushouders zelfstandig de

Indien ACM de begininkomsten gelijkstelt aan de efficiënte kosten, dan zijn deze overwinsten er niet en kan NOGEPA een lange reguleringsperiode (in dit geval 5 jaar) in

Vanaf 2021 1 moeten emittenten waarvan effecten tot de verhandeling op een gereglementeerde markt zijn toegelaten hun jaarlijkse financiële verslagen opstellen en