• No results found

De verenigbaarheid van het octrooi op kunstmatige intelligentie met het Europees Octrooiverdrag

N/A
N/A
Protected

Academic year: 2021

Share "De verenigbaarheid van het octrooi op kunstmatige intelligentie met het Europees Octrooiverdrag"

Copied!
47
0
0

Bezig met laden.... (Bekijk nu de volledige tekst)

Hele tekst

(1)

Faculteit der Rechtsgeleerdheid Masterscriptie Informatierecht

De verenigbaarheid van het octrooi op kunstmatige

intelligentie met het Europees Octrooiverdrag

Ingediend door S.G. Osse

Scriptiebegeleider: Dr. mr. S.J.R. Bostyn Inleverdatum: 27 juli 2018

(2)

2

Abstract

Kunstmatige intelligentie neemt een steeds grotere rol aan binnen onze maatschappij. Niet alleen het belang, maar ook de reikwijdte neemt toe. Binnen het octrooirecht komt dit ook tot weergave, het aantal octrooien op het gebied van kunstmatige intelligentie is naar verwachting flink toegenomen in de afgelopen jaren. Het doel van dit onderzoek is om de verenigbaarheid van het octrooi op kunstmatige intelligentie met het Europees Octrooiverdrag (EOV) te onderzoeken. Dit onderzoek heeft plaatsgevonden op basis van doctrinair en evaluerend onderzoek en is waar relevant en mogelijk gebaseerd op empirisch wetenschappelijk onderzoek.

Kunstmatige intelligentie, hoewel het begrip breder is, wordt in de praktijk toegepast door middel van software. Het softwareoctrooi is al jaren onderwerp van discussie binnen het octrooirecht. Het vond zijn ontstaan in de VS en werd later ook in Europa ingevoerd. Aan het softwareoctrooi onder het EOV kleven specifieke vereisten, zo moet er sprake zijn van een ‘technisch karakter’. In de praktijk treden negatieve effecten op als gevolg van softwareoctrooien. Zo zijn de octrooien relatief vaak van lage kwaliteit en de basis voor geschillen. Deze negatieve effecten zijn grotendeels aan het verlenings- en handhavingsbeleid binnen het octrooisysteem te wijten en niet aan de voorschriften zelf. Er is verder geen empirisch bewijs dat het softwareoctrooi een negatieve invloed heeft op de innovatie, noch dat het een positieve invloed heeft. Derhalve dient geconcludeerd te worden dat het softwareoctrooi verenigbaar is met het EOV.

Kunstmatige intelligentie-octrooien hebben enkele unieke kenmerken, waardoor ze niet gelijk te trekken zijn met het softwareoctrooi in het algemeen. Derhalve kan men niet zonder meer concluderen dat AI-octrooien ook verenigbaar zijn met het EOV. Deze octrooien leveren extra spanningen op met betrekking tot de nawerkbaarheid, mededinging, grondrechten en de ethiek. Men dient hierbij echter onderscheid te maken tussen toepassingen en vormen van AI. Potentiele en daadwerkelijke negatieve effecten zijn vaak inherent verbonden aan een bepaalde vorm of toepassing. Wederom kan men niet concluderen dat daarmee het AI-octrooi als geheel niet verenigbaar is met het EOV. Er is grote voorzichtigheid geboden met betrekking tot het verlenings- en handhavingsbeleid binnen het octrooirechtelijke systeem. Er dient onderscheid gemaakt te worden tussen wenselijke en onwenselijke octrooien. Het octrooi op kunstmatige intelligentie is derhalve wel verenigbaar met het EOV.

(3)

3

Inhoudsopgave

Abstract ... 2

1 Inleiding ... 4

2 Onderzoeksprobleem ... 8

2.1 Wat is al (voldoende) onderzocht? ... 9

2.2 Wat is nog niet voldoende onderzocht? ... 9

3 Onderzoeksvraag ... 10

3.1 Deelvragen ... 10

3.2 Toelichting begrippen ... 10

4 Methode van onderzoek ... 11

5 Wat is kunstmatige intelligentie? ... 12

6 Wat is de rol en betekenis van het Europees Octrooiverdrag? ... 18

7 Wat is een kunstmatige intelligentie-octrooi? ... 20

8 Wat is een softwareoctrooi en wat zijn de implicaties daarvan? ... 23

8.1 Wat is een softwareoctrooi? ... 23

8.2 De (historische) positie van software in het intellectueel eigendomsrecht ... 24

8.3 Wat zijn de implicaties van een softwareoctrooi? ... 27

8.3.1 Kwaliteit en innovatie ... 28

8.3.2 Open source software ... 28

8.3.3 Rechtvaardiging ... 28

8.3.4 Patent Assertion Entities en ‘patent trolling’ ... 29

9 In hoeverre is een softwareoctrooi verenigbaar met het EOV? ... 31

10 Welke implicaties treden op bij het octrooi op kunstmatige intelligentie? ... 34

10.1 De nawerkbaarheid ... 34

10.2 Mededingingsrechtelijke bezwaren ... 36

10.3 Strijdigheid met grondrechten en de ethiek... 37

10.4 In hoeverre zijn octrooien op kunstmatige intelligentie wenselijk? ... 38

11 Conclusie ... 39

(4)

4

1 Inleiding

We staan aan de vooravond van de vierde industriële revolutie. Hoe dit zich exact gaat ontvouwen is nog onzeker, maar vaststaat dat het onze maatschappij fundamenteel zal gaan veranderen. De manier waarop we werken, leven en omgaan met elkaar zal grote veranderingen doormaken. De derde industriële revolutie bracht ons een versmelting van technologie die de grens tussen de fysieke en digitale wereld deed vervagen en wordt dan ook niet voor niets de digitale revolutie genoemd. Men spreekt echter niet langer van een continuatie van deze derde revolutie. Vanwege de huidige en verwachte exponentiële toename in doorbraken op technologisch gebied en het feit dat vrijwel elke industrie in elk land geraakt wordt en alle structuurlagen zal omvatten spreekt men van een nieuwe, vierde, industriële revolutie.1

Kunstmatige intelligentie (of Artificial Intelligence, afgekort als 'AI') is één van de grote drijfveren achter deze nieuwe revolutie. Men kan bijna dagelijks nieuwsberichten en artikelen lezen met betrekking tot ontwikkelingen op het gebied van kunstmatige intelligentie. Dit wordt mede aangewakkerd door sprekende voorbeelden zoals IBM’s ‘Watson’ dat het televisiespelletje Jeopardy won, IBM’s ‘DeepBlue’ dat schaakgrootmeester Kasparov versloeg en Google’s ‘DeepMind’ dat de beste Go-speler wist te verslaan.2 Inmiddels is dit in

technologieland eigenlijk alweer oud nieuws.3 Dat de technologische vooruitgang niet op zich laat wachten lijkt duidelijk. Wat de impact op en de relevantie van het octrooirecht hierin is, is echter allerminst duidelijk.

1 K. Schwab, 'The fourth industrial revolution', 12 december 2015, Foreign Affairs, Council on Foreign Relations,

https://www.foreignaffairs.com/articles/2015-12-12/fourth-industrial-revolution.

2 Google nam het bedrijf Deepmind Technologies in 2014 over, in 2017 wist hun versie genaamd 'AlphaGo' de

beste menselijke go-speler met 3-0 te verslaan. Van IBM's Watson bestaan ook diverse versies die voor verschillende toepassingen gebruikt worden, inmiddels staat bijvoorbeeld één van deze toepassingen bezoekers in het Mauritshuis te woord om uitleg te geven over Rembrandt’s schilderij ‘De anatomische les van Dr. Nicolaes

Tulp’.

3 Zo heeft Google’s Go-spelende AI-systeem inmiddels alweer een nieuwe doorbraak bereikt, doordat het volledig

autonoom leert zonder menselijke inbreng. Het nieuwe systeem, genaamd ‘AlphaGo Zero’, wist het ‘oude’ systeem met 100-0 te verslaan. Voor de publicatie hieromtrent zie: D. Silver e.a., ‘Mastering the game of Go

(5)

5

De digitale revolutie bracht ons auteursrechtelijke bescherming voor computerprogramma's en vervolgens het zogenoemde softwareoctrooi.4 Karakteristiek aan ontwikkelaars van

technologische vooruitgang is immers dat zij doorgaans hun technologie zoveel mogelijk willen beschermen, niet in de minste plaats om de verworven voorsprong op de concurrentie te behouden. Juridische bescherming en met name bescherming door middel van intellectuele eigendomsrechten (hierna ook IE-rechten genoemd) biedt daarvoor een uitgelezen kans. Sinds het ontstaan van de software-industrie is daarom steevast gelobbyd voor IE-rechtelijke bescherming van software. Hoewel meerdere opties overwogen werden, waaronder bescherming onder een nieuw sui generis recht, werd gekozen om software simpelweg onder de beschermingsomvang van het auteursrecht te brengen door het als 'literair werk' te aan te merken.5 Aanvankelijk was octrooirechtelijke bescherming van computerprogramma's dus niet aan de orde.

Hier kwam verandering in toen computerprogrammatuur in de VS begin jaren 80 door veranderende interpretaties door het Amerikaanse Hooggerechtshof vatbaar voor octrooiverlening werden geacht.6 Na deze omslag volgden vele duizenden softwareoctrooien in de VS.7 In Europa zijn computerprogramma’s echter nog altijd als zodanig uitgesloten van

octrooieerbaarheid. 8 Sinds de midden jaren 80 is in Europa echter ook de deur opengezet voor het softwareoctrooi, doordat technische toepassingen van software wel toelaatbaar werden geacht onder het Europees Octrooiverdrag.9 Waar in Europa de deur op een kier werd gezet,

vloog de deur in de VS wagenwijd open. Dit kwam mede door de in de VS heersende gedachte dat ‘everything under the sun made by man’ te octrooieren is.10

4 Het Europees Octrooibureau spreekt liever van 'computer implemented inventions' of afgekort als 'CII' (of 'in

computer geïmplementeerde uitvindingen' zoals vertaald naar het Nederlands), dit komt nader aan bod in hoofdstuk 7.

5 Hierover meer in hoofdstuk 9.

6 De US Supreme Court oordeelde in 1981 in de zaak Diamond v. Diehr, 450 U.S. 175, dat computerprogramma’s

binnen de beoogde categorieën van octrooibescherming (kunnen) vallen. Meer hierover in hoofdstuk 8 van dit onderzoek.

7 M. Naser, ‘Computer software: copyrights v. patents’, Loy. L. and Techn. Ann., 2009, 39.

8 Dit volgt uit art. 52 van het Europees Octrooiverdrag (hierna ook afgekort als: EOV), hoewel deze tekst het

softwareoctrooi lijkt uit te sluiten is dit in de praktijk niet het geval. Lees meer hierover in hoofdstuk 8.

9 Dit volgde uit de zaak T 208/84, 15 juli 1986, OJ EPO 1987, 19, nr. 5 (Vicom/Computer-related invention). 10 Deze benadering volgde uit US Supreme Court 16 juni 1980, 447 U.S. 303, Diamond v. Chakrabarty.

(6)

6

Het octrooi op computerprogramma’s kan echter sinds dat het bedacht is al op stevige kritiek rekenen in zowel de Verenigde Staten als in Europa. Zo wordt door tegenstanders betoogd dat octrooien op software van slechte kwaliteit zijn en innovatie remmen.11 Daarnaast wordt getwijfeld aan de rechtvaardiging, doordat het nut van aanvullende bescherming nihil zou zijn en het negatieve effect schadelijk voor de maatschappij. Ten slotte wordt ook betoogd dat softwareoctrooien het zogenaamde ‘patent trolling’ in de hand werken.12

In Europese octrooiwetgeving is daarnaast duidelijk omschreven dat een octrooieerbare uitvinding technisch van aard moet zijn. Een abstract idee is bovendien niet octrooieerbaar. Ook moet de geclaimde uitvinding voor de relevante vakman nawerkbaar zijn, hiervoor dient de uitvinding derhalve voldoende duidelijk en volledig omschreven worden.13 Een serie vereisten die allen niet zonder meer door computerprogramma’s worden gehaald.

Ook in de VS bestaat de nodige spanning omtrent het softwareoctrooi. In de VS heeft men met de Alice-uitspraak namelijk een nieuw criterium in het leven geroepen waarbij ‘significant meer dan het abstracte idee’ wordt geëist.14 Deze uitspraak is van zeer grote invloed gebleken

op de verlening en handhaving van octrooien in de VS.15 Duidelijk is dat het softwareoctrooi

volop in beweging is. Vooruitschrijdende technieken gebaseerd op kunstmatige intelligentie roepen daarnaast vragen op met betrekking tot de wenselijkheid van octrooibescherming. Dit laatste met name vanwege de beperking die een dergelijk monopolie oplegt ten opzichte van concurrenten, waardoor enerzijds de verdere ontwikkeling afgeremd zou kunnen worden en anderzijds mogelijke meer negatieve effecten optreden die de octrooiverlening uiteindelijk onverenigbaar maakt met het Europees Octrooiverdrag en de bijbehorende grondbeginselen van het octrooirecht.

11 A. Engelfriet, ‘Open source software en octrooien, een moeilijke combinatie’, BIE, mei 2003, pag. 204-208. 12 Zie voor een nadere uitwerking van deze implicaties hoofdstuk 8 van dit onderzoek.

13 De vereisten volgen uit art. 52 en 83 EOV (2000).

14 Supreme Court of the United States 19 juni 2014, Alice Corp. v. CLS Bank International, 573 U.S. __, 134 S.

Ct. 2347.

15 A. Engelfriet, ‘De gevolgen van Alice voor het Amerikaanse softwareoctrooi’, februari 2016, Computerrecht

(7)

7

Om een goede beoordeling te kunnen maken is het nodig om te begrijpen wat kunstmatige intelligentie is. Helaas laat het zich lastig definiëren. Het kan min of meer uitgelegd worden als een situatie waarin een machine bepaalde capaciteiten heeft waarvoor een zekere mate van intelligentie is vereist. Zo kan een machine bepaalde cognitieve vaardigheden bezitten waarmee het gegevens, zoals bijvoorbeeld afbeeldingen, kan analyseren. Dit is een computerprogramma dat op basis van beschikbare informatie patronen ontdekt en verbanden legt. Zulke systemen kunnen zelflerende algoritmen omvatten, waarbij op basis van voorgaande prestaties, toekomstige analyses aangepast worden.16 Een bekend voorbeeld is het herkennen van objecten in beeldmateriaal.

Het cruciale punt in dit onderzoek is het feit dat kunstmatige intelligentie door middel van een computerprogramma wordt toegepast. AI is in de praktijk dus software.17 Octrooirechtelijk gezien ontstaat er een interessante casus. Zoals hiervoor aangegeven is het softwareoctrooi allerminst onomstreden. Het concept staat op gespannen voet met diverse grondvereisten van het Europees octrooirecht. Naarmate we de aard van kunstmatige intelligentie nader verkennen zullen we zien dat kunstmatige intelligentie deze spanningen op bepaalde punten kan vergroten. AI-uitvindingen hebben de neiging enerzijds abstracter en anderzijds moeilijker toepasbaar op basis van de omschreven uitvinding te zijn dan software-uitvindingen in het algemeen. Dit levert niet alleen problemen op ten opzichte van het feit dat abstracte ideeën uitgesloten zijn van octrooiverlening, maar ook het feit dat men alleen octrooi kan verkrijgen indien men de geclaimde uitvinding voldoende duidelijk, volledig en toepasbaar omschrijft.18

Ten slotte is de aanloop naar de vierde industriële revolutie al merkbaar binnen de octrooimarkt. Het aantal AI-octrooien neemt wereldwijd namelijk al jaren flink toe, waarbij Europa een zeer aanzienlijk deel van de markt uitmaakt.19 Verdere technologische vooruitgang, gecombineerd met big data en cloud computing leidt volgens het OECD bovendien tot een toenemende impact van kunstmatige intelligentie. Met het optrekken van de rook in de softwareoorlogen tussen enkele van de grootste bedrijven ter wereld moeten we ons afvragen of we ons op moeten maken voor een nieuwe strijd.

16 P. Flach, ‘Machine Learning: The Art and Science of Algorithms that make sense of Data’, 2012.

17 J. McCarthy, 2012, ‘What is Artificial Intelligence?’, http://www-formal.stanford.edu/jmc/whatisai/node1.html. 18 Dit volgt op basis van art. 52 en 83 EOV (2000), zie hoofdstuk 10 voor verdere behandeling van dit onderwerp. 19 OECD, “Science, Technology and Industry Scoreboard 2017”, november 2017.

(8)

8

2 Onderzoeksprobleem

Octrooien op computerprogramma’s zijn zoals hiervoor aangemerkt niet geheel onomstreden. Een van de gevaren die bestaan is dat claims binnen softwareoctrooien (te) abstracte vormen aannemen. Dit is met name een risico bij zogenaamde platform technologie, dat per definitie breed toepasbaar is op vele verschillende situaties en mogelijke problemen. Een vage en ruime formulering van een octrooi staat op gespannen voet met het beginsel van nawerkbaarheid, zoals in art. 83 van het Europees Octrooiverdrag (EOV). Octrooien die hier niet aan voldoen zijn nietig op grond van artikel 138 lid 1 sub b EOV. Het is zeer de vraag of een AI-systeem zich wel leent voor een duidelijke en voor de relevante vakman toepasbare en navolgbare omschrijving van de uitvinding. Dit is met name een probleem indien het onduidelijk is wat de uitvinding precies doet en welke oplossingen het (mogelijk in de toekomst) zal brengen. Dit kan met name een rol spelen bij zelflerende systemen, waarvan een uitvinder per definitie niet weet op welke wijze het systeem een oplossing op het probleem zal gaan toepassen. Dit doet het systeem immers op basis van de eigen ‘ervaring’.20

In dit verband kan een octrooi daarnaast mogelijk tot een mededingingsrechtelijk onwenselijke monopolie leiden. Zo zou betoogd kunnen worden dat dergelijke platformtechnologie in feite een ‘essential facility’ vormt.21 Het uitsluiten van de concurrentie van de in het octrooi

beschermde technologie kan in bepaalde gevallen misbruik van machtspositie opleveren op grond van art. 102 VWEU. Dit probleem lijkt daarnaast versterkt te worden door andere machtsposities die grote ontwikkelaars van AI-systemen, zoals Alphabet, Facebook en IBM hebben. Met name het bezit van (waardevolle) informatie moet in ogenschouw genomen worden. Kunstmatige Intelligentie systemen zoals Google’s Deepmind en IBM’s Watson werken door enorme hoeveelheden informatie te verwerken. Heeft een bedrijf dat kunstmatige intelligentie wil toepassen deze informatie niet in voldoende mate, dan valt ook geen waardevol resultaat te verwachten. In de praktijk kan dit tot effect hebben dat alleen enkele grote spelers, die grote hoeveelheden gegevens bezitten, effectief gebruik kunnen maken en de vruchten kunnen plakken van kunstmatige intelligentie technologie. Dat dit een mededingingsbeperkend

20 Een voorbeeld hiervan is Google’s ‘AlphaGo Zero’ AI-systeem, dat volledig autonoom, dus zonder menselijke

inbreng een strategie bepaalt. Zie voor uitleg over dit systeem de volgende website van de ontwikkelaar: https://deepmind.com/blog/alphago-zero-learning-scratch/.

(9)

9

effect kan hebben lijkt daarmee evident. Een oplossing daarvoor zou mogelijk in het octrooirecht gevonden kunnen of moeten worden.

Ten slotte ontstaan er enerzijds mogelijk schendingen van grondrechten en anderzijds mogelijke moraliteits- of ethische problemen. In eerste instantie met betrekking tot omvangrijke octrooien die in de praktijk slechts aan enkele partijen toekomen, zoals hierboven toegelicht. Men kan ook de vraag stellen of we via het octrooirecht potentieel vage, abstracte exclusieve rechten willen toekennen, waarvan de gevolgen lastig zijn in te schatten.

2.1 Wat is al (voldoende) onderzocht?

De discussie over het softwareoctrooi op zich en de wenselijkheid daarvan is al uitvoerig gevoerd.22 De voor-, nadelen en verschillende perspectieven worden in de literatuur uitgebreid naar voren gebracht. Het vormt daarmee een onderwerp wat op zichzelf reeds voldoende is onderzocht. Ook zijn de afgelopen jaren op het gebied van het softwareoctrooi enkele empirische onderzoeken verricht die zich hebben gericht op het analyseren van de werking van het softwareoctrooi, deze gegevens zijn door inherente beperkingen echter niet altijd even bruikbaar.23 Het is belangrijk om te realiseren dat de discussie rond het kunstmatige intelligentie-octrooi in belangrijke mate op de discussie rond het softwareoctrooi is gestoeld. Doordat het softwareoctrooi in de literatuur voldoende is uitgediept, vormt dit een goede basis voor verder analyse van het octrooi op kunstmatige intelligentie.

2.2 Wat is nog niet voldoende onderzocht?

Er is onvoldoende onderzoek bekend naar de positie van kunstmatige intelligentie-octrooien binnen het octrooirecht. Met name waar het gaat om mogelijk te abstracte uitvindingen. Zo staat de abstracte aard van claims binnen AI-octrooien namelijk op gespannen voet met het beginsel van nawerkbaarheid, dat voortvloeit uit artikel 83 van het EOV.24 De uitvinding in het

22 Zoals nader aan bod zal komen in hoofdstuk 8 van dit onderzoek.

23 Zie voor een overzichtelijke behandeling van enkele van deze onderzoeken het volgende artikel: R. Bakels, ‘Softwareoctrooien: een vanzelfsprekendheid of een gevaarlijke ontaarding?’, 20 december 2002, Computerrecht

347-352 6. Dit onderwerp, met inbegrip van meer recente onderzoeksresultaten zal in deze masterscriptie nader aan bod komen.

24 R. Hermans, D. de Lange, ‘Kort Begrip van het Intellectuele Eigendom’, Wolters Kluwer, 12e druk, 2017,

(10)

10

octrooi moet immers duidelijk, volledig en toepasbaar beschreven worden.25 Juist bij

kunstmatige intelligentie is dit niet altijd gemakkelijk te bewerkstelligen, immers weet men bij bijvoorbeeld zelflerende systemen (nog) niet welke mogelijke oplossingen het systeem zal aandragen. Daarnaast is een breder onderzoek nodig naar de aanvaardbaarheid van het octrooieren van kunstmatige intelligentie. Het gevaar van machtsposities en strijdigheid met grondrechten als gevolg van het exclusieve recht is namelijk aanwezig. Daarnaast bestaan er mogelijk ethische bezwaren of moraliteitsproblemen met het toestaan van octrooien in sectoren zoals bijvoorbeeld de gezondheidszorg. Het Europees octrooiverdrag bevat namelijk een octrooiverbod voor uitvindingen die in strijd zijn met de openbare orde of de goede zeden.26 Zoals eerder vermeld neemt het aantal AI-octrooien al jaren enorm toe. Opvallend daarbij is dat maar liefst een derde van alle octrooiaanvragen op medische diagnoses gebaseerd zijn op (onderdelen van) kunstmatige intelligentie.27

3 Onderzoeksvraag

‘In hoeverre is een octrooi op kunstmatige intelligentie verenigbaar met het Europees Octrooiverdrag?’

3.1 Deelvragen

- ‘Wat is kunstmatige intelligentie?’

- 'Wat is de rol en betekenis van het Europees Octrooiverdrag?' - 'Wat is een kunstmatige intelligentie-octrooi?'

- 'Wat is een softwareoctrooi en wat zijn de implicaties daarvan?'

- ‘In hoeverre is een softwareoctrooi verenigbaar met het Europees Octrooiverdrag?’ - 'Welke implicaties heeft een octrooi op kunstmatige intelligentie?'

3.2 Toelichting begrippen

Het concept ‘kunstmatige intelligentie’, oftewel artificial intelligence (‘AI’) kent geen eenduidige definitie. Het begrip van een ‘octrooi op kunstmatige intelligentie’ of een

25 Octrooien die hier niet aan voldoen zijn nietig op grond van art. 138 lid 1 sub b EOV. 26 Zie artikel 53 sub a van het Europees Octrooiverdrag.

(11)

11

octrooi’ laat zich daarom ook lastig afbakenen. Ten behoeve van dit onderzoek zal daarom uit worden gegaan van de operationalisering van beide begrippen zoals deze in hoofdstuk 5 en hoofdstuk 7 naar voren komt. In dat kader wordt in essentie uitgegaan van een kunstmatige intelligentie-octrooi indien de geoctrooieerde uitvinding een toepassing is op een of meer gebieden van kunstmatige intelligentie.

Omdat het Europees Octrooiverdrag geen geïsoleerd eiland is, maar juist binnen een web van (EU) verdragen, verordeningen, jurisprudentie en nationale wetgeving geïnterpreteerd moet worden, leent het begrip ‘verenigbaarheid’ zich voor een toets die niet alleen gericht is op de directe vereisten vanuit het EOV zelf. Juist ook de vereisten en beginselen die uit andere bronnen voortvloeien en van invloed zijn op het EOV, moeten in deze toets betrokken worden. Zo kan men denken aan beginselen van het octrooirecht in het algemeen, zoals het stimuleren van innovatie, maar ook aan rechten en plichten omtrent de mededinging. Voor volledige verenigbaarheid met het EOV, dient het octrooi op kunstmatige intelligentie ten slotte ook verenigbaar te zijn met principes en beginselen van het octrooirecht.

Met het begrip ‘verenigbaar’ wordt dus bedoeld de aanvaardbaarheid van octrooiverlening voor een uitvinding, op grond van de formele en inhoudelijke eisen zoals gesteld in het Europees Octrooiverdrag. Maar ook de aanvaardbaarheid en wenselijkheid. Deze laatste toets gaat zoals gezegd verder dan een toets aan de formele en materieelrechtelijk eisen. En zal ingaan op rechtsbeginselen, mededingingsrechtelijke overwegingen en moraliteits- en ethische aspecten. Om de onderzoeksvraag te kunnen beantwoorden dienen daarom eerst deelvragen gericht op deze verschillende aspecten beantwoord te worden. Het belang en de positie van het Europees Octrooiverdrag wordt nader uiteengezet in hoofdstuk 6. Dit hoofdstuk dient tevens ter verklaring waarom dit onderzoek zich op de verenigbaarheid met dit verdrag richt en niet op nationale wetgeving.

4 Methode van onderzoek

In dit onderzoek wordt naast verenigbaarheid van een octrooi op kunstmatige intelligentie ook de wenselijkheid of aanvaardbaarheid daarvan worden onderzocht. Het onderzoek valt dus feitelijk uiteen in een beschrijvend onderzoek met betrekking tot de verenigbaarheid enerzijds

(12)

12

en een evaluerend onderzoek met betrekking tot de wenselijkheid van octrooien op kunstmatige intelligentie anderzijds.

De onderzoeksvraag zal aan de hand van twee methodes beantwoord worden. De verenigbaarheid met het EOV zal middels een doctrinair onderzoek onderzocht worden. Bestaande benaderingen zullen aan de hand van de literatuur en jurisprudentie aangenomen criteria beoordeeld worden. De wenselijkheid en aanvaardbaarheid zal deels mede aan de hand van doctrinair onderzoek beantwoord kunnen worden. Het tweede deel zal toezien op een evaluerend onderzoek. Dit zal aan de hand van het normatieve standpunt plaatsvinden. Verantwoording van het normatieve standpunt volgt op basis van de geldende literatuur en zal in dit verslag omschreven en uitgebreid behandeld worden. Hierin wordt ook gebruik gemaakt van recente wetenschappelijke onderzoeken waarbij empirische gegevens zijn vergaard met betrekking tot de functie en baten van het softwareoctrooi.28

5 Wat is kunstmatige intelligentie?

Om te begrijpen wat kunstmatige intelligentie is, zou het nuttig zijn om te starten met een definitie. Toch is het al meer dan 60 jaar vrijwel onmogelijk gebleken om een eenduidige definitie van AI te geven. Dit onderzoek zal logischerwijs geen einde aan deze discussie maken, derhalve zullen de verschillende perspectieven nader belicht worden en zal gezocht worden naar een werkbaar concept ten behoeve van het beantwoorden van de onderzoeksvraag.

Om duidelijkheid te scheppen is het zinvol om te beginnen bij de eerste beschrijving van AI, zoals die gegeven werd door J. McCarthy in 1956 ten behoeve van de eerste academische bijeenkomst over dit onderwerp:

‘[…] every aspect of learning or any other feature of intelligence can in principle be so

precisely described that a machine can be made to simulate it. An attempt will be made

28 Zie bijvoorbeeld: D.W.F. Verkade, D.J.G. Visser & L.D. Bruining, ‘Ruimere octrooiëring van computerprogramma's: technicality of revolutie?’, IteR series nr. 37, Den Haag: Sdu Uitgevers 2000; ‘De juridische en economische aspecten van het softwareoctrooi’, Ministerie van Economische Zaken, december

(13)

13

to find how to make machines use language, form abstractions and concepts, solve kinds of problems now reserved for humans, and improve themselves. […] For the present purpose the artificial intelligence problem is taken to be that of making a machine behave in ways that would be called intelligent if a human were so behaving.’29

Enkele aspecten van kunstmatige intelligentie die daarbij genoemd werden waren bijvoorbeeld: Het simuleren van de hogere functies van het menselijke brein, het programmeren van een computer, zodat het een taal kan gebruiken, zelfverbetering van de machine en creatief denken. Hoewel verschillende wetenschappers zich al bezighielden met verschillende van deze aspecten, zoals bijvoorbeeld de bekende wetenschapper Alan Turing, wordt McCarthy alom gecrediteerd met het introduceren van het begrip ‘kunstmatige intelligentie’ om dit gebied te omschrijven.30

Jack Copeland, die meerdere boeken en vele artikelen heeft geschreven over AI definieert het simpelweg als volgt:

‘[…] the science of making computers do things that require intelligence when done by

humans.’31

Zijn definitie komt sterk overeen met de definitie die Kurzweil in 1990 gaf:

‘The art of creating machines that perform functions that require intelligence when performed by people.’32

Nils J. Nilsson omschreef kunstmatige intelligentie in 1998, als volgt:

29 J. McCarthy, M. L. Minsky, N. Rochester, C.E. Shannon, ‘A proposal for the Dartmouth summer research project on artificial intelligence’, http://www-formal.stanford.edu/jmc/history/dartmouth/dartmouth.html. 30 Sommige wetenschappers zien in het werk van Descartes al de basis voor de discussie omtrent kunstmatige

intelligentie, zie daarvoor: G. Oppy, D. Dowe, ´The Turing Test’, Stanford Encyclopedia of Philosophy, 8 februari, 2016, https://plato.stanford.edu/entries/turing-test/.

31 J. Copeland, ‘What is Artificial Intelligence?’, 2000,

http://www.alanturing.net/turing_archive/pages/reference%20articles/what%20is%20ai.html.

(14)

14

‘AI […] is concerned with intelligent behaviour in artifacts.’

In een veel recentere publicatie omschrijft J. McCarthy, die de term zelf introduceerde in 1956, kunstmatige intelligentie als volgt:

‘the science and engineering of making intelligent machines, especially intelligent computer programs. It is related to the similar task of using computers to understand human intelligence, but AI does not have to confine itself to methods that are biologically observable.’33

Russell en Norvig hebben in hun handboek over kunstmatige intelligentie maar liefst acht veel voorkomende definities over de volgende vier verschillende categorieën kunnen onderscheiden: ‘Thinking Humanly’, ‘Thinking Rationally’, ‘Acting Humanly’ en ‘Acting

Rationally’.34 Zij geven daarbij aan dat het bij deze categorisering om verschillende

benaderingen van het brede gebied van kunstmatige intelligentie gaat. De categorieën zijn onder te verdelen in het gedachteproces (‘Thinking’) en het gedrag (‘Acting’) van kunstmatige intelligentie. Zo kan het concept van AI vanuit computerwetenschappelijk, psychologisch of filosofisch perspectief benaderd worden. Waarbij dus elk perspectief eigen en enigszins faciliterende definities kent.

De terugkerende complicatie in het omschrijven van AI zit in de invulling van het begrip ‘intelligentie’. Copeland geeft bijvoorbeeld aan dat een simpele handeling van een mens intelligent kan zijn, terwijl complex gedrag van een insect niet intelligent is. Volgens hem, ligt het onderscheid in het vermogen het gedrag aan te passen. Waar insecten dezelfde complexe handeling zullen herhalen, kan een mens zijn gedrag aanpassen. Onderzoek op het gebied van AI heeft zich daarom toegespitst op: leren, redeneren, problemen oplossen, perceptie en taalbegrip.35 McCarthy omschrijft intelligentie als: ‘the computational part of the ability to

achieve goals in the world.’. Hij geeft daarbij aan dat er geen definitie van intelligentie bestaat

33 J. McCarthy, 2012, ‘What is Artificial Intelligence?’, http://www-formal.stanford.edu/jmc/whatisai/node1.html. 34 S. Russell, P. Norvig, ‘Artificial Intelligence: A Modern Approach’, derde edtie, Pearson Education, 2010, pag.

1 en 2.

35 J. Copeland, ‘What is Artificial Intelligence?’, 2000,

(15)

15

die niet gerelateerd is aan menselijke intelligentie. Er is nog geen algemene opvatting wat als intelligent voor machines valt aan te duiden, volgens de wetenschapper.36

Alan Turing, door velen gezien als de grondlegger van de computerwetenschap, gaf in zijn paper genaamd: ‘Computing Machinery and Intelligence’ aan dat de vraag of machines kunnen denken niet interessant is. Waar het volgens hem om ging is de potentie van machines om de manifestaties van het menselijke denkproces te emuleren, niet het repliceren van het menselijke denkproces op zich.37 Deze notie vormt de basis voor de welbekende ‘Turing-test’, een experiment op basis waarvan een machine al dan niet intelligentie kan worden toegeschreven, volgens de wetenschapper. Onderdeel van de Turing-test is het zogenaamde Imitatiespel (‘Imitation Game’), waarbij een menselijke interviewer is gescheiden van een ander persoon en een machine. De taak van de interviewer is om vast te stellen welk van hun de machine is, de taak van de machine daarentegen is om de interviewer te misleiden. De derde persoon heeft als taak om duidelijk te maken dat de ander de machine is.38 De test functioneert als een operationalisering van het begrip intelligentie. Machines moeten over een serie aan eigenschappen beschikken om de potentie te hebben om te slagen. Dit omvat onder andere de capaciteit om taal te verwerken, kennis te ‘onthouden’, geautomatiseerd te redeneren en zelf te leren. Daarnaast heeft de machine fysieke capaciteiten nodig om objecten te onderscheiden en ermee om te gaan.39 Als een machine voor de test slaagt, wordt deze geacht intelligent te zijn.

Dit sluit echter niet uit dat machines die niet voor de test slagen, toch een vorm van kunstmatige intelligentie bezitten. Deze benadering wordt door Russell en Norvig onder ‘acting humanly’ geschaard, namelijk het repliceren van manifestaties van menselijk (intelligent) gedrag.

Bij de benadering ‘thinking humanly’ wordt juist ingegaan op het werken van het menselijke brein in verhouding tot AI en heeft een cognitieve wetenschappelijke inslag. De cognitieve inslag komt voort uit de bij deze benadering centraal staande gedachte dat het enkele feit dat een AI een menselijke taak goed kan uitvoeren nog niet wil zeggen dat het daarom ook een

36 J. McCarthy, 2012, ‘What is Artificial Intelligence?’, http://www-formal.stanford.edu/jmc/whatisai/node1.html. 37 A. M. Turing, ‘Computing Machinery and Intelligence’, Mind 59, 1950, pag. 433-460.

38 G. Oppy, D. Dowe, ´The Turing Test’, Stanford Encyclopedia of Philosophy, 8 februari, 2016,

https://plato.stanford.edu/entries/turing-test/.

39 S. Russell, P. Norvig, ‘Artificial Intelligence: A Modern Approach’, derde edtie, Pearson Education, 2010, pag.

(16)

16

goede representatie is van menselijk gedrag.40 Dit is een belangrijk verschil tussen de acting-

en thinking-benaderingen. Om te bepalen of een AI-systeem als een mens denkt, moet het menselijke gedachteproces vastgesteld worden. Dit kan bijvoorbeeld door psychologische experimenten plaatsvinden. Op deze manier kunnen door het samenbrengen van AI-computermodellen en experimentatie-technieken uit de psychologie, menselijke gedachteprocessen met AI-mechanismen vergeleken worden. Hiermee kan men ten opzichte van de vastgestelde menselijke gedachteprocessen beredeneren dat AI daadwerkelijk intelligent gedrag vertoont, indien het vergelijkbare processen kan toepassen.41 Een bekend voorbeeld van deze benadering is de ‘General Problem Solver’ van Newell, Shaw en Simon, het eerste gedetailleerde computermodel van menselijk probleemoplossend gedrag. De focus lag niet alleen op het oplossen van een probleem, maar ook op het volgen van een menselijke redenering.42

De ‘thinking rationally’ benadering heeft een meer filosofische inslag. De focus ligt hierbij op de logica. Het gaat om de capaciteit van kunstmatige intelligentie om bijvoorbeeld te kunnen concluderen dat na A en B, C volgt. Het systeem dient op basis van de juiste parameters altijd tot de juiste conclusie te komen. Wordt de wet van de logica gevolgd, dan kan men beredeneren dat het systeem een rationeel gedachteproces nabootst en dus een vorm van intelligentie vertoont. In de praktijk kan het echter vaak lastig zijn om logische parameters in te stellen, vooral in situaties waarin de informatie niet volledig vaststaat.43

De laatste benadering, ‘acting rationally’, wordt door Russell en Norvig omschreven als de theorie waarbij agens, of het middel centraal staat. Volgens deze benadering kan een systeem intelligentie vertonen indien het rationeel gedrag toepast om de (verwachte) beste uitkomst op een probleem te vinden. Deze benadering omvat de voorgaande benadering, omdat het systeem logisch dient te redeneren om tot een rationele uitkomst te komen. Echter kan niet al het rationeel gedrag onder een rationeel gedachteproces, dat plaatsvindt op basis van logica,

40 S. Russell, P. Norvig, ‘Artificial Intelligence: A Modern Approach’, derde edtie, Pearson Education, 2010, pag.

3.

41 Idem.

42 J. Laird, P. Rosenbloom, ‘The Research of Allen Newell’, AI Magazine, vol. 13 nr. 4, 1992, pag. 24 t/m 27. 43 S. Russell, P. Norvig, ‘Artificial Intelligence: A Modern Approach’, derde edtie, Pearson Education, 2010, pag.

(17)

17

gebracht worden. In sommige situaties is er bijvoorbeeld geen logische uitkomst, maar dient er toch een beslissing te worden genomen. Deze benadering gaat dus verder dan enkel rationeel

denken. Deze definitie van kunstmatige intelligentie heeft twee voordelen. Enerzijds is het

meeromvattend dan het denkproces en kijkt men ook naar het resulterende gedrag. Anderzijds vormt het begrip ‘rationaliteit’ een werkbaardere basis dan die van de benaderingen waarbij men spiegelt aan het menselijke gedrag of gedachteproces. Rationaliteit laat zich makkelijker definiëren en is algemeen van aard.44

Van Dale definieert rationalistisch als volgt: “vertrouwend op verstandelijke redenering” en ‘rationeel’ simpelweg als ‘redelijk’. Ook in de Engelse taal, op basis waarvan de term ‘rational

AI’ is voortgekomen, gaat het om het verstand en de rede.45 Men kan aan de hand van dit begrip

dus beoordelen of een AI-systeem ofwel een logisch proces volgt ofwel een rationele uitkomst weergeeft, waardoor men eenvoudiger kan concluderen dat er sprake is van intelligentie. Deze benadering is echter slechts een mogelijke route, andere benaderingen blijven relevant en het gehele begrip ‘kunstmatige intelligentie’ is en blijft constant in beweging.

Er zijn verschillende soorten AI te onderscheiden. Allereerst is er de meest basale soort: “Reactieve AI”. Deze systemen zijn enkel reactief, doordat zij niet de capaciteit hebben om geheugen te vormen om informatie met betrekking tot het nemen van toekomstige beslissingen te verwerken. Het systeem heeft geen eigen of intern concept van de wereld, het werkt op basis van wat het op dat moment direct waarneemt. Het principe is dus dat reactieve AI op dezelfde situatie altijd hetzelfde reageert. Op dit moment behoren de meeste kunstmatige intelligentie-systemen nog tot deze soort. IBM’s Deep Blue, Google’s AlphaGo zijn hier voorbeelden van.46

De tweede soort wordt “Beperkt geheugen AI” (‘limited memory AI’) genoemd. Deze systemen kunnen tot een bepaalde mate terug in de geschiedenis kijken. Een voorbeeld hiervan

44 S. Russell, P. Norvig, ‘Artificial Intelligence: A Modern Approach’, derde edtie, Pearson Education, 2010, pag.

5.

45 Zie definities van ‘Rational’ in Merriam-Webster- en Cambridge-woordenboeken,

https://www.merriam-webster.com/dictionary/rational & https://dictionary.cambridge.org/dictionary/english/rational#dataset-british.

46 A. Hintze, ‘Understanding the four types of AI, from reactive robots to self-aware beings’, The Conversation,

14 november 2016, https://theconversation.com/understanding-the-four-types-of-ai-from-reactive-robots-to-self-aware-beings-67616.

(18)

18

is de zelfrijdende auto, deze wordt niet alleen bestuurd op basis van een momentopname, maar juist door informatie over een tijdspanne te beoordelen. Zo houdt het systeem bijvoorbeeld de bewegingen van andere voertuigen bij, om op basis hiervan vast te stellen wat de beste oplossing is.47

De derde soort wordt “Theory of mind” genoemd, naar het psychologisch concept dat inhoudt dat individuen emoties en gedachten aan zichzelf en anderen kunnen toeschrijven.48 Dit is cruciaal om sociale interactie mogelijk te maken. Voorlopig is deze vorm van kunstmatige intelligentie slechts toekomstmuziek, en kennen we het vooral van science fiction films.49

De vierde soort is de “Zelfbewuste AI” (Self awareness) en vormt de laatste stap in de ontwikkeling van kunstmatige intelligentie. Het systeem kan representaties van zichzelf vormen en heeft een bewustzijn. Een bewust wezen is op de hoogte van de eigen geestesgesteldheid en kan emoties bij anderen voorspellen. De zelfbewuste AI gaat verder waar de derde soort ophoudt. Dit vierde type AI kan niet alleen emoties en gedachten toeschrijven aan zichzelf en anderen, maar kan van daaruit ook abstraheren en conclusies afleiden.50

Ten slotte zijn er twee filosofische hypotheses met betrekking tot de manier waarop kunstmatige intelligentie werkt. De stelling dat systemen kunnen handelen alsof ze intelligent zijn, noemt men zwakke AI. De stelling dat systemen die dat doen ook daadwerkelijk nadenken (en dus niet louter simuleren), noemt men sterke AI.51

6 Wat is de rol en betekenis van het Europees Octrooiverdrag?

De hoofdvraag richt zich op de verenigbaarheid met het EOV en dient derhalve nader uiteengezet te worden. Het op 5 oktober 1973 in München tot stand gekomen Europees

47 Idem.

48 D. Premack, G. Woodruff, ‘Does the chimpanzee have a theory of mind?’, The Behavioral and Brain Sciences,

nr. 4, 1978, pag. 515 t/m 526.

49 S. Russell, P. Norvig, ‘Artificial Intelligence: A Modern Approach’, derde edtie, Pearson Education, 2010, pag.

5.

50 Idem. 51 Idem.

(19)

19

Octrooiverdrag (Verdrag inzake de verlening van octrooien of EOV) heeft ervoor gezorgd dat het nationaal octrooirecht in de lidstaten een beperktere rol is gaan spelen.52 Het verdrag bepaalt

onder andere dat er een gemeenschappelijke aanvraagprocedure is, die voor alle nationale lidstaten geldt. Na verlening valt de aanvraag uiteen in de verschillende nationale octrooien. In beginsel betekent dit dat de nationale octrooien onder de betreffende nationale jurisdictie vallen. In art. 2 bepaalt het EOV echter dat het octrooi aan het nationale recht is onderworpen, tenzij het verdrag anders bepaalt. Voor veel belangrijke regels, zoals de geldigheid en de nietigheidsgronden van het octrooi, gelden de bepalingen uit het EOV rechtstreeks. Veelal zijn bepalingen uit het EOV in het nationale recht verwerkt, of wordt er naar de relevante bepaling in het EOV verwezen.53 Nationale rechters zijn gehouden deze onderwerpen op basis van het EOV toe te passen en te interpreteren.54 Met het EOV is ook het Europees Octrooibureau (EOB) in het leven geroepen. Dit bureau is verantwoordelijk voor de behandeling en de beoordeling van de centrale octrooiaanvraag. Zowel tijdens de aanvraag als na verlening wordt het octrooi dus beheerst door het EOV. Ten slotte was het doel van het EOV ook niet om uitsluitend een gebundelde aanvraagprocedure in het leven te roepen, maar juist ook om meer uniformiteit in het Europese octrooirecht te brengen. Derhalve bevat het verdrag ook uitgebreide materieelrechtelijke bepalingen.55 Van belang voor dit onderzoek is dat het EOV de

octrooieerbaarheid (art. 52 tot en met 57), de nawerkbaarheid (art. 83) en de nietigheidsgronden (art. 138) geharmoniseerd zijn. Hierin zijn namelijk de grondbeginselen van het (Europees) octrooirecht gevat, op basis waarvan men een analyse kan maken ten opzichte van de verenigbaarheid met het octrooieren van kunstmatige intelligentie.

Op grond van art. 52 EOV volgt dat Europese octrooien worden verleend voor uitvindingen op het gebied van technologie, mits zij nieuw en industrieel toepasbaar zijn en berusten op uitvinderswerkzaamheid. Art. 83 EOV legt de verplichting op om een uitvinding zodanig

52 R. Hermans, D. de Lange, ‘Kort Begrip van het Intellectueel Eigendomsrecht: studenteneditie’, Wolters

Kluwer, 2017, Hoofdstuk II (Octrooirecht), pag. 15-22.

53 Idem.

54 D. Stauder, S. Luginbühl, R. Singer & M. Singer, 'Europäisches Patentübereinkommen', Kommentar, 7e druk,

Köln.

55 R. Hermans, D. de Lange, ‘Kort Begrip van het Intellectueel Eigendomsrecht: studenteneditie’, Wolters Kluwer,

(20)

20

duidelijk en volledig te openbaren dat deze door de vakman kan worden toegepast. Uit art. 138 EOV volgt dat octrooien die hier niet aan voldoen nietig zijn.56

Vatbaar voor octrooi onder het Europees Octrooiverdrag (EOV) zijn dus uitvindingen, die nieuw, inventief en toepasbaar op het gebied van nijverheid zijn. De uitvinding dient technisch van aard te zijn, dat wil zeggen een ‘technisch karakter’ hebben. Wat exact als technisch bestempeld kan worden is vatbaar voor discussie.57 Daarnaast moet de uitvinding ‘nawerkbaar’ zijn, de vakman moet de uitvinding kunnen toepassen op basis van de informatie in de octrooiaanvraag.58 Uitgesloten van octrooi zijn esthetische vormgevingen, stelsels, regels en methoden voor het verrichten van geestelijke arbeid, voor spelen of de bedrijfsvoering, computerprogramma’s, presentatie van informatie.59 Daarnaast zijn uitvindingen waarvan de

commerciële toepassing strijdig zou zijn met de openbare orde of met de goede zeden ook niet vatbaar voor octrooi.60

7 Wat is een kunstmatige intelligentie-octrooi?

We hebben gezien dat kunstmatige intelligentie een uiterst breed begrip is, dat vele definities kent. Het oorspronkelijke principe is de gedachte van de intelligente machine, maar kunstmatige intelligentie draait in de praktijk voornamelijk om intelligente computerprogramma’s.61 Vandaar dat nu vooral over kunstmatige intelligentie-systemen wordt

gesproken. We hebben ook gezien dat hardware deel kan uitmaken van een AI-systeem, of in sommige gevallen zelfs vereist is. Dit laatste is het geval voor de beroemde Turing-test, waarbij een AI-systeem onder andere objecten moet kunnen waarnemen en deze moet kunnen manipuleren, om te kunnen slagen. Een hardware-onderdeel is echter niet vereist om onder het begrip van kunstmatige intelligentie te vallen. In het octrooirecht zal in beginsel wel een hardware-matige uitwerking geclaimd worden, vanwege de vereiste dat uitvindingen technisch

56 In hoofdstuk 9 volgt een toepassing van deze begrippen.

57 R. Hermans, D. de Lange, ‘Kort Begrip van het Intellectuele Eigendom’, Wolters Kluwer, 12e druk, 2017, pag.

23.

58 Art. 83 EOV (2000). 59 Art. 52 lid 2 EOV (2000). 60 Art. 53, sub a EOV (2000).

(21)

21

van aard dienen te zijn om in aanmerking te komen voor octrooibescherming onder het EOV. Dit komt er in de praktijk op neer dat octrooiaanvragen, die toezien op een uitvinding op het gebied van kunstmatige intelligentie, doorgaans als zogenaamde ‘in computer geïmplementeerde uitvindingen’ (‘computer implemented inventions’ of ‘CII’ en in de literatuur ook wel softwareoctrooi genoemd) vormgegeven zullen worden. Deze praktijk heeft grote invloed op de positie van kunstmatige intelligentie in het octrooirecht. Nadere duiding van het begrip ‘CII’ en het softwareoctrooi volgt daarom in hoofdstuk 9 van dit onderzoek.

Om de verenigbaarheid van kunstmatige intelligentie-octrooien met het EOV te kunnen onderzoeken is het belangrijk om zowel naar de huidige situatie te kijken als ook de (verwachte) toekomstige situatie. Enerzijds is het ten behoeve van dit onderzoek dus belangrijk om de huidige staat van kunstmatige intelligentie-octrooien vast te stellen. Anderzijds biedt de conceptualisering van het begrip ‘kunstmatige intelligentie’ in het vorige hoofdstuk voldoende handvatten om het concept van AI als voor octrooi vatbare uitvindingen te onderzoeken met betrekking tot zowel octrooieerbaarheid als aanvaardbaarheid van octrooiaanvragen. In beide gevallen zal een AI-octrooi in ieder geval primair als softwareoctrooi, dat wil zeggen CII-octrooi, vormgegeven worden. Simpelweg omdat mechanische- of computeronderdelen niet op zichzelf staand over intelligente gedachteprocessen of gedragingen zullen beschikken.

Bestaande AI-octrooien kan men op verschillende manieren herkennen, bijvoorbeeld als de geclaimde uitvinding binnen de definities van kunstmatige intelligentie valt. Of als de geclaimde uitvinding binnen een of meer soorten van kunstmatige intelligentie valt onder te brengen. Hierbij speelt het ontbreken van een eenduidige definitie natuurlijk een rol, waardoor het lastiger is om vast te stellen of het daadwerkelijk om kunstmatige intelligentie gaat of niet. Omdat onduidelijk is waar precies kunstmatige intelligentie begint en waar het ophoudt is het in de praktijk onmogelijk om met volledige zekerheid vast te stellen dat een bepaalde uitvinding wel of geen kunstmatige intelligentie is. De verschillende benaderingen binnen het wetenschappelijke gebied van kunstmatige intelligentie maken het mogelijk om langs diverse routes te beredeneren dat het in verschillende gevallen juist wel of niet om kunstmatige intelligentie gaat. Zo kan een AI-systeem bijvoorbeeld mogelijk perfect menselijk gedrag nabootsen, op basis waarvan in de ‘acting humanly’ benadering beredeneert kan worden dat dit een vorm van kunstmatige intelligentie is, terwijl via de meer filosofische ‘thinking

humanly’ of de cognitief-wetenschappelijke ‘thinking rationally’ beredeneert kan worden dat

(22)

22

gedrag, hoe perfect dan ook, is in de laatste genoemde benaderingen namelijk geen doorslaggevende maatstaf om een systeem ook daadwerkelijk als intelligent te kunnen omschrijven. Daarvoor is in dat geval juist een menselijk gedachteproces, of een rationeel gedachteproces nodig. Dit is voor het enkele nabootsen van manifestaties van menselijk gedrag echter strikt genomen niet vereist.

Een simpele selectie van octrooien op basis van gebuikte bewoordingen in de omschrijving en claims biedt ook geen oplossing. Hoewel het heel goed mogelijk is dat in veel gevallen AI gerelateerde termen terecht gebruikt worden, bestaat het gevaar dat veel octrooien die als kunstmatige intelligentie (of aanverwante termen) omschreven worden in werkelijkheid geen kunstmatige intelligentie zijn.62 In het eerder aangehaalde onderzoek van het OECD naar de status van AI-octrooien wereldwijd werden enkele van deze complicaties ook erkend.63 In dit onderzoek is de conclusie getrokken dat octrooien die binnen de categorieën vallen van “Human interface” en “Cognition and meaning understanding”, zoals het OECD deze eerder heeft voorgesteld om toe te passen om octrooien in de ICT sector, geacht worden gerelateerd te zijn aan kunstmatige intelligentie. De voorgestelde categorieën zijn gebaseerd op het

International Patent Classification systeem (“IPC”) en wordt ook wel de “J tag” genoemd.64

Het voordeel hierbij is dat men aan de hand van de classificering van een octrooi, dat in beginsel door de octrooibeoordelaar aan de aanvraag wordt gegeven tijdens het beoordelingsproces, kan zien of binnen het kader van het onderzoek valt of niet. Een nadeel hiervan is dat elke categorisering tegen dezelfde problemen aanloopt als het in eerste instantie definiëren van de uitvinding. Het is eigenlijk een omweg om statistisch verantwoorde gegevens te kunnen genereren, maar het neemt het omkaderingsprobleem rond kunstmatige intelligentie niet weg.

Het is dus noodzakelijk om vast te stellen dat het beoordelen van de octrooirechtelijke situatie van kunstmatige intelligentie, voor zover dit toeziet op reeds verleende octrooien, inherent

62 Zie ter illustratie bijvoorbeeld: R. Schestowitz, ‘The EPO is Demolishing European Law With Terms Like ICT, CII, AI, and 4IR’, Techrights, 31 mei 2018, http://techrights.org/2018/05/31/swpats-as-ict-cii-ai-and-4ir/. 63 OECD, ‘Science, Technology and Industry Scoreboard 2017’, OECD november 2017, pag.

22.

64 Inaba, T. and M. Squicciarini (2017), ‘ICT: A new taxonomy based on the international patent classification’, OECD Science, Technology and Industry Working Papers, No. 2017/01, OECD Publishing, Paris.

(23)

23

beperkt is.65 Dit neemt echter niet weg dat bestaande octrooien individueel tegen het licht

kunnen worden gehouden. Zolang betracht wordt dat er beperkingen bestaan ten opzichte van de mogelijkheid om generalistische conclusies te trekken. Individuele octrooien, maar ook markten en trends zijn regelmatig het onderwerp van jurisprudentie en wetenschappelijke onderzoeken. Op basis van deze literatuur, met inbegrip van empirisch onderzoek naar het functioneren van softwareoctrooien, kan een doctrinair en evaluerend onderzoek naar de verenigbaarheid met het EOV van kunstmatige intelligentie-octrooien wel plaatsvinden.66

8 Wat is een softwareoctrooi en wat zijn de implicaties daarvan?

Bij de beantwoording van de vraag wat een kunstmatige intelligentie-octrooi is, is naar voren gekomen dat het in feite een specifieke variant van het softwareoctrooi is. Weliswaar heeft kunstmatige intelligentie en de bijbehorende octrooien karakteristieken die tot op zekere hoogte verschillen van het softwareoctrooi in zijn algemeenheid, toch is een AI-octrooi in de praktijk ook altijd een softwareoctrooi. Om de hoofdvraag van dit onderzoek te kunnen beantwoorden is het daarom van essentieel belang dat de implicaties en de hoedanigheid van het softwareoctrooi uiteengezet en geanalyseerd wordt.

8.1 Wat is een softwareoctrooi?

Ondanks dat men een vrij eenduidig beeld heeft van wat onder software verstaan wordt, blijft het lastig om een grenslijn te bepalen tussen wat wel en wat geen softwareoctrooi is.67 De multidisciplinaire discussie rond softwareoctrooien maakt het bovendien moeilijk om tot een definitie te komen.68 Ten behoeve van een onderzoek naar softwareoctrooien zou men een

65 Dit probleem doet zich ook voor met betrekking tot het softwareoctrooi, zie: K. Koelman, ‘Octrooi op software’,

I&I 2003-6, pag. 20-27.

66 Het onderzoek van het OECD is hier een voorbeeld van, in de nadere behandeling van de implicaties van

software- en kunstmatige intelligentie-octrooien zullen meer empirische onderzoeken aan bod komen. Zie hiervoor hoofdstukken 8 en 10.

67 K. Koelman, ‘Octrooi op software’, I&I 2003-6, p. 20-27; A. Layne-Farrar, ‘Defining software patents: a research field guide’, 16 februari 2006, http://papers.ssrn.com/sol3/papers.cfm?abstract_id=1818025, DOI:

10.2139/ssrn.1818025.

68 A. Layne-Farrar, ‘Defining software patents: a research field guide’, 16 februari 2006,

(24)

24

inhoudelijk beoordelingskader vast moeten stellen, op basis waarvan men elk octrooi afzonderlijk tegen het licht zou moeten houden om vast te kunnen stellen of het octrooi binnen het kader van het onderzoek valt. In de praktijk doet men onderzoek naar softwareoctrooien door bijvoorbeeld op octrooiklassen te selecteren of gebruik te maken van bepaalde zoekwoorden, zoals ‘software’ of ‘computerprogramma’.69 Men zou kunnen spreken van een softwareoctrooi indien de uitvinding voor een belangrijk deel op software berust of feitelijk op standaardhardware wordt gerealiseerd.70 Middels deze vorm van automatisering kunnen individuele octrooien geanalyseerd worden aan de hand van het gebruikte beoordelingskader, en heeft zodoende ook empirische gegevens opgeleverd in de wetenschap.71

8.2 De (historische) positie van software in het intellectueel eigendomsrecht

De softwaremarkt is een relatief jonge markt, aangewakkerd toen IBM in 1969 zijn hardware- en softwareactiviteiten scheidde. Met het groeien van de software-industrie, groeiden ook de zorgen bij ontwikkelaars en verkopers over de juridische bescherming van hun product. Discussie over de wijze van bescherming leidde uiteindelijk tot de keuze om software via het auteursrecht te beschermen. Dit kon namelijk simpelweg door het auteursrecht met een nieuwe wet van toepassing te verklaren. Dit werd eerst in de VS gedaan, daarna volgde Europa (de EEG in dit geval) met de softwarerichtlijn.72 Enkele jaren later werd software ook in het TRIPs-verdrag universeel als literair werk erkend. De gedachte was dat software ‘als een boek’ (namelijk per exemplaar) verkocht zou worden, in de praktijk kwam dit echter amper tot uitdrukking. Software werd vrijwel uitsluitend via een gebruikslicentie afgenomen, ondanks dat het toentertijd uitsluitend kopieën op fysieke gegevensdragers betrof.73 Deze situatie werd

69 J. Bessen, R.M. Hunt, ‘The software patent experiment’, http://www.researchoninnovation.org/softpat.pdf; B.H.

Hall & M. MacGarvie. ‘The private value of software patents’, Research Policy, (39) 2010, afl. 7, p. 994-1009.

70 A. Engelfriet, ‘De gevolgen van Alice voor het Amerikaanse softwareoctrooi’, Computerrecht 2016/3, Afl. 1,

1-42; J. Bessen & R.M. Hunt, ‘An empirical look at software patents’, Journal of Economics & Management Strategy (16) 2007/1, pag. 157-189.

71 D.W.F. Verkade, D.J.G. Visser & L.D. Bruining, ‘Ruimere octrooiëring van computerprogramma's: technicality of revolutie?’, IteR series nr. 37, Den Haag: Sdu Uitgevers 2000; ‘De juridische en economische aspecten van het softwareoctrooi’, Ministerie van Economische Zaken, december 2001.

72 Richtlijn 91/250/EEG van de Raad van 14 mei 1991 betreffende de rechtsbescherming van

computerprogramma’s (Softwarerichtlijn).

73 A. Engelfriet, ‘De UsedSoft-uitspraak: een kleine revolutie’, Nijmeegs Juridisch Faculteitsblad

(25)

25

verder gecompliceerd door ingewikkelde licentie-afspraken en de opkomst van het digitale ‘exemplaar’. Op basis van de softwarerichtlijn waren de auteursrechten reeds uitgeput zodra het fysieke exemplaar door verkoop in de handel was gebracht. Met het Usedsoft-arrest is dit onlangs in beginsel ook voor digitale exemplaren komen te gelden.74 De analogie met het verkopen van een boek is daarmee ook in het geval van een digitale kopie te trekken. Er zijn echter belangrijke verschillen te maken die tot gevolg hebben dat het auteursrecht, voor de boekhandel wél een toereikend beschermingsmechanisme is, maar voor de softwaremarkt tekortschiet. De bescherming van software onder het auteursrecht biedt desalniettemin enkele belangrijke voordelen. Bescherming wordt namelijk automatisch verkregen zonder dat daarvoor een aanvraag of registratie vereist is. Daarnaast is de beschermingsduur aanzienlijk langer dan in het octrooirecht.75

Om echter de beperking van het auteursrecht op de bescherming van software te begrijpen is het belangrijk om basale kennis van de structuur van software te kennen. Software is de programmatuur, een verzameling gegevens of instructies dat wordt uitgevoerd op een computer. Dit kan op je eigen computer zijn, of extern zoals bij een website. Software bestaat uit verschillende lagen, namelijk de broncode en de objectcode. De broncode is een voor mensen leesbare vorm van het programma, de objectcode is de voor computers leesbare vorm. Software wordt doorgaans in broncode geschreven, en via een compiler omgezet in objectcode. Zowel de broncode als de objectcode worden beschermd onder het auteursrecht.76 Software

wordt op een bepaalde manier geschreven om een functioneel effect te bereiken, bijvoorbeeld om het mogelijk te maken om het beeld opzij te swipen. Een belangrijk aspect van het schrijven van software is echter dat men vele verschillende manieren heeft om een bepaald functioneel element te bewerkstelligen. Zo kan men verschillende programmeertalen gebruiken, of binnen dezelfde programmeertaal voor een andere methode kiezen. In het auteursrecht wordt uitsluitend de uiting beschermd, niet het idee. Dit betekent dat de bron- en objectcode als uiting zijn beschermd, maar niet het functionele element van bijvoorbeeld het swipen zelf. Het auteursrecht beschermd in dit geval uitsluitend tegen het kopiëren van de code, niet tegen het

74 HvJ arrest in de zaak C-128/11, 3 juli 2012 (Usedsoft).

75 Art. 37 van de Auteurswet regelt een beschermingstermijn van 70 jaar, te tellen vanaf het overlijden van de

maker. De Rijksoctrooiwet geeft een beschermingstermijn van 20 jaar na indiening, art. Lid 6 en art. 49 lid 2.

76 Zie art. 10 lid 1 TRIPs, art. 4 WCT en is ook in EU recht geïmplementeerd op basis van art. 1 van de Richtlijn

(26)

26

anderszins nabootsen van de functionaliteit. Dat functionele elementen van het computerprogramma niet beschermd zijn kwam ook naar voren in het arrest van het Hof van Justitie in de zaak SAS Institute Inc./World programming ltd.77

Indien men de beperkingen van de bescherming van software via het auteursrecht in acht neemt, kan men gemakkelijker inzien waarom softwareontwikkelaars in bepaalde gevallen toch bescherming onder het octrooirecht zoeken (en ook krijgen).78 Ondanks dat computerprogramma’s als zodanig zijn uitgesloten én er hardnekkige kritiek op de octrooieerbaarheid van software bestaat.79 De Verenigde Staten beten hiermee wederom het spits af en erkenden als eerste het softwareoctrooi. De omslag in de benadering van software vond plaats in de zaak Diamond v. Diehr van het Amerikaanse Hooggerechtshof in 1981. Daarin werd overwogen dat computerprogramma’s binnen de categorieën van uitvindingen vallen, waarvoor de wetgever octrooirechtelijke bescherming had beoogd.80 Hiermee kwam het Amerikaanse Hooggerechtshof terug op haar eerdere benadering dat computerprogramma’s louter wiskundige algoritmen zijn en derhalve zijn uitgesloten van octrooi.81 Als de grootste softwareproducent in de wereld namen zij hiermee de meest liberale stelling in.82 Mede gevoed door de heersende doctrine dat “everything under the sun made by man” te octrooieren is,

77 HvJ C-406/10 (SAS Institute Inc./World programming ltd.).

78 Eén van de centraal staande overwegingen die ten grondslag ligt aan richtlijn 91/250/EEG (Softwarerichtlijn)

was dat aanzienlijke middelen moeten worden ingezet om software te ontwikkelen, terwijl deze voor een fractie van de kosten kan worden gekopieerd. In essentie is dit vergelijkbaar met de overweging die ten grondslag ligt aan het beschermen van functionaliteit van software door middel van het octrooirecht. Functionele elementen kunnen dikwijls in de praktijk immers ook nagemaakt worden voor een fractie van de kosten, het auteursrecht beschermt daar niet tegen.

79 Hierover meer in paragraaf 8.3.

80 US Supreme Court 3 maart 1981, Diamond v. Diehr, 450 U.S. 175.

81 US Supreme Court 20 november 1972, Gottschalk v. Benson, 409 U.S.63, 67.

82 Het softwareoctrooi werd desondanks de liberale houding in de VS niet altijd als zodanig geaccepteerd. Het

United States Patent and Trademark Office (USPTO) bleef tot midden jaren 70 volhouden dat software een wiskundig algoritme betrof en dus niet octrooieerbaar was. Het resultaat hiervan was dat software, in essentie en vergelijkbaar met de Europese benadering, als zodanig niet octrooieerbaar werd geacht. In andere toepassingen was octrooieerbaarheid wel mogelijk. Zie wederom: US Supreme Court 20 november 1972, Gottschalk v. Benson, 409 U.S.63, 67.

(27)

27

werden sindsdien duizenden softwareoctrooien verleend in de VS.83 Dit leidde tot toenemende

druk in Europa om ook hier octrooien voor software toe te kennen.84

In 1986 kwam ook in Europa de omslag met de uitspraak van de Technische Kamer van Beroep van het Europees Octrooibureau in de zaak Vicom/Computer-related invention.85 De Kamer overwoog het volgende:

“a claim directed to a technical process which process is carried out under the control of a program (be this implemented in hardware or in software), cannot be regarded as relating to a computer program as such within the meaning of Article 52(3) EPC, as it is the application of the program for determining the sequence of steps in the process for which in effect protection is sought. Consequently, such a claim is allowable under Article 52(2)(c) and (3) EPC.”

Hieruit volgt dus dat een claim gericht op het technisch proces, niet als software als zodanig kan worden gezien, omdat het de toepassing van de software is waarvoor bescherming wordt gezocht. Derhalve wordt octrooiverlening toelaatbaar geacht onder artikel 52 EOV. Deze uitspraak bood toekomstige octrooiaanvragen de kans om software te octrooieren, zolang men kon claimen dat het ter toepassing van een technisch proces dient. In Europa werd dus ook, zij het een veel kleinere, opening gecreëerd om (de toepassing van) computerprogramma’s toch vatbaar te maken voor octrooiverlening.

8.3 Wat zijn de implicaties van een softwareoctrooi?

Dat computerprogramma’s vatbaar zijn voor octrooi onder het EOV is dus wel duidelijk. Wat echter onduidelijk blijft, is welke software wel en welke software niet octrooieerbaar is.86 Dit komt deels voort uit de wijze waarop men CII octrooieert en op welke wijze voldaan wordt aan

83 M. Naser, ‘Computer software: copyrights v. patents’, Loy. L. and Techn. Ann., 2009, 39; US Supreme Court

16 juni 1980, 447 U.S. 303, Diamond v. Chakrabarty.

84 J. Abid, ‘Software patents on both side of the Atlantic’, J. Marshall J. Computer & Info. L, 2004-2005, pag.

815;

85 T 208/84, 15 juli 1986, OJ EPO 1987, 19, nr. 5 (Vicom/Computer-related invention).

(28)

28

de vereiste van een ‘technische aard’. Er bestaan verschillende bezwaren tegen softwareoctrooien.

8.3.1 Kwaliteit en innovatie

Allereerst is een bekend en veelgehoord bezwaar tegen het softwareoctrooi dat het doorgaans van een lage kwaliteit is. Ondanks de lage kwaliteit, blijven deze octrooien toch vaak overeind in gerechtelijke procedures. Dit heeft tot negatief effect dat de innovatie op de markt geremd wordt, doordat ontwikkelaars te weinig vrijheid hebben om hun software (uitvindingen) te gebruiken.87

8.3.2 Open source software

Een ander voorkomend bezwaar tegen CII-octrooien is dat van de “Free Software Foundation” en het zogenoemde ‘bazaarmodel’. Dit houdt de visie in dat alle software in principe vrijelijk toegankelijk moet zijn, daarbij inbegrepen de gedachte dat IE-rechten niet ingezet mogen worden om deze toegang te beperken.88 Hoewel deze gedachte specifiek op software(octrooien) toeziet, moet deze mijns inziens onder de algemene gedachte tegen exclusieve IE-rechten geschaard worden. Zoals deze ook bijvoorbeeld bestaat tegen het gebruik van IE-rechten om de vrijelijke toegang tot boeken, muziek of films te beperken. Kortom, los van het feit of het argument van de vrijelijke toegang als valide beschouwd wordt, vormt dit geen uniek bezwaar tegen CII-octrooien op zich.

8.3.3 Rechtvaardiging

Ten slotte is ook een bezwaar dat de uitvinding die beschermd wordt vaak onderdeel is van een serie van uitvindingen, waarbij op de onderliggende producten reeds vele octrooien van toepassing zijn. Bedrijven bouwen zo enorme portefeuilles op, waarbij de kans aannemelijk is dat op elkaars octrooien inbreuk wordt gemaakt. Er heerst een soort gewapende vrede, waarbij octrooien als onderhandelingsfiches dienen. Hierdoor wordt het voor bedrijven zonder grote octrooiportefeuilles op de relevante gebieden lastig om te opereren. Een negatieve bijkomstigheid is dat dit ‘patent trolling’ in de hand kan werken.89

87 A. Engelfriet, ‘Open source software en octrooien, een moeilijke combinatie’, BIE, mei 2003, pag. 204-208. 88 M. Schellekens, ‘De octrooieerbaarheid van computerprogramma’s’, AA april 2014, pag. 273; E.S. Raymond, ‘The Cathedral and the Bazaar’, Sebastopol: O’Reilly 1999.

Referenties

GERELATEERDE DOCUMENTEN

Oscar Salet vond het niet iets om wakker van te liggen. Hij is elf jaar en was met zijn broer Victor voor het eerst op een congres. In een kraampje verkochten zij allerlei

Deze bepalingen maken echter niet duidelijk wanneer een computer-generated werk voldoende creatief zou (kunnen) zijn om voor auteursrechtelijke bescherming in aanmerking te komen..

Hoe kun je deze heuristieken gebruiken in het A* algoritme om de brandweerman zo snel mogelijk naar het vuur te leiden (aangenomen dat hij al minder dan 100 meter van de

Als heuristiek voor de afstand van een punt in het huis naar de brand op zolder wordt het volgende gebruikt: de euclidische afstand tot de dichtsbijzijnde trap maal het

Toch kun je ook zeggen dat Deep Blue niet echt intelligent is omdat het voornamelijk gebruik maakt van brute force om de beste zetten te vinden en niet begrijpt waarom een zet goed

We bekijken het volgende algoritme voor het Common Superstring probleem, dat vraagt naar een (zo kort mo- gelijke) string die een stel gegeven strings bevat: Neem herhaald de twee

Bij het EHRM klaagt Roemen over schending van artikel 10 en Schmitt over schending van artikel 8. Het Hof spitst de zaak direct toe op de journalistieke bronbescherming, een van

In de zaken Hewitson en Chalkley kwam het Hof, zoals het al eerder deed in Khan tegen het Verenigd Koninkrijk (12 mei 2000), tot de conclusie dat de Engelse Home Office Guidelines