• No results found

Functie

Sector

Kan u uzelf even kort voorstellen? Dus wat u doet en binnen welke organisatie of bedrijf.

Ja. Ik ben Gino Vaes en ik werk als innovation officer bij Colruyt Group. Colruyt Group als groep van bedrijven, zowel Colruyt winkels, Okay, Spar, maar ook Dreamland, Dreambaby, Collishop, een hele variatie aan verschillende zaken, net zoals de DATS 24-tankstations of de kledingwinkel ZEB en al die zaken onder Colruyt Group. En mijn rol is voornamelijk om nieuwe technologie of opkomende technologie binnen het bedrijf binnen te brengen en te kijken wat we er allemaal mee kunnen doen en aanzetten te geven en de mensen binnen de firma inspireren wat dat we ermee kunnen doen, daar zo de eerste stappen in te zetten.

Sociale_Robots Oké en op welke komt u in aanraking met bepaalde sociale robots?

Omdat het een van de technologieën is die we ook op onze radar hebben staan. We hebben bijvoorbeeld vorig jaar een project gedaan om Google Assistant beschikbaar te maken binnen de My Colruyt-app waardoor dat mensen boodschappen kunnen dicteren aan hun smartphone of aan hun Google Home. Maar we hebben ook nog heel wat andere testen gedaan rond hetzelfde topic, die dat nog niet naar buiten zijn gekomen, die dat nog in een vroeger stadium of concept zitten.

Ethiek Oké en op welke manier komt u dan ook soms in aanraking met ethische zaken?

Ja, sowieso privacy. Ik denk dat dat wel altijd heel belangrijk is. Ik denk dat daar heel veel discussie aan vooraf gegaan is op vlak van Google Assistant bijvoorbeeld, omdat ja, een Amerikaanse Google is daar nog niet de beste partij om te vertrouwen met privacy gerelateerde zaken, maar er is heel wat, ja, hoe moet ik het zeggen. Er wordt altijd erover gesproken van ja, privacy staat bij Colruyt nog altijd heel belangrijk aangeschreven voor onze klanten, dus we willen daar ook wel heel bewust mee omgaan. Ja, en we kijken ook elke keer als we nieuwe features toevoegen van ja, in hoeverre kan er iets met die data gebeuren. En dan spreek ik bij wijze van spreken niet direct over kunnen laten opvragen van wat heb ik dit jaar gespendeerd bij Colruyt dat soort zaken wat dat toch wel iets anders is, dan zet choco op mijn boodschappenlijstje bijvoorbeeld.

Voorbeelden Oké, super. En welke sociale robots, of voorbeelden ervan, kent u?

Ik denk dat er twee soorten sociale robots zijn. Ik denk dat als je social robots opzoekt, dat er vaak de link wordt gemaakt met enerzijds de meer human-like robots, zoals NAO of Pepper of Zohra robots, die dan denk ik meer inspelen op, ja robots in de zorgsector of robots die mensen kunnen bijstaan, vaak ook in de ouderenzorg gebruikt worden. Daar gingen we ook naartoe kijken, maar hebben we tot nu toe niets verder mee gedaan. We waren aan het denken van ah ja misschien dat soort robots ook inzetten in winkels om mensen naar bepaalde producten te wijzen enzo, maar daar hebben we heel hard gekeken naar oké eigenlijk staat Colruyt als klantvriendelijkheid is heel belangrijk voor ons en het is toch nog iets warmer om tegen een mens te spreken dan een robot. Maar anderzijds hebben we ook heel wat onderzoek of ideeën richting sociale robots

we daar ook wel redelijk wat toekomst in zien. Stel een nieuw soort interface zoals de smartphone, die bij wijze van spreken, tien jaar geleden die z’n intrede heeft gedaan, of zelfs meer dan tien jaar geleden. Zien we nu stilaan meer en meer applicaties daar ook op komen. Dus we willen daar toch wel mee in zijn en leren hoe dat dat werkt om daar ja, wie weet ooit veel gebruikers op te zien.

Vervanging_Zorgverleners Vervanging_Voordelen Vervanging_Rollen

Oké, ik weet dat u niet direct bezig bent met sociale robots in de ouderenzorg, maar toch is ook uw mening daar van belang. Zouden volgens u bepaalde rollen van zorgverleners kunnen vervangen worden door sociale robots? Al dan niet volledig?

Ik denk dat het vaak wordt toegepast omdat er te weinig mensen zijn in die sector. Dus ja, in zekere zin, bepaalde contacten zijn wel moeilijk om te vervangen door een robot hé. Hoe moet ik het zeggen, robots zijn nog altijd voorgeprogrammeerde zaken. Maar wat je vaak ziet is dat die bepaalde acties doen of mensen kunnen bijstaan bij bepaalde zaken, zoals ja, ik weet niet, een voorbeeld dat vaak naar boven komt is een robot dat bepaalde beweging doet of fitness instructeur speelt bij ouderen, dat kan denk ik goed zijn. Je bent daar nog altijd in groep bezig. Of misschien bepaalde robots die kunnen bijstaan die dat zo de ruggen van de gezondheidswerkers een beetje te besparen. Laatst nog met tijdens Corona, zien we nu ook dat robots ingezet worden in ziekenhuizen omdat mensen niet echt niet meer direct in contact kunnen staan met elkaar, dus dat ze dan robots laten rondrijden om toch nog iets of wat interactie met die mensen te kunnen hebben. Het kan altijd zijn dat er daar een camera op staat en een videobeeld of Skype op gestreamd wordt bij wijze van spreken. Dat kan zeker ja.

Vervanging_Druk En denkt u dat naarmate sociale robots in de maatschappij, dat de druk wel zal toenemen om zorgverleners te vervangen door sociale robots wel zal toenemen?

In bepaalde taken misschien wel, maar zeker niet in alles. En ik zie in de komende tien jaar ook niet direct een pad naar hoe dat die robots bepaalde interacties gaan kunnen vervangen ofzo. Het blijft nog altijd … voor mensen hoe je ermee kan omgaan of hoe je ermee kan spreken. Het is niet dat de AI om het zo te zeggen, dat erachter zit, al zo intelligent is dat je eigenlijk echt al met een slim toestel aan het babbelen bent of iets dat gevoelens heeft of van dat soort zaken. Het is vaak heel hard een soort van conversatie vooral voorgeprogrammeerd door iemand en ik zie ook niet direct een pad naar hoe we dat kunnen vervangen.

Ethische_Gevolgen En vindt u dat ethisch, vindt u dat dat mag voor die mensen? Die ouderen?

Dat is moeilijk hé. Ja, het hangt heel hard van de toepassing op zich af. Ja in sommige gevallen zal dat zeker ethisch zijn, in sommige gevallen is het een randgeval denk ik. Je kan niet elk menselijk contact vervangen door een robotcontact. Dan ben je gewoon alles aan het automatiseren en dat is ook niet echt het doel denk ik.

Waardevolle_Interactie Oké, maar denkt u wel dat sociale robots waardevolle interactie kunnen voeren met ouderen? Of andere personen?

Waardevolle_Interactie_

Definitie Oké en wat verstaat u precies onder waardevolle interactie? Wanneer beschouwt u een interactie als waardevol?

Wel, mensen hebben bepaalde noden denk ik als je dan spreekt over ouderen of ziekenzorg, denk ik je hebt bepaalde noden om iemand te kunnen zien, maar ook een paar bepaalde andere zaken die dat je moet doen. Want iemand zal je eten moeten brengen of iemand zal u zeggen dat je bepaalde pilletjes moet nemen ofzoiets. Wat dat eerder een routine job is, daar kan het waardevol zijn om die routine taken, bij wijze van spreken gaan vervangen door geautomatiseerde zaken, zodat mensen vrij gemaakt kunnen worden om waardevol, andere waardevolle dingen kunnen doen, waar dat je weldegelijk mensen voor nodig hebt. En daar denk ik dat denk ik wel iets inzit. In een eerste stap hé, we kunnen nog altijd zien waar dat het naartoe gaat. Misschien zijn er bepaalde zaken die ook interessant zijn. Ik ben ook geen echt respect in de ouderen- of ziekenzorg dus het is ook moeilijk om daar heel veel over te zeggen. Ik weet ook niet hoe dat bijvoorbeeld met gehandicapten of echt zware dementerende mensen daar, want ja daar zie je ook op het nieuws dat er interacties met robots misschien wel waardevoller kunnen zijn omdat ze bij wijze van spreken toch niet door hebben of het een robot of een mens is. Of wat je ook vaak ziet is dat het een poes of een hond is dat een keer op bezoek komt dat ze eens kunnen aaien om toch een beetje fysiek contact te hebben ofzo iets. Het zal zeker wel iets inzitten.

Morele_Competenties Oké, super. Nu, denkt u dat sociale robots morele competenties kunnen of zouden moeten bezitten? Zoals dat ze rekening houden met normen en waarden, morele beslissingen kunnen nemen enzo?

Niet direct denk ik. Dat zie ik toch nog niet direct de eerste vijf à tien jaren gebeuren eigenlijk, dat dat erin zit eigenlijk. Alles wat erin zit zal er op een of andere manier geprogrammeerd moeten worden. Het doet ook een beetje denken aan de MIT, er is een studie gebeurt rond zelfrijdende auto’s om zo een beetje een moreel, je moest kiezen van ga ik een gezin met twee kinderen aanrijden of twee bomma’s. Dat soort zaken. Zelf dat is aangeleerd bij wijze van spreken. Het is dan aan de gebruiker dan die data als input om een model te trainen die dan ermee om kan gaan. Dat zou je ook met dat soort type robots kunnen doen, iets vergelijkbaars, maar ook het is en blijft aangeleerd, het is nog altijd geen mens. Het is eerder een ja, een systeem die dat bepaalt op basis van de data die het krijgt. En die data dan ja, op basis waarvan je het getraind hebt, die is maar zo slim als de persoon die de data heeft ingegeven.

Evolutie_Mens_Interactie Oké en welke impact denkt u dat sociale robots zullen hebben op de evolutie van menselijke interactie? Dus op de manier van hoe mensen met elkaar interactie voeren.

Daar moet ik over nadenken. Tot nu toe, om even terug te komen naar Siri en Alexa en Google Assistant enzo, dus heel vaak taak georiënteerd, dus als men er interactie mee heeft is dat niet echt vraag en antwoord, maar wel een opdracht van doe nu dit of doe nu dat. Ja, ik zie dat er bepaalde interacties misschien niet meer nodig gaan zijn als je een robot iets kan doen, als je anders dat aan iemand anders zou gevraagd hebben. Maar op dit moment is dat nog niet echt, praktisch verwaarloosbaar. Op termijn, zullen er misschien wel zaken zijn waardoor er minder interactie nodig is en zo’n assistants ook slimmer worden kunnen die misschien ook meer dingen uitvoeren. Dat het slimme assistants worden. Dingen inplannen voor u in in je agenda of een mail draften of dat soort zaken. Ben even in de werk context aan het kijken, maar anderzijds ook misschien afspraken maken, dus er zullen misschien bepaalde interacties minder zijn. Soms vraag je ook aan iemand anders van heb je geen zin om even iets op he

terwijl in de andere situatie misschien wel bepaalde conversaties daaruit verder volgden, zoals van ah ja dat is interessant dan kunnen we dit eten of dat eten.

Oké, ze kunnen dus bij vele zaken helpen inderdaad, maar ziet u ook misschien dat het op een bepaalde manier wat negatief kan uitdraaien?

Ja nee. Sowieso als je social robots zou beginnen inzetten in de zorg en mensen kijken heel hard uit naar het dagelijks bezoekje van verpleger of verpleegster en die komt niet meer en het is nu een robot die langskomt, dan kan ik me wel voorstellen dat dat tot meer eenzaamheid zal leiden. Dat kan ik me wel voorstellen ja, zeker bij mensen die al niet veel bezoek krijgen. Ja, wij zitten daar nu niet mee en wij proberen toch wel gewoon de typische routine taakjes meer te bekijken en daar te beginnen. Op vlak van ethische dingen zijn wij meer, ligt de focus tot nu toe meer op het privacy gedeelte en ook op keuzes maken, als er bepaalde keuzes moeten gemaakt worden dat die nog altijd eerder door de mens gemaakt worden en nog niet direct door een AI systeem, dat bij wijze van spreken gaat bepaalde dingen beslissen. Dat is zeker iets waarmee we rekening moeten houden.

Aansprakelijkheid Oké, super. Nu, wetgeving bij sociale robots, dat is nog heel beperkt. Denkt u dat een sociale robot wel aansprakelijk kan gesteld worden, in het geval dat bijvoorbeeld een arts aan een robot raad vraagt en hij deze ook volgt en daardoor een patiënt sterft?

Ik denk dat het heel vergelijkbaar is met de bestaande wetgeving eigenlijk. Als je nu zo software hebt die dat ook zo’n suggestie geeft, kan die ook aansprakelijk gesteld worden of niet. Dus in zekere zin zie ik daar niet al te veel verschil in, buiten dat het een nieuwe interface is dat eigenlijk hetzelfde probleem oplost. Of dat dat nu via spraak is dat het voorstel gegeven wordt of dat het een software is die je een mail stuurt van nu moet je dit doen of dat doen. Dus ja, in zekere zin zie ik daar niet echt het verschil in, wetgeving gewijs. De manier waarop, dat is nog iets anders. Daar kan zeker onderzocht worden in hoeverre dat mensen, en ik weet niet of er daar reeds onderzoek over gebeurd is maar, dat mensen bijvoorbeeld sneller geneigd zijn om in te gaan op een suggestie die via spraak ofzo wordt gegeven, dan op een suggestie die via een gewone applicatie gegeven wordt. Dat weet ik niet.

Oké en wie zou in dat geval dan aansprakelijk zijn? De robot of de maker van de robot die dan ook achter de software zit ervan of de arts zelf?

Ik weet niet hoe het nu werkt, of software ook aansprakelijk kan gesteld worden of het bedrijf aansprakelijk gesteld wordt. Als er bepaalde dingen fout berekend worden bij wijze van spreken, ja ongetwijfeld als dat tot gevolg heeft, in het voorbeeld dat jij gaf, als er een Siri of een Alexa op de bureau staat van een dokter, het zal altijd de dokter zijn die het voorschrift maakt. Dus ik denk dat in dat specifiek scenario hij wel nog altijd aansprakelijk zal zijn. Ja, we proberen ook nog altijd de mens de eindbeslissing te laten maken en niet zomaar het systeem. Het kan suggesties doen, maar ja, het is dan ook maar zo slim als de data die erachter zit hé ja.

of hoe spreekt ons bedrijf klanten aan. Het gaat over stomme dingen hé in eerste instantie, bijvoorbeeld u of je. Dat soort zaken. En Google Assistant heeft nog altijd dezelfde stem, dus je kan er daar nog niet echt zoveel personalisatie in stoppen. Maar je bent nog altijd wel met een bedrijf aan het babbelen als je met die aan het babbelen bent. Dus in zekere zin hangt het heel erg van de use case van af. Als het een “Firby’ is bijvoorbeeld, dan is de vergelijking met een dier veel sneller gemaakt, dan als je met een Google Assistant aan het babbelen bent bij Colruyt. Dus ja, ik denk dat de vergelijking wel kan gemaakt worden.

Rechtspersoonlijkheid Oké en vindt u dat sociale robots rechtspersoonlijkheid zouden moeten hebben? Dus dat ze echt contracten kunnen sluiten en goederen bezitten en dus echt een bekwaam persoon zijn in het handelsverkeer?

Nee dat denk ik nog niet. Niet meer dan software van nu bij wijze van spreken.

Rechten_En_Plichten Oké, maar zouden ze dan bijvoorbeeld wel enkel rechten en plichten moeten bezitten? Dat is namelijk een onderdeeltje van rechtspersoonlijkheid.

Ik ben geen jurist hé, dus dat is een moeilijke vraag. Dat weet ik niet. Daar kan ik niet zomaar op antwoorden. Ik denk, moeilijke vraag. Ja, sowieso zijn er bepaalde plichten in ieder geval waaraan een applicatie zou moeten voldoen, zoals GDPR of dat soort zaken. En dus ja, dat geldt ook voor andere applicaties, zoals virtual assistants ofzoiets of robots. Die plichten zijn universeel. En daar moet je je aan houden. Ook handelsrechten en dat soort zaken. Dat moet allemaal wel in orde zijn. Dus die zaken sowieso. Maar om nu te zeggen dat we ze echt als persoon moeten behandelen, dat denk ik niet nee. Of dat het nu echt een rechtspersoon is, nee dat denk ik niet. Het zal eerder de organisatie zijn die het bouwt. Op die manier.

Verantwoordelijkheid Oké en wie is volgens u verantwoordelijk voor de correcte ethische werking van een sociale robot? Dus dat de robot geen foute dingen zegt of foute handelingen doet.

Wel, in principe is nu, ja wij zorgen daar nu zelf als bedrijf voor. Bijvoorbeeld in onze assistant hebben we er ook voor gezorgd dat er een black list is van termen die je niet aan je boodschappenlijstje kan toevoegen ofzo. Dat gaat dan over vloekwoorden of racistische termen en dat soort zaken allemaal. Maar het is niet dat er daar al een verplichting voor is of opgelegd wordt. Dan denk ik, zit je met een aantal partijen die dat daarin zouden kunnen een rol spelen. Dat gaat dan enerzijds over de programmeur van de applicaties die dat op zo’n social robots draaien, ofwel is het de aanbieder of dus eigenaar van het social robot platform en dat is dan Google of Apple of ja de fabrikant van de robot. En ja, die zouden dat ook kunnen spelen en die leggen ook al bepaalde regels op op dat vlak. En ik weet dat we een aantal keer bij Google zijn terug gefloten van dit mag niet of dat mag niet. Dus, zij doen dat ook. En dan heb je ook nog bij wijze van spreken, wetgevende machten of de overheden dus die daar ook regels op zouden kunnen leggen. Wat al natuurlijk iets moeilijker is, want is dat dat internationaal? Of is dat in elk land anders? Of ethische commissies. Dus ja, er zitten zeker veel partijen in die daar iets over te zeggen zouden kunnen hebben. Maar op dit moment staat dat allemaal nog wat in z’n kinderschoenen. En iedereen doet maar wat ze hopen dat het beste is hé.

Vertrouwen Vertrouwen_Risico

Ja, inderdaad ja, als er geen wetgeving is.. Nu, uit onderzoeken blijkt dat heel veel mensen, vooral ouderen dan, heel snel sociale robots gaan vertrouwen en bijvoorbeeld de informatie of instructies die de robot geeft