• No results found

De laatste jaren is Explainable AI (XAI) steeds meer in opmars. Gebruikers zijn vaak pas over- tuigd van de werking van recommender systems wanneer ze weten waarom bepaalde producten aangeraden werden en deze redenen ook begrijpen en erkennen. Omwille van die verduidelij- kingen zal de klant de recommandaties langzaamaan vertrouwen waardoor het systeem meer gebruikt zal worden. Via transparantie kunnen we als programmeur ook controleren of het

recommender system geslaagd is door alle voorstellen te verifiëren (scrutability). Explainable recommender systems komen recent in opgang en behoren meestal tot de categorie model based collaborative filtering aangezien de latente factoren wel leiden tot efficiënte performanties, maar

moeilijk te verklaren resultaten. Bij content based filtering kan er daarentegen al gemakkelijk voor transparantie gezorgd worden door de features zichtbaar te maken die in het verleden al door de gebruiker geprefereerd werden. Met andere woorden, er ontstaat een trade-off tussen nauwkeurigheid in het geven van aanbevelingen en het kunnen voorleggen van een motivering daarvoor.

Transparantie [23] kan geregeld worden op een post-hoc-manier met een model-agnostic-benadering waarbij een black box de gedachtegang achter de recommandaties genereert of op een rechtstreek- se manier met een model-intrinsic-benadering waarbij de redenering vanuit het interpretable

model komt. Deze verschillende vormen kunnen respectievelijk vergeleken worden met vlugge

beslissingen waar we pas achteraf een verklaring voor zoeken en voorzichtige rationele beslissin- 36

4.1. VERKLARINGSTECHNIEKEN AI 37

Figuur 4.1: Relevant-user en relevant-item explanation [3]

gen die berust zijn op enige logica. Dezelfde suggesties kunnen op meerdere manieren verklaard worden aan de gebruikers: tekstueel, sociaal en visueel. Hieronder worden deze verschillende ma- nieren weergegeven, met telkens een voorbeeld van het resultaat binnen de receptenapplicatie. Verder, in sectie 4.2, zal er besproken worden welke transparantiebenadering gekozen werd voor de receptenapplicatie en waarom. Vervolgens wordt de implementatie van de gekozen techniek in het project verder toegelicht.

Redeneringen gebaseerd op recommandatiealgoritmes

Er kan gewerkt worden met relevant-item explanations [24], gebaseerd op item-based collaborative

filtering, waarbij recommandaties van nieuwe producten verklaard worden aan de hand van de

aanbevelingen van reeds behandelde items. Omdat gebruikers deze producten al gezien hebben, worden ze zo gemakkelijker overtuigd. Zo zou een recept aangeraden kunnen worden aan een gebruiker met als verklaring zijn hoge review op een buurrecept. Daarentegen hebben gebruikers geen band met de gelijkaardige reviewers in relevant-user explanations [24], gebaseerd op user-

based collaborative filtering, waardoor het vertrouwen in de suggesties zou kunnen dalen. Hierbij

wordt een recept aangeraden aan een gebruiker met als verklaring ”150 andere gelijkaardige gebruikers vonden dit recept ook leuk”, wat minder interessant is voor de gebruiker.

Feature-based explanation [23] lijkt sterk op content based filtering en toont aan de gebruikers

de karakteristieken van de items en hoeverre die matchen met diegene van de gebruiker. Die

item features kunnen onder het mom van tags gebruikt worden in applicaties, zodat er over tagsplanation [4] gesproken wordt. Zo zouden de tags in de receptenapplicatie de ”gang”, het

”gerechtstype”, de ”ingrediënten” en ”allergieën”, ”diëten” of ”lifestyle” kunnen zijn. Dan ziet de gebruiker verklaringen in de vorm ”dit gerecht wordt aangeraden omdat het vegetarisch is en geen noten bevat”. Men kan ook de demografische kenmerken [25] van de consumenten gebruiken, zoals in reclame vaak gebeurt met leeftijd, geslacht en verblijfplaats. Dan kunnen lokale specialiteiten met noedels aangeboden worden bij verblijf in Azië of worden snelbereide en gemakkelijke recepten voorgesteld aan jonge gebruikers.

Redeneringen gebaseerd op reviews

Bij opinion-based explanation [26] worden de meningen van gebruikers uit reviews gebruikt voor het opstellen van verklaringen. Een aspect-level-benadering hangt sterk samen met feature-based

Figuur 4.2: Feature-based explanation [4]

beschikbaar zijn in de gebruikers- of iteminfo. Ze worden met het recommandatiemodel geleerd via de reviews en daarna kunnen de aspecten gepaard worden met persoonlijke meningen om een gevoel uit te drukken, zoals het paar ”zout-veel” waarmee het gevoel ”negatief” bedoeld wordt. Met gevoelsanalyse zou het sentiment direct toegevoegd kunnen worden waardoor je triplets in de vorm ”aspect–mening–gevoel” verkrijgt zoals ”zout-veel-negatief” bij recepten. Meningen kunnen afhankelijk van de context verschillende gevoelswaarden uitdrukken, als voorbeeld kan ”veel” op een negatief gevoel duiden bij ”zout”, maar positief zijn bij ”groenten”.

Redeneringen gebaseerd op visualisatie

De verklaringen kunnen visueel [23] voorgesteld worden met een volledige of gedeeltelijke afbeel- ding waarin enkel de interesseregio wordt afgebeeld, dit kan verschillen per gebruiker. Deze soort redenering kan handig zijn bij het shoppen wanneer er gezocht wordt naar matchende outfits, maar is minder aangewezen bij recepten. Ook zit deze techniek nog in zijn initiële fase en is verder onderzoek gewenst.

Redeneringen gebaseerd op sociale kringen

Aangezien de buren die gebruikt worden in relevant-user explanations geen persoonlijke band hebben met de gebruiker, zal de user niet meer geneigd zijn de aanbevelingen te vertrouwen. Wanneer de gebruiker echter verklaringen met gebruikers uit zijn eigen sociale kring binnen- krijgt (social explanation [23]), zullen ze meer betekenis hebben én zullen er meteen ook minder privacyproblemen zijn.